第一课 第一周 1.1 欢迎参加《机器学习》课程-(强推|双字)2022吴恩达机器学习Deeplearning.ai课程

AID:
CID:
视频图片:
作者头像:
弹幕地址:
视频描述:

热门回复:

  • 168想扣篮:应昨天UP主的邀请,来这里做一下这门课和旧课的差别! 首先说一下自己的情况:我是第一遍看这门课,零基础入门机器学习的研0学生。刚开始我的老师让我直接看cs231n,真就一点都看不懂,现在到了暑假决定用一个月时间把吴恩达老师的ML课程学完,代码跟着写一遍。我是先看的旧课,然后旧课刚看完了线性回归部分UP主就把新课搬来了,所以对照着看,看看这两门课有什么差别,但是我看新课的时候是倍速看的,主要是是看过了一遍已经知道大概了,抓重点看就行了,所以总结的可能不是很到位 话不多说,直接进入对比部分: 这次对比的是旧课前五部分和新课前两周,主要是线性回归梯度下降部分: 首先说结论,大体上是一样的,没什么差别,但是新课重点在于优化,也就是挤牙膏也要挤出一点不同的地方! 优化的地方主要在于一些细节的部分,而这些都是新添加的,在旧课我没看到,下面举几个例子: 一:解释了下为什么cost function要除以2m,目的是使得func不会随着训练样本的增大而急剧增大。之后又解释了为什么是2m而不是km(k是常数),目的是方便后面梯度下降求导时把2约去使式子看起来更简洁 二:从底层解释为为什么在梯度下降时用Numpy自带的线性代数库计算要比用for等的方法快 三:有一些点和旧课不一样了,旧课中数据预处理部分的均值归一化的公式是(x-x.mean)/x.std,而新课中的是(x-x.mean)/(x.max-x.min),而把(x-x.mean)/x.std称为一种叫z-score的方法 以上就是我对于这一部分的总结,可能有错误和不够完善的,希望看了课程的同学可以大方指出。我也会继续在这个帖子下面更新自己的学习总结对比,同时也希望大家可以监督我,希望在八月份开始前能把这个课程学完! 研0的同学一起加油!暑假是用来找出差距、正视差距、弥补差距的!
  • _Notte_:既然是tf 那就不好意思了,import torch as tf
  • ywsjwyb:哈哈哈私信让搬还是有用的
  • 59改意大利炮:好消息:是Python 坏消息:是Google开摆了的tensorflow
  • 看到我请叫我去學习:up这个翻译真的太棒了,至少对比了其他家的翻译好太多了。我看了下官网,第三部分好像开始更新了,up什么时候安排上?[脱单doge]