机器学习-贝叶斯线性回归(1)-背景介绍-机器学习-白板推导系列(十九)-贝叶斯线性回归(Bayesian Linear Regression)

AID:
CID:
视频图片:
作者头像:
弹幕地址:
视频描述:

热门回复:

  • 坚横勇依master:在第二讲中,shuhuai008老师没有详细讲解为何P(X|W)=P(W)? 下面从线性系统的角度给予解释:将X看作系统输入,W看作系统参数,Y看作系统输出,因为是线性系统,输入与输出满足线性关系,即y=wTx。但该线性系统是带噪声的,因此输出是wTx与噪声之和,即y=wTx+ε,这个公式就是线性回归模型的数学描述。显然,系统参数W和系统输入X相互独立,两者互不依赖,系统参数W不能决定系统输入,系统输入也不能改变系统参数。由概率论的知识可知,两个随机变量X、W相互独立,则P(XW)=P(X)*P(W),再根据贝叶斯公式P(X|W)=P(XW)/P(W)=P(X)*P(W)/P(W)=P(X),整理得到P(X|W)=P(W)。
  • innolove:真硬核,这是我见过的最硬核的ml理论课程,直逼大学高等数学线性代数和概率统计,但是细还是很细的,手把手推导,点赞打call
  • tsuishihhao:为什么 P(w)服从Gaussian就是Ridge回归,为什么P(w)服从Laplace就是Lasso回归?
  • KEVINMAI1998:请问第四节里将x*直接乘以w得出来的y*的分布和第五节里用积分的形式求的相同吗
  • hallo128:觉得还是白板手写推导好