7、softmax和最大熵 加log 加速 剪辑 字幕-B站视频-softmax是为了解决归一问题凑出来的吗?和最大熵是什么关系?最大熵对机器学习为什么非常重要?

AID:
CID:
视频图片:
作者头像:
弹幕地址:
视频描述:

热门回复:

  • 胡说八道假博士:b站需要这样的视频,知识快餐是不存在的
  • biye666:别人的一个小时:太长不看 王木头的一个小时:up真棒,好爱[星星眼][星星眼]
  • gilbertlyn:关于那个"显然"是因为L对所有的P(y_j|x_i)的偏导都要为0才能保证是可能的极值点。
  • Snowmanxxj:整理思路:1、设定样本的概率模型与目标概率模型一致(两个模型特性函数一致)建立服从伯努利分布的变量(此处需要理解样本空间及变量的关系)对两个模型进行降维(降维后两个概率模型依旧一致),由于降维后的两个概率模型只有一阶矩不为零,可以产生一个条件用于后面的计算:降维后样本模型与目标模型的一阶矩相等;2、在满足第一个条件后(降维后样本模型与目标模型的一阶矩相等),可大胆的地将目标概率模型的条件熵转换公式用样本概率模型的经验概率替换,然后计算目标概率模型的条件熵最大值(即满足最大熵原理),计算过程使用了拉格朗日乘数法以及概率论的基本知识
  • Q岛:up是今年机器学习杀出的一匹黑马,不是去年哈哈哈哈牛,跟着王木头有饭吃!!!!![2022][打call]