1.2 卷积神经网络基础补充-1.2 卷积神经网络基础补充

AID:
CID:
视频图片:
作者头像:
弹幕地址:
视频描述:

热门回复:

  • 我得去图书馆了:关于激活函数的选择问题,个人感觉应该是这样的: 对于二分类问题,理论上使用sigmoid和softmax没有区别,因为数学表达式的形式是一样的。 对于多分类非互斥问题,使用sigmoid更合适。 对于多分类互斥问题,使用softmax更合适。
  • 铁打的撒野嚣张:我今后最大的愿望是up的视频永存(可别哪天要再看就找不到了呜呜呜呜)
  • 你们不爱小聪聪了嘛:个人理解(根据Deep Learing书本):局部最优是指loss函数的局部极小点,全局最优是loss的最小点。应当和批量算法(使用全部训练集)还是小批量算法(每次更新使用部分训练集)是两个概念。使用小批量算法的原因是样品数量线性增大所带来的回报是小于线性的。如有错误请指正
  • JamePeng-HaveFun:耐心,详细,挺好
  • lxy112358:在慢慢补大佬的视频,又是给大佬送膝盖的一天[热词系列_知识增加]冲鸭!

http://acg.ibilibili.com/cms/yirenzhixia/7.html