2021-11-30 22-30-51-21、Transformer Masked loss原理精讲及其PyTorch逐行实现

AID:
CID:
视频图片:
作者头像:
弹幕地址:
视频描述:

热门回复:

  • hgyvhmgccsdm:看完了attentionBased Seq2Seq的两个视频以及原始transformer的几个视频,包括手写RNN和LSTM,up主讲的很清楚,也很有耐心,跟着敲了代码之后,理解更加深刻了,谢谢up主! 希望你可以一直坚持下去!
  • 丶谈何容易:up,casual multi-head self attention -> causal multi-head self attention
  • okdidns:up用的是什么笔记软件呀,就是画思维导图的
  • guagua_no1:我要追剧了[呲牙][支持]
  • 带来幸福的壶:up,请问下有木有什么推荐的简单transform的项目吗?我想走一遍,学了理论但是不知道怎么用。