2021-11-30 22-30-51-21、Transformer Masked loss原理精讲及其PyTorch逐行实现
热门回复:
- hgyvhmgccsdm:看完了attentionBased Seq2Seq的两个视频以及原始transformer的几个视频,包括手写RNN和LSTM,up主讲的很清楚,也很有耐心,跟着敲了代码之后,理解更加深刻了,谢谢up主! 希望你可以一直坚持下去!
- 丶谈何容易:up,casual multi-head self attention -> causal multi-head self attention
- okdidns:up用的是什么笔记软件呀,就是画思维导图的
- guagua_no1:我要追剧了[呲牙][支持]
- 带来幸福的壶:up,请问下有木有什么推荐的简单transform的项目吗?我想走一遍,学了理论但是不知道怎么用。