- 博客(7)
- 收藏
- 关注
原创 BERT(gpu)代码复现
逐行注释,逐行解析。本地配备gpu环境可直接运行。相比cpu版本没有任何删减,增加的几行代码已做标识。code from https://github.com/graykode/nlp-tutorial/tree/master/5-2.BERT
2023-04-29 21:02:21
551
1
原创 BERT(cpu)代码复现
逐行注释,逐行解析。可直接运行。codefrom https://github.com/graykode/nlp-tutorial/tree/master/5-2.BERT
2023-04-29 20:59:03
474
原创 pytorch中多维度索引切片
比如现在有一个三维形状的矩阵:[2, 7, 8],切片时要对应的写:[:, :, :],三个冒号分别代表要取第一维、第二维、第三维位置上的元素。(索引下标从0开始)3. 第三个维度(随后一个[]):表示要取第几个批次中的第几行里的第几个元素。2. 第二个维度(中间的[]): 表示要取第几个批次的第几行。1. 第一个维度(最外面的[]):表示有。7行8列的矩阵,相当于批次的控制信息。
2023-04-22 19:13:16
447
原创 Transformer(gpu)代码复现
逐行注释,逐行解析。本地配备gpu环境可直接运行。相比cpu版本没有任何删减,增加的几行代码已做标识。code from https://github.com/graykode/nlp-tutorial/tree/master/5-1.Transformer
2023-04-15 17:55:17
1061
1
原创 Transformer(cpu)代码复现
逐行注释,逐行解析。可直接运行。code from https://github.com/graykode/nlp-tutorial/tree/master/5-1.Transformer
2023-04-15 17:45:34
749
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人