实验
一万的亿
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
TypeError: dropout(): argument ‘input‘ (position 1) must be Tensor, not str
https://stackoverflow.com/questions/65082243/dropout-argument-input-position-1-must-be-tensor-not-str-when-using-bert原创 2021-12-09 11:09:11 · 4619 阅读 · 0 评论 -
CUDA:CUDA out of memory. Tried to allocate 100.00 MiB (GPU 0; 15.78 GiB total capacity; 14.24 GiB al
1.batch_size调整batch_size调整小了的影响:区别:在于变化的趋势,一个快,一个慢。在显存能允许的情况下,同样epoch的树木,batchsize大的需要的batch数目减少,因此训练时间也减少了。大的batchsize梯度计算的更加稳定,模型的训练曲线可能会更加的平滑。微调的时候大的batchsize可能会取得更好的结果。模型性能但可能会下来。大的batchsize减少训练的时间,提高稳定性。小的batchsize引入随机性的机会大一些,具有更好地泛化能力,2.BN层 affi原创 2021-12-08 14:28:22 · 3908 阅读 · 0 评论 -
pytorch loss
原创 2021-12-01 17:28:37 · 1706 阅读 · 0 评论 -
记录REDTEA最高价值的采样
--------------the relation is: org:dissolved ----------------org:dissolved关系下触发词数量为: 23 org:dissolved关系下的采样的样本数:23.relation_length 23 l_sample 2--------------the relation is: per:country_of_death ----------------per:country_of_death关系下触发词数量为: 6 per:cou原创 2021-12-01 10:45:28 · 161 阅读 · 0 评论 -
关于python迭代器元素的剥脱:remove涉及的反复寻址的问题,还是简单的逻辑append解决问题
关于python迭代器元素的剥脱:remove涉及的反复寻址的问题,最终还是简单的逻辑append解决问题以下红框为改动之处:增加红框之前的输出:改动逻辑之后的输出:【总结】:正向逻辑行不通的时候往往要考虑逆向逻辑。...原创 2021-11-30 14:00:30 · 609 阅读 · 0 评论 -
2021-09-23实验记录
2021-09-17实验记录今天主要核验了为什么data->example->features->tensor过程中从data到example的过程中数量会从1037、358、357对话数量中变成下图成倍的example的增长?改一次bertsf1c的for循环生成的结果:改两次for循环生成的结果:我的疑问:是不是评价f1c真的需要这么多特征train里面90350九万多examples。那么为什么会生成这么多特征呢?...原创 2021-09-24 01:53:07 · 129 阅读 · 0 评论 -
9.22实验记录
用的berts训练的模型:python evaluate.py --f1dev berts_f1/logits_dev.txt --f1test berts_f1/logits_test.txt --f1cdev berts_f1c/logits_dev.txt --f1ctest berts_f1c/logits_test.txt这实验结果我着实有点看不懂了奥test (P R F1) 0.38946723821187995 0.4167758846657929 0.402659069325736.原创 2021-09-22 08:19:32 · 175 阅读 · 0 评论 -
【RARE实验】28号卡的默认cuda版本
28号卡的默认cuda版本我没有升级到10.1,直接使用的上图版本如果出现问题再切换吧。因为~/.bashrc里面好像也没有添加CUDA的新环境变量。需要的时候,再切换版本吧。28卡上还有11的CUDA用的时候再切换吧...原创 2021-03-27 16:46:05 · 161 阅读 · 0 评论
分享