
NLP
JasonYuJX
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
BERT论文阅读笔记
BERT: Bidirectional Encoder Representations from TransformersBERT 是用于语言理解的预训练深度双向编码表征的 transformer结构。它被设计为通过在所有网络层中基于左右文本来预训练深度双向表征。因此通过外接一个输出层来 fine-tuned 预训练好的BERT 表征形成一个新的模型,这种做法可以将BERT运用在大量的其他任务...原创 2019-02-23 13:36:29 · 632 阅读 · 0 评论 -
Python 去掉字符串中的特殊字符,空格
In [1]: import reIn [2]: textOut[2]: " \nALL this shows is that YOU don't know much about SCSI.\n\nSCSI-1 {with a SCSI-1 contro...原创 2019-02-19 11:16:58 · 18642 阅读 · 4 评论