
NLP
火星种萝卜
c++ vc mfc java
展开
-
中国队刷新知识图谱 202201
百度安全验证转载 2022-01-24 23:02:38 · 96 阅读 · 0 评论 -
大话知识图谱--意图识别和槽位填充
大话知识图谱--意图识别和槽位填充 - 知乎转载 2022-01-20 15:07:21 · 1400 阅读 · 0 评论 -
pip install pyhanlp报错 error: Microsoft Visual C++ 14.0 or greater is required
pip install pyhanlp报错 error: Microsoft Visual C++ 14.0 or greater is required转载 2022-01-17 19:36:22 · 229 阅读 · 0 评论 -
NLP学习笔记31-信息抽取 详解信息抽取snowball算法
NLP学习笔记31-信息抽取_bohu83的博客-优快云博客_nlp信息抽取转载 2022-01-17 11:13:00 · 606 阅读 · 0 评论 -
Snowball 关系提取,2篇知乎博客
Snowball 关系提取,简单理解 - 知乎转载 2022-01-16 19:42:30 · 333 阅读 · 0 评论 -
长短记忆神经网络LSTM 看图说话的推导
长短记忆神经网络LSTM - wzd321 - 博客园转载 2022-01-16 08:13:15 · 177 阅读 · 0 评论 -
BERT不加载预训练模型的理由
如果数据量多的话,可以试试不加载已经预训练好的模型。 南方的仔回复叫我老周就好了(作者)2019-04-10 数据16万条,但是不加载预训练的话那不就是从头开始训练了吗?官方啊说要很久唉 一起读Bert文本分类代码 (pytorch篇 六) - 知乎...转载 2021-12-08 23:24:47 · 545 阅读 · 0 评论 -
Attention机制中的QKV从哪来的深挖论文出处
深度学习attention机制中的Q,K,V分别是从哪来的? - 知乎转载 2021-11-09 23:10:04 · 901 阅读 · 0 评论 -
2021-11-02
超详细!!GPU部署 (pytorch+tensorflow)_m0_51246196的博客-优快云博客转载 2021-11-02 11:02:15 · 71 阅读 · 0 评论 -
针对NLP长文本处理问题的Longformer论文解读
Longformer论文解读: The Long-Document Transformer_习惯与规则决定命运-优快云博客转载 2021-10-31 20:45:46 · 446 阅读 · 0 评论 -
GPU状态监测 nvidia-smi 命令详解
GPU状态监测 nvidia-smi 命令详解_黄飞的博客专栏-优快云博客转载 2021-10-23 22:48:34 · 475 阅读 · 0 评论 -
图解BERT模型
6.3 图解BERT模型:从零开始构建BERT_炫云云-优快云博客转载 2021-10-23 22:06:01 · 280 阅读 · 0 评论 -
RuntimeError: CUDA out of memory. Tried to allocate 192.00 MiB (GPU 0; 10.76 GiB total capacity; 9.3
RuntimeError: CUDA out of memory. Tried to allocate 192.00 MiB (GPU 0; 10.76 GiB total capacity; 9.36 GiB already allocated; 171.44 MiB free; 9.48 GiB reserved in total by PyTorch)原创 2021-10-22 16:26:50 · 4289 阅读 · 0 评论 -
秒懂词向量
[NLP] 秒懂词向量Word2vec的本质 - 知乎转载 2021-10-22 11:24:12 · 83 阅读 · 0 评论 -
激活函数GELU()
“瘦身成功”的ALBERT,能取代BERT吗?_com转载 2021-10-18 11:17:10 · 363 阅读 · 0 评论 -
conda安装与使用
conda的安装与使用(2021-04-27更新) - 简书转载 2021-10-13 11:04:30 · 139 阅读 · 0 评论 -
华为开源BERT 哪吒原理介绍
“哪吒”出世!华为开源中文版BERT模型_训练转载 2021-10-13 10:48:15 · 198 阅读 · 0 评论 -
华为开源BERT模型NEZHA
华为开源中文版BERT模型 NEZHA 哪吒 - 知乎转载 2021-10-13 10:31:27 · 1232 阅读 · 0 评论 -
互联网——常用资料查找网站 转
互联网——常用资料查找网站_GeekZW的博客-优快云博客_查资料常用网站转载 2021-10-13 10:06:28 · 105 阅读 · 0 评论 -
NLP——如何批量加载数据 含有self.sample(random)用法
NLP——如何批量加载数据_GeekZW的博客-优快云博客转载 2021-10-13 09:55:10 · 491 阅读 · 0 评论 -
pandas.get_dummies 的用法
pandas.get_dummies 的用法_数据分析-优快云博客转载 2021-10-12 22:49:46 · 128 阅读 · 0 评论 -
Dice Loss损失函数
语义分割之Dice Loss深度分析转载 2021-10-12 22:02:16 · 1489 阅读 · 0 评论 -
何恺明大神的「Focal Loss」,如何更好地理解?
何恺明大神的「Focal Loss」,如何更好地理解? - 知乎转载 2021-10-12 21:57:50 · 106 阅读 · 0 评论 -
文本数据增强三(回译,不同语种间的翻译)含有github地址
文本数据增强三(回译,不同语种间的翻译)_大漠帝国的博客-优快云博客转载 2021-10-12 09:49:25 · 221 阅读 · 0 评论 -
NLP文本增强的EDA算法
NLP 数据增强方法 EDA转载 2021-10-12 09:44:31 · 435 阅读 · 0 评论 -
解决ModuleNotFoundError: No module named ‘pip‘问题
解决ModuleNotFoundError: No module named 'pip'问题_haihonga的博客-优快云博客转载 2021-10-12 07:04:28 · 253 阅读 · 0 评论 -
BERT4KERAS简单使用
bert4keras的简单使用 - 知乎转载 2021-10-11 10:53:54 · 1383 阅读 · 0 评论 -
linux下查看GPU版本和详情信息 CUDA版本信息 anaconda版本信息
# lspci | grep -i nvidia01:00.0 VGA compatible controller: NVIDIA Corporation TU102 [GeForce RTX 2080 Ti] (rev a1)01:00.1 Audio device: NVIDIA Corporation TU102 High Definition Audio Controller (rev a1)01:00.2 USB controller: NVIDIA Corporation TU102 US转载 2021-10-11 10:32:07 · 2733 阅读 · 0 评论 -
手把手教你用Keras进行多标签分类(附代码)_数据派THU-优快云博客 (翻译:程思衍校对:付宇帅)
手把手教你用Keras进行多标签分类(附代码)_数据派THU-优快云博客手把手教你用Keras进行多标签分类(附代码)_数据派THU-优快云博客转载 2021-09-27 10:11:53 · 741 阅读 · 0 评论 -
什么是GRU (Gated Recurrent Unit)
Gated Recurrent Unit(GRU) - 程序员大本营转载 2021-09-27 10:04:35 · 622 阅读 · 0 评论 -
什么是Bi-GRU语义解析
用Bi-GRU语义解析,实现中文人物关系分析 | 附完整代码_优快云资讯-优快云博客转载 2021-09-27 10:01:15 · 3598 阅读 · 0 评论 -
BERT的前世今生
BERT的前世今生(一) - 知乎转载 2021-09-26 12:34:45 · 105 阅读 · 0 评论 -
关于BERT PART1 ALBERT
【论文阅读】ALBERT - 知乎转载 2021-09-26 12:24:27 · 104 阅读 · 0 评论 -
jieba tfidf_【NLP】【三】jieba源码分析之关键字提取(TF-IDF/TextRank)
【一】综述利用jieba进行关键字提取时,有两种接口。一个基于TF-IDF算法,一个基于TextRank算法。TF-IDF算法,完全基于词频统计来计算词的权重,然后排序,在返回TopK个词作为关键字。TextRank相对于TF-IDF,基本思路一致,也是基于统计的思想,只不过其计算词的权重时,还考虑了词的上下文(通过窗口滑动来实现),而且计算词的权重时,也考虑了相关联系词的影响。可以说,TextRank实际上是依据位置与词频来计算词的权重的。下面,结合基于jieba源码,来分别解释两种算法的实现。【转载 2021-09-23 17:34:20 · 566 阅读 · 0 评论 -
NLP领域文本摘要提取有哪些研究方法
NLP领域文本摘要有哪些研究方法?_句子转载 2021-09-23 15:13:55 · 295 阅读 · 0 评论 -
提取文本摘要算法
提取内容摘要_yeal-优快云博客_摘要提取提取内容摘要_yeal-优快云博客_摘要提取转载 2021-09-23 15:11:29 · 472 阅读 · 0 评论 -
python count()方法
Python count() 方法 | 菜鸟教程转载 2021-09-14 10:37:05 · 84 阅读 · 0 评论 -
TFIDF的简单解释
有很多不同的数学公式可以用来计算tf-idf。这边的例子以上述的数学公式来计算。词频(tf)是一词语出现的次数除以该文件的总词语数。假如一篇文件的总词语数是100个,而词语“母牛”出现了3次,那么“母牛”一词在该文件中的词频就是3/100=0.03。而计算文件频率(IDF)的方法是以文件集的文件总数,除以出现“母牛”一词的文件数。所以,如果“母牛”一词在1,000份文件出现过,而文件总数是10,000,000份的话,其逆向文件频率就是lg(10,000,000 / 1,000)=4。最后的tf-idf的分数转载 2021-09-11 23:31:06 · 427 阅读 · 0 评论 -
TF-IDF原理及使用
TF-IDF原理及使用_一路风景-优快云博客_tfidf转载 2021-09-11 22:16:31 · 99 阅读 · 0 评论 -
python保存list
对于一个列表a[]:# 保存filename = open('a.txt', 'w') for value in a: filename.write(str(value))filename.close() # 读取f= open("a.txt","r") a = f.read() f.close() 以上这种方法虽然占用空间小,但是原来的list格式会被破坏。为此也可以用以下发方法,此方法可以保留list原格式。# 保存import numpy as...转载 2021-08-30 21:10:47 · 5262 阅读 · 0 评论