
自然语言处理
自然语言处理
zhulinniao
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Could not load dynamic library cudart64_100.dll然用Anaconda3.7
使用环境:TensorFlow1.15.0 Keras2.3.1 cuda10.2 cudnn7.6.5.32在玩bert的时,报:Could not load dynamic library cudart64_100.dll经过查找,发现其实cuda10.2中包含了cudart64_100.dll的向下兼容。因此只需要将cudart64_100.dll的路径添加到环境变量中即可。...原创 2020-10-12 22:26:57 · 1106 阅读 · 1 评论 -
TensorFlow的一些trick
文章目录1 可查询站点2 安装2.1 TensorFlow 1.x2.2 TensorFlow 2.x2.3 TensorFlow的一些版本约束2.4 tensorboard3 备注3.1 TensorFlow 2.x后Keras和tf.keras选择问题4 简单总结4.1 TensorFlow1.x系列概念4.2 TensorFlow2.x系列概念5 TensorBoard使用技巧5.1 keras中使用5.2 TensorFlow保存loss和acc5.3 PyTorch使用TensorBoard6 V原创 2020-10-13 20:01:52 · 391 阅读 · 0 评论 -
keras简单使用bert
文章目录1 bert库1.1 bert4keras1.2 标准测试数据集1.3 bert权重列表2 keras版本2.1 下载各种权重2.2 标准测试exampleReference之前一直使用tf来使用bert,看着keras简单,闲来无事,玩玩。并且总结一下。把各种模型和权重的关系梳理一下。1 bert库1.1 bert4keraskeras-bert的githubbert4keras的github【特别注意】这里是在conda虚拟环境下操作的,请看Could not load dynami原创 2020-10-13 19:56:39 · 3275 阅读 · 0 评论 -
PyTorch一些trick
1 可查询站点PyTorch中文教程 Apache PyTorch中文文档Pytorch Doc2 安装3 备注CPU上的所有张量(CharTensor除外)都支持与Numpy的相互转换。Torch张量和NumPy数组将共享它们的底层内存位置,因此当一个改变时,另外也会改变。评估模型时阻止grad属性计算:代码块包装在 with torch.no_grad()、requires_grad = Falsenn.Module中parameters()获取模型可学习参数...原创 2020-10-01 21:46:47 · 321 阅读 · 0 评论 -
NLP中的Embedding总结
NLP中的Embedding1 榜单1 榜单可以从这里看到从2013年到现在所有的语言模型文章。这里先列表格总结,历史为什么这么走。模型思想缺点word2vecCBOW(上下文词预测当前词),Skip-gram(当前词预测上下文词)无法区分多义词的不同语义同一个单词占的是同一行的参数空间ELMO...原创 2020-09-02 15:49:09 · 1261 阅读 · 0 评论 -
正则表达式使用的一些技巧
用正则表达式用了10年了,之前的总结一直以word形式,写的零散总结都仿造cnblog上面,特别想总结一下。正则表达式使用的一些技巧常见正则常见正则效果正则常用句法常见正则中文名称名称<.+?>非贪婪模式 找到第一个> 就停止<.+>贪婪模式 直到找到正文的最后一个>才停止(?<=(href=")).{1,200}(?=(">))匹配以(href=")开头、以(">)结尾的字符串,捕获(存储)到分组中原创 2020-05-10 19:24:14 · 324 阅读 · 0 评论 -
理解Transformer中的位置编码
理解Transformer中的位置编码为什么要位置编码为什么要位置编码【文本分类】I like this movie because it doesn’t have an overhead history. PositiveI don’tlike this movie because it has an overhead history. Negative【命名实体识别】...原创 2020-03-02 21:41:44 · 9804 阅读 · 3 评论 -
HMM前向算法——基于非比例因子(java实现)
隐马尔可夫模型的前向算法(手动实现),由于研究生期间,实现的时候没有多加注释,这里为了让更好的人进入自然语言处理领域,特此,将前向算法奉上,具体公式可参考52nlp的HMN系列博客。后向算法和维特比算法,后续更新。package hmm.model;import hmm.bean.HMMHelper;/** * 实现了 HMM(隐马尔可夫模型, Hidden Markov Model...原创 2019-12-22 17:03:26 · 301 阅读 · 0 评论 -
HMM前向算法——基于比例因子(java实现)
package hmm.model;import hmm.bean.HMMHelper;import util.TCMMath;/** * 【改进后的前向算法】 * 【带比例因子修正的前向算法 :计算观察序列的概率 】 * 【注意】 改进后,就没必要使用后向算法来求观测序列概率了,直接利用中间比例因子scale就可以求得,在改进的前向算法中以写logProb()函数 * * ...原创 2019-12-22 16:38:21 · 344 阅读 · 0 评论 -
HMM后向算法(java实现)
package hmm.model;import hmm.bean.HMMHelper;import util.TCMMath;/** * 后向算法 * 目的: * 1、先计算后向变量矩阵 * 2、再用后向变量矩阵 来 计算一个观测序列的概率 * @author aool */public class Backward extends HMM{ public int...原创 2019-12-22 17:06:58 · 419 阅读 · 0 评论 -
HMM预测算法——Viterbi(java实现)
/** * 【计算维特比矩阵】 * delta[ t ][ k ] = v_k(i) =log( max(P(pi in state k has sym i | path pi)) ) */ public void CalculateViterbiMatrix() { int T = O.length; delta = new ...原创 2019-12-22 17:28:30 · 699 阅读 · 0 评论 -
HMM训练算法——BaumWelch(java实现)
package hmm.model;import hmm.bean.HMMHelper;import util.TCMMath;/** * Baum-Welch算法也叫前向-后向算法: * 目的: * 1、在给定多个观测状态序列(多个观测序列,维数可不同)的条件下,训练和学习HMM模型的参数A,B,pi * 2、该算法得出的是一个局部最优解,较依赖于初始值 * @au...原创 2019-12-22 17:30:35 · 694 阅读 · 0 评论