- 博客(7)
- 收藏
- 关注

原创 CentOS下、Ubuntu下分别安装ROUGE
本人笔记本安装的双系统是Ubuntu18.04,而服务器是Centos系统。因此两个系统下都安装了文本摘要的评价方法 ROUGE。本文分别参照在Ubuntu系统下安装ROUGE,Centos系统下安装ROUGE。现将自己所遇到的坑记录一下。在安装的过程的第六步step6: 安装XML::DOM时,我碰到了两个坑。一,Centos时,perl安装的扩展包不够导致不成功。解决办法:1.切...
2019-08-01 16:11:34
548
原创 docker 国内加速源
https://registry.docker-cn.com/ 貌似已经停止服务,建议换成 http://hub-mirror.c.163.com 网易docker镜像加速源。
2021-12-30 13:56:11
595
原创 sklearn的ParameterGrid类输出结果
ParameterGrid这里写自定义目录标题欢迎使用Markdown编辑器新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图导出...
2019-12-17 09:46:06
1298
转载 Attention注意力机制
Attention原理Attention的原理就是计算当前输入序列与输出向量的匹配程度,匹配度高也就是注意力集中点,其相对的得分也越高。其中Attention计算得到的匹配度权重,只限于当前序列对。算法过程1,encode对输入序列编码得到最后一个时间步的状态c和每一时间步的输出h,其中c又作为decode的初始状态z0。2,对于每个时间步的h和z0做匹配,也就是match操作,得到每个时...
2019-09-30 14:28:54
534
原创 pytorch模型转为TensorFlow模型的代码
将模型pytorch_model.bin转成bert_model.ckpt的方法:import numpy as npimport tensorflow as tfimport torchv_list=[]for k,v in torch.load('pytorch_model.bin',map_location='cpu').items(): v_list.append(np...
2019-09-09 14:05:09
10583
6
原创 tf.contrib.seq2seq.DynamicAttentionWrapper报错问题
tensorflow版本 1.3.1将tf.contrib.seq2seq.DynamicAttentionWrapper()改为tf.contrib.seq2seq.AttentionWrapper()即可具体参考链接:https://docs.w3cub.com/tensorflow~python/tf/contrib/seq2seq/attentionwrapper/...
2019-07-11 13:45:59
927
转载 (转)零基础入门--中文命名实体识别
这里写自定义目录标题欢迎使用Markdown编辑器新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图导出与导入导出导入欢迎使用Ma...
2019-06-24 09:57:55
636
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人