
NLP
godli_one
这个作者很懒,什么都没留下…
展开
-
NLTK: [Error:11004] getaddrinfo failed
当我运行nltk的词分割时:from nltk.tokenize import word_tokenizetext = "God is Great! I won a lottery."print(word_tokenize(text))出现了缺少punkt包,于是采用如下代码下载:import nltknltk.download()报错[Error:11004] getaddrinfo failed解决方法:1.打开查询IP地址的网址:https://www.ipad.原创 2021-08-18 10:43:38 · 635 阅读 · 0 评论 -
张志华-统计机器学习
第一讲:频率派:最小二乘法的 y-ax 最小化等同于最大似然估计,ax为样本均值的估计量,y为样本取值,y服从高斯分布,求解含y高斯分布的均值参数的时候使用的最大化似然估计,等同于在方差固定的情况下最小化误差函数。视频最后八分钟。贝叶斯学派:首先生成数据的模型服从一种未知的分布,不同于频率派把模型中的参数当作常数,而是把模型中的参数当作一个随机变量,参数服从我们给定的某一种先...原创 2019-08-05 17:43:56 · 718 阅读 · 0 评论 -
code reader
argparsehttp://wiki.jikexueyuan.com/project/explore-python/Standard-Modules/argparse.htmlloggerhttps://docs.python.org/zh-cn/3/howto/logging.htmlgetattr()http://www.runoob.com/python/python-...原创 2019-04-08 14:13:27 · 359 阅读 · 0 评论 -
模式识别课针对会议的汇总
使用教材:1.张学工的<<模式识别>>2.Pattern Classification3.Pattern Recognition and Machine LearningCCF A : CVPR ICCV ICMI NIPSCCF B : AISTATS UAI COLTCCF A : AAAI IJCAICCF B : PR ML PRL...原创 2019-03-04 23:19:30 · 262 阅读 · 0 评论 -
baby
2010:2011:2012:2013:2014:2017:2018:https://www.jiqizhixin.com/articles/2018-08-24-6https://www.jiqizhixin.com/articles/2018-08-09-4?from=synced&keyword=ACL%202017...原创 2018-11-15 15:46:16 · 202 阅读 · 0 评论 -
初学日2-激活函数-softmax函数-rnn循环神经网络
vc维知识:预备知识:伯努利分布:即0-1分布. 知识网站:http://www.flickering.cn/machine_learning/2015/04/vc%E7%BB%B4%E7%9A%84%E6%9D%A5%E9%BE%99%E5%8...原创 2018-10-30 17:06:35 · 2428 阅读 · 0 评论 -
初学日1
一篇偏科普类但是作者一年时间积累的ann神经网络的理解.https://www.cnblogs.com/subconscious/p/5058741.html 在人工神经网络之中,又分为前馈神经网络和反馈神经网络这两种。那么它们两者的区别是什么呢?这个其实在于它们的结构图。我们可以把结构图看作是一个有向图。其中神经元代表顶点,连接代表有向边。对于前馈神经网络中,这个有向图是没有回...原创 2018-10-29 09:50:05 · 225 阅读 · 0 评论 -
Attention-based NMT
this is for my baby摘要部分:注意力机制通过有选择的关注原句子的部分来提高翻译,但是对有用的注意力机制体系结构的探索很少.这篇文章阐述两种简单有效的类:一种是所有源单词参与的全局方法,另一种是每一次只看全集一个子集单词的方法.我们在WMT(写入磁带Write Magnetic Tape)上面把英语翻译成德语证明了它的效率.局部注意力方法比无注意力系统能提高5bleu分.我...原创 2018-10-27 19:26:54 · 524 阅读 · 0 评论 -
NMT
1)刚开始时,在RNN的基础上引入attention,即将两者结合应用,完整解释并附上完整code。详见下链接:基于RNN+Attention的机器翻译2)接着,Facebook在CNN的基础上引入attention,参见论文:Convolution Sequence to Sequence Learning3)16年,Google直接推翻以前的模式,用也仅仅用attention就可以...原创 2018-10-28 14:34:12 · 901 阅读 · 0 评论