
NLP
文章平均质量分 54
黄革革
无话可说
展开
-
与Eliza的第一次谈话
Eliza是个心理医师,60年代出生于MIT。以下是我们的第一次聊天:(>表示我的回答,其他为Eliza的话)Hello. How are you feeling today?>Not that bad,how are you?Why do you ask that?>well.Out of polite.How do you feel when you say that?原创 2013-01-31 21:00:46 · 1466 阅读 · 0 评论 -
聊天机器人Eliza 代码
Eliza是基于正则表达式替换的聊天软件,实现非常简单,以下是其Python代码:from util import reflectionspairs = ( (r'I need (.*)', ( "Why do you need %1?", "Would it really help you to get %1?", "Are you sure you ne原创 2013-03-02 21:54:53 · 4374 阅读 · 0 评论 -
Google word2vec 模型和代码解析 之 前扑
一会儿再写原创 2013-11-04 20:35:50 · 2598 阅读 · 0 评论 -
借一篇论文了解重要性采样
最近看了EMNLP2013上的一篇论文,Yang Y, Eisenstein J. A log-linear model for unsupervised text normalization[C]//Proc. of EMNLP. 2013.文中用序贯蒙特卡洛SMC or PF(Particle filter )的方法,利用序贯重要性采样Sequenctial Importance Samp原创 2014-01-03 19:11:16 · 5355 阅读 · 0 评论 -
自然语言处理 学习收藏网站_ 个人
记录一些遇到好的资源网站,个人之用,随时补充:机器翻译:http://www.statmt.org/机器翻译的论文,参考书,WMT2005-2013 的链接,相关工具包,语料,很全面的资源整合。原创 2014-02-18 20:19:36 · 1024 阅读 · 0 评论 -
机器翻译Reranking和MERT的几点疑问
1. Och提出的MERT, 其论文和很多博主都说需要不断重复重复 “解码->n-best list-> weight tuning ”的过程,但是只是使用了rescore后 n-best list中得分最高的一个假设。调整了权重之后,为什么要重新解码呢? 语言中的singleton:翻译做“单件”,即只出现过一次的ngram原创 2014-03-13 18:35:20 · 1762 阅读 · 0 评论