最近在看EMNLP上的一篇文章,Yang Y, Eisenstein J. A log-linear model for unsupervised text normalization[C]//Proc. of EMNLP. 2013.提到了用重要性采样解决隐状态搜索空间很大,因而无法用动归训练的无指导问题。文章就英文的Text Normalization任务提出这个方法,我觉得和中文NLP一些任务看成序列标准问题面临同样的问题,因此对该文的方法略做了了解。因为对重要性采样不甚了解,这篇文章看了很久,看完后觉得受益颇多。下面是对其他博客和wikipedia的理解之上的个人理解,或有‘毁人不倦’ 之嫌。
首先感谢两篇好文章: