借一篇论文了解重要性采样

本文档介绍了作者在阅读EMNLP会议上的一篇论文后,对重要性采样(Importance Sampling, IS)的理解。文章讨论了如何使用IS解决在英文Text Normalization任务中遇到的大规模隐状态搜索空间问题,该问题同样适用于中文NLP的一些序列标准化任务。作者分享了自己在学习过程中的收获,并提供了个人理解的PPT链接,强调IS的关键在于找到好的采样策略和接近真实分布P(x)的近似分布Q(x)。" 50835525,5593993,Maven多层级项目配置及优势详解,"['maven', '多级项目', '搭建']

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

最近在看EMNLP上的一篇文章,Yang Y, Eisenstein J. A log-linear model for unsupervised text normalization[C]//Proc. of EMNLP. 2013.提到了用重要性采样解决隐状态搜索空间很大,因而无法用动归训练的无指导问题。文章就英文的Text Normalization任务提出这个方法,我觉得和中文NLP一些任务看成序列标准问题面临同样的问题,因此对该文的方法略做了了解。因为对重要性采样不甚了解,这篇文章看了很久,看完后觉得受益颇多。下面是对其他博客和wikipedia的理解之上的个人理解,或有‘毁人不倦’ 之嫌。


首先感谢两篇好文章:

如何理解重要性采样

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值