AMiner平台(https://www.aminer.cn)由清华大学计算机系研发,拥有我国完全自主知识产权。平台包含了超过2.3亿学术论文/专利和1.36亿学者的科技图谱,提供学者评价、专家发现、智能指派、学术地图等科技情报专业化服务。系统2006年上线,吸引了全球220个国家/地区1000多万独立IP访问,数据下载量230万次,年度访问量超过1100万,成为学术搜索和社会网络挖掘研究的重要数据和实验平台。
必读论文:https://www.aminer.cn/topic
论文集地址:https://www.aminer.cn/topic/6013e25b92c7f9be21c3954b
近年来,常识知识(commonsense knowledge)越发成为NLP领域,乃至多模态,跨学科的研究热点。尽管以BERT为代表的的预训练语言模型已经在实体识别、机器翻译、情感分析等任务上取得了亮眼的表现,它们在面对一些人类可以使用常识轻易解决的问题时仍然表现不佳,面对对抗样本时也极为脆弱。似乎这些模型知识只是学到了一些浅层线索和语义,而与人类的知识体系并不相同。因此,将常识知识融入机器学习中就成为了一个充满前景的解决方案。不过,如何抽取常识知识,如何利用常识知识,乃至如何定义“常识本身”依然是有待研究的难题。
该论文集共收录53篇论文,最高引用数是12868,来自华盛顿大学的Yejin Choi在该领域发表了10篇论文,在所有学者中最多。



订阅了解更多论文信息,定制您的个人科研动态信息流:https://www.aminer.cn/user/notification?f=mt
AMiner平台由清华大学研发,包含超过2.3亿学术论文/专利和1.36亿学者的科技图谱,提供学者评价等专业化服务。近年来,常识知识成为NLP领域的研究热点。该论文集收录了53篇相关论文,探讨如何将常识知识融入机器学习。
2万+

被折叠的 条评论
为什么被折叠?



