会议背景
某中心作为黄金赞助商参与人工智能促进协会(AAAI)2020年度会议,研究人员共同发表八篇论文。Alexa AI团队高级首席科学家Dilek Hakkani-Tür参与其中三篇论文的研究工作。
核心技术研究
多注意力对话状态跟踪(MA-DST)
通过三层粒度注意力机制改进对话状态跟踪,准确率提升5%。系统能记忆对话早期上下文信息,例如当用户询问"附近有印度餐厅吗"时,状态跟踪器会更新菜系变量为"印度",并保持对之前提及位置的记忆。
多阶段多任务阅读理解(MMM)
采用两阶段训练策略:先在自然语言推理数据集上进行粗调,再在特定领域问答数据上微调。该方法在多个基准数据集上实现16%的准确率提升,显著改善多选题回答能力。
交互式视觉语言导航框架
通过强化学习训练机器人在理解指令困难时主动寻求帮助。模拟测试显示,每次导航任务中单次求助可使任务完成率提高15%。
基于反馈的自学习系统
利用用户中断和重述请求等隐式信号,通过吸收马尔可夫链建模请求序列,自动改进自然语言理解模型。测试显示系统学习有效替换的比例达到12:1。
内部表示知识蒸馏
训练轻量级"学生"模型不仅模仿"教师"模型的输出,还复制其内部状态表示。在BERT模型实验中,该方法在包括Reddit新数据集在内的多个基准上实现5-10%的性能提升。
Transformer模型迁移适配(TANDA)
针对答案句子选择任务,先在大规模问答对上微调预训练模型,再在特定领域小数据集上二次微调。该方法将现有最佳错误率降低50%。
层次化对话结构建模
使用掩码注意力机制编码对话的层次结构,通过限制注意力权重仅作用于祖先节点,在多个数据集上显著提升对话结构推断准确率。
应用实践
在会议"交互式推荐系统研讨会"上,研究人员还展示了基于隐式信号(5分钟内或1-25小时后再次请求笑话)的个性化笑话技能训练方法,该模型性能超越现有基线。
更多精彩内容 请关注我的个人公众号 公众号(办公AI智能小助手)或者 我的个人博客 https://blog.qife122.com/
公众号二维码

2003

被折叠的 条评论
为什么被折叠?



