利用交互式学习快速扩展对话系统
1. 引言
个人助理对话系统正日益融入日常生活,像微软小娜(Cortana)、苹果的Siri、谷歌即时资讯(Google Now)以及Nuance的Dragon Go等都是典型例子。这类系统的处理流程通常如下:
graph LR
A[语音或文本输入] --> B[语音识别(仅语音输入时)]
B --> C[意图检测]
A --> C
C --> D[实体提取与解析]
D --> E[函数调用、状态更新与响应生成]
E --> F[系统响应]
F --> A
若要为这些先进的商业系统增添新功能,往往只需修改流程中的特定环节。一方面,自动语音识别(ASR)服务通常无需改动,因为现代ASR平台的覆盖范围很广;而且多数情况下,生成响应所需的函数调用也已具备,例如在大多数手机平台上,操作日历信息的应用程序编程接口(API)早已存在。另一方面,添加新意图几乎总是需要构建新的意图检测器模型,而新的实体提取器则并非每次都需要,因为很多实体类型可用于新意图,比如从日历中读取、写入和删除约会的意图都共用时间、日期、地点等实体。
然而,构建新的意图检测器通常是个缓慢的过程。原因主要有两点:一是通常涉及多人协作,需要协调和安排,如数据工程师收集包含目标意图的话语数据,用户体验设计师创建解释新意图的标注说明文档,众包工程师创建众包任务让工作人员对数据进行标注,机器学习专家利用数据构建意图检测模型;二是意图定义方面的问题往往在流程末尾模型性能评估时才显现出来,导致整个流程需要重复
超级会员免费看
订阅专栏 解锁全文
839

被折叠的 条评论
为什么被折叠?



