利用音频实现透明度——会喃喃自语的机器人
1. 语音规则引擎
语音规则引擎会为每种计划元素类型和事件类型的组合生成预定义的候选句子。例如,能力元素的新执行会创建形如 “Attempting {plan - element - name}” 的句子。
计划元素名称与计划本身一同存储在机器人内部,透明度反馈中的计划元素 ID 用于定位与要构建的句子相关的正确计划元素名称。这些元素名称会使用 “驼峰命名法” 规则进行处理,以生成适合语音播报的计划元素名称。驼峰命名法是一种约定,即每个新单词的首字母大写,例如 “ActivateHumanDetector” 或 “ForwardAvoidingObstacle”。驼峰命名法处理还可以处理数字,如 “Sleep10Seconds”,将数字转换为单独的单词进行播报。这些适合语音播报的计划元素名称会插入预定义的句子中,生成诸如 “Completed Activate Human Detector”、“Attempting Forward Avoiding Obstacle” 和 “Doing Sleep10Seconds” 这样的句子。
在系统中,预定义的句子在编译时是固定的,不过可以添加更复杂的安排来减少单调感。
基于透明度执行堆栈中的信息,根据一组语音规则,我们会决定在每个事件发生时是否生成关于该事件的候选句子。机器人为六种计划元素类型(Drive、Competence、Competence Element、Action Pattern、Action Pattern Element 和 Action)分别保存了一个语音规则值矩阵。以下是动作计划元素类型的默认语音规则值表:
| 事件 | 超时时间(Timeout
超级会员免费看
订阅专栏 解锁全文
3万+

被折叠的 条评论
为什么被折叠?



