
自然语言处理
文章平均质量分 58
@林峰
这个作者很懒,什么都没留下…
展开
-
rasa框架开发与源码解析综述
查看系统rasa框架的相关信息rasa框架源码包目录原创 2022-05-09 17:36:00 · 275 阅读 · 0 评论 -
rasa框架nlu源码解析
nlu模块的主要功能是解析用户输入数据,识别出用户输入的实体、意图等关键信息,同时也可以添加诸如情感分析等自定义模块。nlu模块的包:一、输入数据nlu模块接受Message类型的数据作为输入,与core模块流转的Usermessage数据不同,Message定义在rasa/nlu/training_data/message.py中,默认有三个变量,分别是text、time、data。其中,text中存储的是用户输入的问题,time存储的是时间,data存储的是解析后的数据。class Messa原创 2022-05-09 17:30:52 · 883 阅读 · 0 评论 -
rasa框架core源码分析
一、各个模块输入输出伪代码整体流程: 1. 输入:用户输入(sentence) 2. 过程: 3. userAct <-- NLU(sentence) 4. dialogState <-- DST(userAct,dialogHistory) 5. systemAct <-- DPL(dialogState) 6. reply <-- NLG(systemAct) 7. 输出:系统回复(reply)NLU模块 1. 输入:用户输入(sentence) 2. 过原创 2022-05-07 17:37:22 · 551 阅读 · 0 评论 -
transformer
首先,self-attention的输入就是词向量,即整个模型的最初的输入是词向量的形式。那自注意力机制呢,顾名思义就是自己和自己计算一遍注意力,即对每一个输入的词向量,我们需要构建self-attention的输入。在这里,transformer首先将词向量乘上三个矩阵,得到三个新的向量,之所以乘上三个矩阵参数而不是直接用原来的词向量是因为这样增加更多的参数,提高模型的效果。对于输入X1,乘上三个矩阵后分别得到Q1、K1、V1,同样的,对于输入X2,也乘上三个不同的矩阵得到Q2、K2、V2。2.那接.原创 2022-05-10 19:18:17 · 201 阅读 · 0 评论