QA摘要--大白话

本文介绍了对话系统的组件,如NLU(自然语言理解)、DST(对话状态追踪)和DPL(对话策略学习)。NLU涉及意图识别和槽位填充,DST通过判别模型进行状态分类,而DPL则涉及对话策略,如基于规则和强化学习的方法。深度学习在这些任务中扮演重要角色,提升对话系统的性能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

  1. 闲聊怎么做?

闲聊主流的是端到端的做法,即seq2seq,但效果不是很好,特别对于多轮对话,表现在轮数比较少,回答多样性比较差,万能回复等,因此也出现了模块化的做法,即任务型的那一套,包括DST+DPL。

  1. 任务型怎么做?

任务型主流做法是模块化,基于槽填充,用的是RL或SL,但也有端到端的做法;没有固定的做法,只能说有主流的做法,如果有固定做法,还发什么论文?

  1. 什么是NBT和DST?怎么做?

dialogue state tracking (DST) 用于理解用户输入以及更新belief state;
(belief state是对话系统中对话状态的内部表示,在对话每一步估计用户的目标)

DST的常用方法主要有三种:基于规则的方法,生成式模型,判别式模型;
目前来看判别式模型的表现最好,也是当前研究的最多的方向;
(基于规则的方法需要大量的人工和专家知识;)
(生成式模型采用贝叶斯网络推断来学得整个状态的概率分布;公式复杂,实现也比较复杂)
在判别模型中是把DST当作一个分类问题!!!
判别模型包括DNN,RNN,NBT,迁移学习;
(早期的判别模型利用SVM、最大熵模型、CRF等来建模,随着神经网络的兴起,DNNÿ

卷积神经网络(CNN)是一种常用于图像处理和模式识别的深度学习模型。它的设计灵感来自于生物学中视觉皮层的神经元结构。为了用通俗的语言解释CNN,我们可以用以下方式来理解它: 假设你要识别一张猫的图片。首先,你的大脑会将这张图片的像素点转化成一系列数字,并且记录下它们的位置和颜色。然后,大脑会将这些数字输入到“卷积层”中。 在卷积层中,会有很多个“过滤器”。这些过滤器可以视为一双眼睛,它们通过抓取图片的不同特征来帮助你识别物体。每个过滤器都在图片上滑动并计算一个“特征图”,这个特征图描述了所检测到的特定特征。例如,一个过滤器可以检测到猫的边缘,另一个可以检测到猫的颜色等等。当所有过滤器完成计算后,就会得到一些不同的特征图。 在“池化层”中,每个特征图都会被压缩,去除一些不重要的信息。这样可以减少需要计算的数据量,并且使得特征更加鲁棒和不变形。 最后,在全连接层中,所有的特征图都被连接起来,形成一个巨大的向量。接下来,这个向量会通过一些神经元节点,最终输出识别结果,也就是“这是一张猫的图片”。 CNN的一个重要特点是参数共享,这意味着每个过滤器会在整个图片上进行计算,而不仅仅是某个局部区域。这样可以减少需要计算的参数量,提高训练速度和模型的泛化能力。 总结一下,CNN通过卷积层来提取图像的特征,并通过池化层降低特征的维度。最后,通过全连接层将所有特征连接起来并输出结果。这种结构使得CNN非常适合于图像分类和识别任务。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值