大语言模型相关研究
智能体
FLAP:基于约束解码的LLM流程规划
提出了一种在大型语言模型中实现流程遵循规划的方法,通过约束解码技术确保规划过程的合规性。
属性值抽取
EIVEN:基于多模态LLM的高效隐式属性值抽取
开发了从文本和视觉数据中提取属性值的高效方法,通过多模态大语言模型实现隐式信息的准确抽取。
持续学习
Q-Tuning:基于队列的终身少样本语言学习提示调优
采用队列机制的提示调优方法,使模型能够在持续学习场景下有效适应少样本任务。
对话系统
利用LLM进行对话质量评估
探索使用大语言模型自动评估对话质量的技术方案。
幻觉缓解
少即是多:改进事实一致性自动评估
提出通过简化评估流程来提升事实一致性检测效果的方法。
TofuEval:主题聚焦对话摘要中的LLM幻觉评估
专门针对主题聚焦的对话摘要任务,系统评估大语言模型的幻觉现象。
改进长文本答案生成的多源归因
研究在多源信息融合场景下提升答案生成可追溯性的技术。
机器翻译
基于偏好驱动的大语言模型增强翻译范式
利用用户偏好信息优化大语言模型的翻译性能。
自然语言处理
大型语言模型中的俚语知识研究
系统分析大语言模型对非正式语言(特别是俚语)的理解能力。
问答系统
自带知识图谱:零样本KGQA的自监督程序合成
提出三阶段方法,使问答模型能够无需训练数据即可适配新的知识图谱。
推理
CoMM:协作多智能体多推理路径提示
通过多智能体协作和多重推理路径的提示策略,解决复杂问题求解任务。
推荐系统
RecMind:大语言模型驱动的推荐智能体
构建基于大语言模型的推荐系统,提升个性化推荐效果。
人类反馈强化学习
RS-DPO:混合拒绝采样和直接偏好优化的LLM对齐方法
结合拒绝采样和直接偏好优化技术,改进大语言模型的对齐效果。
负责任AI
ITERALIGN:大语言模型的迭代宪法对齐
提出迭代式对齐方法,确保语言模型符合人类价值观和社会规范。
MICo:通过抑制控制预防大语言模型毒性
采用抑制控制机制对大语言模型进行预防性去毒处理。
大语言模型向数据驱动角色的可控性研究
探索如何将大语言模型导向特定数据驱动角色的技术方法。
检索增强生成
通过对比解码增强LLM的上下文理解
利用对比解码技术提升大语言模型对上下文信息的理解能力。
文本生成
词典例句的低成本生成与评估
开发高效的词典例句自动生成和评估方法。
多评论上下文融合
研究在多评论场景下实现信息有效融合的技术。
视觉语言模型
MAGID:合成多模态数据集自动生成流程
构建自动化流水线,用于生成高质量的多模态合成数据集。
提示视觉语言模型实现方面控制的指代表达生成
通过提示工程技术控制视觉语言模型生成特定方面的指代表达。
通用与经典技术
对话代理
利用有趣事实增强对话界面用户参与度
探索通过引入有趣事实来提升对话系统用户参与度的技术。
信息抽取
利用客户反馈进行多模态洞察提取
开发从客户反馈中提取多模态洞察信息的方法。
REXEL:文档级关系抽取与实体链接的端到端模型
提出统一的端到端模型,同时处理文档级关系抽取和实体链接任务。
机器学习
DEED:加速编码器-解码器Transformer模型的动态早期退出
通过动态早期退出机制提升编码器-解码器架构的推理效率。
机器翻译
双语词典归纳的词汇性研究
深入分析双语词典归纳任务中的词汇特性。
M3T:多模态文档级机器翻译新基准数据集
构建面向多模态文档级机器翻译任务的新基准数据集。
负责任AI
通过追踪偏差影响缓解问答模型偏差
提出偏差影响追踪机制,有效降低问答系统中的模型偏差。
语义检索
极高效的在线查询编码用于稠密检索
开发高效的在线查询编码方法,提升稠密检索系统的性能。
文本摘要
CCSUM:大规模高质量新闻摘要数据集
通过新闻事件聚类和严格过滤流程,构建高质量的新闻摘要数据集。
基于高质量伪标签选择的半监督对话摘要
提出伪标签选择机制,提升半监督对话摘要模型的性能。
视觉问答
多问题多答案文本视觉问答
研究多问题多答案场景下的文本视觉问答技术。
更多精彩内容 请关注我的个人公众号 公众号(办公AI智能小助手)或者 我的个人博客 https://blog.qife122.com/
对网络安全、黑客技术感兴趣的朋友可以关注我的安全公众号(网络安全技术点滴分享)
公众号二维码

公众号二维码

313

被折叠的 条评论
为什么被折叠?



