Emotion Analysis & Synthesis
文章平均质量分 94
分享情感计算领域的相关研究论文,包括情感识别、情感理解及情感生成等方向。
AkanthaWang
志在山顶的人,不会贪念山腰的风景
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
【2023 ICCV】EmoSet: A Large-scale Visual Emotion Dataset with Rich Attributes
EmoSet-118K 在 8 个情感类别上的分布非常均衡,每类图片数量在 10,660 到 19,828 之间,优于现有数据集。:通过深入分析验证了属性与情感的相关性,并设计了一个属性模块,证明了利用属性信息可以显著提升视觉情感识别的性能。在 EmoSet 上训练的模型在情感识别准确率上优于在其他数据集(如 FI, Emotion6)上训练的模型。:基于心理学研究,建立了一套可描述的视觉情感属性体系,有助于从更精细和可解释的角度理解视觉情感。为了验证属性的有效性,作者提出了一个。原创 2025-12-22 15:09:00 · 1395 阅读 · 0 评论 -
【2025 ACL】Listen, Watch, and Learn to Feel: Retrieval-Augmented Emotion Reasoning for Compound Emo
本文提出检索增强情感推理框架(RAER)来提升多模态大语言模型(MLLMs)的复合情感理解能力。RAER通过动态更新的情感知识库和思维链推理机制,结合检索增强技术处理情感歧义问题。同时设计了刺激武装强盗(SAB)评估框架,采用两两比较和Elo评分动态评估模型表现,并构建了包含复合情感问答的新数据集。主要贡献包括:1)首个结合检索增强与情感推理的RAER框架;2)创新的SAB评估方法;3)用于训练和评估的复合情感数据集。该方法显著提升了模型处理复杂情感任务的能力。原创 2025-12-15 20:57:16 · 705 阅读 · 0 评论 -
【2025 ICML】Catch Your Emotion: Sharpening Emotion Perception in Multimodal Large Language Models
多模态大模型(MLLMs)在情感推理方面面临语义混淆和视觉冗余两大挑战。本文提出免训练方法SEPM,通过信心引导的粗到细推理(CCI)和情感视觉增强(VTA)提升模型表现。CCI采用两阶段分类策略,先粗分情感极性再细粒度分类,结合置信度评估优化推理;VTA引入情感提示和视觉Token丢弃机制,聚焦关键情感线索。实验表明,SEPM在多个数据集上显著优于基线方法,最高提升17.19%,验证了其有效性。该工作为MLLMs的情感理解提供了资源高效的优化方案。原创 2025-12-09 12:46:01 · 732 阅读 · 0 评论 -
【2025 CVPR】Why We Feel: Breaking Boundaries in Emotional Reasoning with MLLM
提出情感解释(EI)这一新任务,突破传统情感分析仅识别情感类别的局限,转向探究情感产生的因果因素。研究构建了包含1615个样本的EIBench多模态基准数据集,采用由粗到细的自问(CFSA)标注流程,结合视觉-语言模型和人工校验,生成高质量的情感触发因素解释。原创 2025-12-02 11:46:27 · 977 阅读 · 0 评论 -
【2025 AAAI】Bridge Then Begin Anew: Generating Target-Relevant Intermediate Model for Source-Free Vis
视觉情感识别(VER)面临数据标注困难与隐私问题,传统域自适应方法需访问源域数据,实用性受限。本文提出无源域自适应视觉情感识别任务(SFDA-VER),并创新性地设计了"先搭桥后新生"(BBA)框架。BBA通过两个阶段解决核心挑战:首先生成可靠的桥梁模型提供高质量伪标签,再彻底抛弃源模型参数,从零训练目标模型。实验在六个跨域任务中验证了BBA的有效性,其性能不仅显著优于现有SFDA方法,甚至超越可访问源数据的UDA方法。该研究为隐私保护下的情感AI应用提供了新思路。原创 2025-11-18 16:30:17 · 729 阅读 · 0 评论 -
【2025 ICML】AffectGPT A New Dataset, Model, and Benchmark for Emotion Understanding with MLLM
提出了一种结合数据驱动和模型优化的方法,提升多模态大语言模型(MLLM)在情感识别任务中的性能。针对现有数据集规模小、质量不足的问题,采用"模型主导,人工辅助"策略构建了MER-Caption数据集,包含115K样本和2.9K种细粒度情感。模型方面,设计AffectGPT引入预融合机制强化跨模态特征整合。同时建立了MER-UniBench评估基准,包含三类情感任务和针对生成式模型的新指标。原创 2025-11-08 19:05:03 · 1034 阅读 · 0 评论 -
【2025 CVPR】EmoEdit: Evoking Emotions through Image Manipulation
提出EmoEdit框架,旨在解决情感图像编辑(AIM)中语义内容修改与结构保真的平衡问题。通过设计情感知识注入模块(Emotion Adapter)、构建4万对高质量情感编辑数据集(EmoEditSet),并引入情感指导损失函数,使模型在保持图像结构的同时实现语义层面的情感表达。原创 2025-11-07 23:11:37 · 1146 阅读 · 0 评论
分享