大语言模型在心理健康医疗应用中的综述(上)
1. 引言
世界卫生组织的最新数据显示,全球每八个人中就有一人受到心理健康障碍的影响。其中,抑郁症、压力和焦虑相关的障碍最为普遍,这些障碍与糟糕的生活质量和显著的自杀风险相关。全球约有3亿人患有焦虑症,超过2.8亿人患有抑郁症,但约35%的患者并未针对症状寻求治疗。焦虑症的特征包括过度担忧和恐惧,以及相关的行为异常。这些症状常被误认为是单纯的负面情绪,导致心理健康问题被忽视,治疗率降低。
近年来,人们对利用机器学习(ML)和自然语言处理(NLP)通过社交媒体文本分析自动识别心理健康行为的兴趣日益浓厚。这一领域的主要挑战之一是在社交媒体文本的背景下,难以区分正常行为和心理健康问题。此前大部分研究集中在识别社交媒体帖子中的广泛情绪或特定情感,但仅关注情感的模型不足以检测心理健康行为。
过去十年,计算社会科学和自然语言处理的研究聚焦于利用社交媒体等在线文本数据识别心理健康问题。不过,多数研究致力于开发特定领域的机器学习模型,即一个模型对应一项任务,如抑郁症检测、压力检测或自杀风险评估。以往用于心理健康的自然语言处理方法多采用文本分类任务来对社交媒体上的心理健康分析进行建模,预训练语言模型(PLMs)取得了最先进的性能。对于某些下游任务,即使是像BERT这样的传统预训练语言模型也需要微调。多任务设置的研究也涉及悲伤和焦虑预测等方面。
大语言模型(LLMs)的基础源于人工智能和自然语言处理的早期进展。最初的模型专注于基本的语言理解和生成,但受限于语言解释的深度。随着机器学习和人工智能的发展,这些模型变得更加复杂。像GPT(生成式预训练变换器)这样的模型的引入是一个重大飞跃。OpenAI开发的GPT及其后续版本,包括GPT -
超级会员免费看
订阅专栏 解锁全文
2537

被折叠的 条评论
为什么被折叠?



