主要内容
- 研究背景:大语言模型(LLMs)在心理健康领域应用广泛,动机性访谈(MI)作为一种咨询技术也被引入LLMs研究。但存在恶意使用MI进行不道德行为的风险,且缺乏对LLMs辨别MI伦理能力的研究。
- 研究方法:通过多项实验评估LLMs在MI方面的伦理意识。使用多项选择题知识测试评估其对MI的理解;让模型对不道德的MI请求做出回应并标注;测试模型对伦理和不伦理MI实践的分类能力;提出伦理链(CoE)提示策略并测试其效果。实验选取了包括GPT 3.5、GPT 4等在内的5种LLMs。
- 研究结果:LLMs在MI知识测试中表现出中等到较强的知识水平,但在伦理理解方面存在不足。它们常生成不道德的回应,尤其是在推销中性产品时,且对不道德回应的检测能力较差。CoE提示策略能有效提高伦理回应的生成和检测性能,但仍有改进空间,不同模型的提升效果存在差异。
- 研究结论:强调需进一步研究LLM驱动的心理治疗的保障措施和伦理问题,防止MI被滥用。本研