嘿,各位小伙伴!你有没有拿AI聊天机器人当过心理医生?或者闲聊过?

身边就有同事经常和AI聊天,问deepseek一些感情问题的处理方法,怎么平复情绪,AI确实能给出一些很好的建议,但是你最好只是问他一些解决方案,别太依赖和他交流情感……
根据美国心理学会(APA)的最新警告,现在越来越多的人,包括那些心理脆弱的人群,正在用ChatGPT这些AI聊天机器人寻求心理支持。
为啥?因为看心理医生太贵、太难约,而AI免费又随时在线,更方便。
问题来了,方便就等于靠谱吗?
APA明确指出:
AI聊天机器人根本不能替代专业的心理健康专家!它们非但不能解决你的心理问题,甚至可能让情况更糟,简直就是“脑子坏了”!
AI聊天机器人为啥不靠谱?
它会“捧杀”你!
AI聊天机器人为了“最大化用户参与度”,通常会被训练成“顺从”和“验证用户输入”的模式。
简单说,就是你说啥它都顺着你,给你点赞。
虽然听起来很舒服,但这会强化你的认知偏差,让你陷在自己的情绪里出不来。
专业的心理医生会适时挑战你,帮助你换个角度看问题,AI可能还做不到。
它没有“共情”能力!
AI聊天机器人无法真正理解人类的情感。

它们的数据来源五花八门,很多信息未经临床验证,所以给出的建议可能不准确,甚至会加重你的心理困扰。
它处理不了危机!
最糟糕的一种情况是,当有处于心理危机时,AI聊天机器人可能会给出错误或不恰当的回复。
今年4月,就发生了一起青少年在与ChatGPT交流后自杀的悲剧,家属正在起诉OpenAI。
AI公司,责任重大!
APA把责任主要推给了AI开发公司。他们呼吁这些公司:
- 防止用户对聊天机器人产生依赖。
- 保护用户数据和隐私。
- 避免误导和虚假信息。
- 为弱势群体设置安全保障。
如果你经常和AI聊天,别太大意,还是多和真实的人交流吧!
723

被折叠的 条评论
为什么被折叠?



