某机构CEO警告:使用AI聊天工具进行心理治疗缺乏法律保密性
ChatGPT用户若将AI应用作为心理治疗或情感支持工具需三思。某机构首席执行官表示,AI行业尚未解决这类敏感对话的用户隐私保护问题,因为当你的"医生"是AI时,并不存在医患保密协议。
这位高管在近期播客节目中发表上述评论,回应关于AI如何适应当前法律体系的问题时指出,尚未建立AI法律或政策框架的问题之一在于,用户对话不具备法律保密性。
"人们向ChatGPT倾诉生活中最私密的事情,"该高管表示,“尤其是年轻人将其用作心理治疗师、人生教练;咨询人际关系问题并询问’我该怎么办?'。目前,如果你向治疗师、律师或医生咨询这些问题,是享有法律特权的。存在医患保密、法律保密等规定。但对于与ChatGPT的对话,我们尚未解决这个问题。”
该高管补充说,这在诉讼案件中可能引发用户隐私担忧,因为某机构目前依法需要提供这些对话记录。
"我认为这非常不合理。我们应该为与AI的对话建立与治疗师对话相同的隐私概念——甚至一年前都没人需要思考这个问题,"该高管表示。
该公司明白隐私缺失可能阻碍更广泛的用户采用。除了AI在训练期间需要大量在线数据外,在某些法律背景下还需要提供用户聊天数据。某机构已在与某媒体的诉讼中对抗法院命令,该命令要求其保存全球数亿ChatGPT用户的聊天记录(企业客户除外)。
在某机构网站声明中,公司表示正在对此"越权"命令提出上诉。如果法院能够推翻某机构关于数据隐私的自主决定,可能使公司面临更多法律取证或执法要求。
当最高法院推翻罗诉韦德案时,用户开始转向更私密的经期追踪应用或加密记录的某健康服务。
该高管还询问播客主持人自己的ChatGPT使用情况,鉴于主持人表示因隐私顾虑很少使用AI聊天功能。
"我认为在大量使用之前确实需要隐私明确性——比如法律明确性,"该高管表示。
更多精彩内容 请关注我的个人公众号 公众号(办公AI智能小助手)或者 我的个人博客 https://blog.qife122.com/
公众号二维码

1033

被折叠的 条评论
为什么被折叠?



