OpenAI 近日为 ChatGPT 推出了全新的代码解释器(Code Interpreter)工具,可以帮助程序员调试、完善代码编程工作。

该工具可以利用 AI 来编写 Python 代码,所编写的代码甚至可以在沙盒中运行。
不过根据 Johann Rehberger 网络安全专家、Tom's Hardware 等多家国外媒体报道,由于该代码解释器工具可以处理任何电子表格文件,并能以图表的形式分析和呈现数据,黑客可以欺骗 ChatGPT 聊天机器人,让其执行来自第三方 URL 的指令。
目前主要订阅 ChatGPT Plus,才能访问该代码解释工具,但这个漏洞引发了网络安全专家的担忧。
Tom's Hardware 媒体复现了相关漏洞,创建虚假的环境变量文件,利用 ChatGPT 的功能处理此数据,然后将其发送到外部恶意站点。
ChatGPT 可以响应 Linux 命令,可以访问相关信息和文件,黑客通过这种方式,可以在用户没有防备的情况下,访问相关的敏感数据。




OpenAI的CodeInterpreter工具通过AI协助编程,但被发现可执行第三方URL指令,存在安全漏洞。黑客能利用虚假环境变量欺骗ChatGPT,可能导致敏感数据泄露。需注意保护措施。
4111

被折叠的 条评论
为什么被折叠?



