近年来,随着GPT大模型的出现,安全领域的攻防对抗变得更加激烈。RSAC2023人工智能安全议题重点探讨了人工智能安全的最新发展,包括人工智能合成器安全、安全机器学习以及如何利用渗透测试和强化学习技术来确保人工智能模型的安全性和可靠性。
人工智能合成器使得攻防对抗更加激烈
人工智能合成器(AI Synthesizers)是一种新型的技术,它可以产生与人类相同的内容,GPT便是其代表技术。
图1-1 GPT4在MMLU(Massive Multitask Language Understanding,大规模多任务语言理解)上的精度超越了GPT3.5
新型的技术总是会有一定的安全风险,对于人工智能合成器来说也不例外。
伴随社交媒体的普及,错误信息、仇恨言论和欺诈等威胁信息正在加剧,因此,检测各种社交媒体平台上的影响力活动变得尤为重要。同时由于GPT的出现,使得基于AI生成虚假内容的检测变得更加困难。在《Russia's RT Leads Global Disinformation to Bypass Censorship on Ukraine》话题中,作者检测到从2022年4月至今,俄罗斯RT社交媒体通过利用AI生成账号在Telegram、Twitter和新兴的平台上发表了20多种语言的虚假信息。
在《Security Implications of Artificial Intelligence Synthesizers》话题中,提到使用AI大模型的风