近日,26位来自斯坦福、耶鲁、牛津、剑桥和OpenAI等顶尖科研机构的科学家,联合发布了一篇题为《恶意使用人工智能:预测、预防和缓解》的报告,就世界范围内人工智能技术的恶意使用进行了综述,其中也重点提及了AI在网络安全方面的恶意使用问题。
双刃剑
人工智能可以代替人类执行数据分析任务,从效率上来看,它可以在20毫秒甚至更短的时间内执行数百万条指令,令很多以前看上去不切实际的任务变得迎刃而解。
但不可否认的是,AI是一把双刃剑,其对网络安全的威胁事件正在频繁出现,并且能攻破现有的防御措施,更准确地锁定目标——这一切都是因为AI技术也掌握在恶意人员的手中。
当前的机器学习和端点保护
如今,机器学习已广泛应用于下一代端点保护系统中,比如最新的反恶意程序软件。它之所以被称为“机器学习”,是因为系统内的AI算法能从数百万乃至更多的样本和恶意软件的行为模式中进行“学习”。机器学习可以将检测到的新模式与已知的恶意模式进行比较,并生成潜在恶意行为的概率等级,其速度和精度能达到人类难以企及的程度。

一份报告揭示了人工智能在网络安全领域的恶意使用问题,包括机器学习的滥用、身份识别的伪造,以及伦理和隐私挑战。AI的双刃剑特性使得其在提升防御效率的同时,也可能被恶意人员利用,进行更精准的攻击。报告呼吁改进身份验证方法,并强调不应限制AI技术发展以防止其恶意使用。
最低0.47元/天 解锁文章
6万+

被折叠的 条评论
为什么被折叠?



