人工智能如何改变网络攻击

AI增强的网络安全威胁:从ChatGPT到恶意软件创新
人工智能和机器学习正被用于创建更复杂的网络攻击,如钓鱼邮件和恶意软件。CheckPoint研究团队演示了如何使用ChatGPT和CodexAI构造完整的攻击链。虽然目前的防御措施可能不足以应对这些威胁,研究人员警告未来攻击会变得更难检测。生成神经网络和生成对抗网络也被用来创建合成身份进行欺诈。随着AI技术的进步,现有防御策略可能面临更多挑战。
部署运行你感兴趣的模型镜像

目前的防御措施能够抵御当今人工智能增强的网络安全威胁,但只要这些攻击变得更加有效和复杂,情况就不会如此。

人工智能和机器学习(AI/ML)模型已经在增加钓鱼诱饵、创建合成配置文件和创建基本恶意软件方面显示出了一些前景,但在不久的将来可能会出现更创新的网络攻击应用程序。

恶意软件开发人员已经开始尝试使用人工智能生成代码,安全研究人员证明可以创建完整的攻击链。

例如,Check Point研究团队使用当前的AI工具创建了一个完整的攻击活动,首先是OpenAI的ChatGPT生成的钓鱼电子邮件,敦促受害者打开一个Excel文档。然后,研究人员使用Codex AI编程助手创建一个Excel宏,该宏执行从URL下载的代码和Python脚本,以感染目标系统。

Check Point Research的威胁情报组经理Sergey Shykevich说:“每个步骤都需要多次迭代才能产生可接受的代码,但最终的攻击链起了作用。”

他说:“这确实需要大量的迭代,在每一步,第一个输出都不是最佳输出。如果我们是罪犯,我们就会被杀毒软件阻止。我们需要时间才能生成好的代码。”

在过去的六周里,ChatGPT作为一个基于OpenAI的生成式预训练transformer (GPT-3)的第三次迭代的大型语言模型(LLM),为人工智能和机器学习的潜在应用激发了各种假设场景,有乐观的,也有恐惧的。

AI/ML模型的两用性质让企业争相寻找利用该技术提高效率的方法,而数字权利倡导者则担心该技术将对组织和工人产生影响。

网络安全也不例外。研究人员和网络犯罪组织已经尝试将GPT技术用于各种任务。据称,恶意软件的新手作者已经使用ChatGPT来编写恶意软件,尽管开发人员试图使用ChatGPT服务来开发应用程序,尽管有时成功,但往往会产生带有bug和漏洞的代码。

然而,AI/ML也正在影响其他安全和隐私领域。生成神经网络(gnn)已被用于创建合成人的照片,这些照片看起来是真实的,但不是真实的人,作为一种增强用于欺诈和虚假信息的个人资料的方法。一个相关的模型,称为生成对抗网络(GAN),可以创建特定人物的虚假视频和音频,在一个案例中,允许欺诈者说服会计师和人力资源部门将3500万美元汇入罪犯的银行账户。

人工智能系统只会随着时间的推移而改进,从而引发各种增强威胁的担忧,这些威胁可能会欺骗现有的防御策略。

您可能感兴趣的与本文相关的镜像

Stable-Diffusion-3.5

Stable-Diffusion-3.5

图片生成
Stable-Diffusion

Stable Diffusion 3.5 (SD 3.5) 是由 Stability AI 推出的新一代文本到图像生成模型,相比 3.0 版本,它提升了图像质量、运行速度和硬件效率

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值