新的研究发现GPT-4可以自主识别并利用零日漏洞
研究人员最近展示了操纵大型语言模型 (LLM) 和聊天机器人技术用于高度恶意目的的能力,例如传播自我复制的计算机蠕虫病毒。一项新研究揭示了目前市场上最先进的聊天机器人GPT-4,只需通过检查漏洞细节就可以利用极其危险的安全性漏洞。
该研究表明,大型语言模型变得越来越强大,但缺乏指导其行为的道德原则。研究人员测试了各种模型,包括OpenAI的商用产品、开源大型语言模型以及ZAP和Metasploit等漏洞扫描仪。他们发现,只要能够获取此类漏洞的详细描述,高级人工智能体就可以“自主利用”真实世界系统中的零日漏洞。
在研究中,大型语言模型被用来对抗包含15个零日漏洞的数据库,这些漏洞涉及网站漏洞、容器漏洞和易受攻击的Python套装软件。研究人员指出,其中一半以上的漏洞在其各自的CVE描述中被归类为“高”或“严重”等级。此外,在测试时还没有任何的错误修复程序或修补程序。
这项研究由来自伊利诺大学厄巴纳-香槟分校 (UIUC) 的四名计算机科学家撰写,旨在进一步研究聊天机器人自动进行网络攻击的潜力。他们的发现表明,GPT-4能够利用87%的测试漏洞,而其他模型,包括GPT-3.5,成功率为0%。
UIUC助理教授丹尼尔·康(Daniel Kang)强调了GPT-4自主利用零日漏洞的能力,即使开源扫描仪也无法检测到这些漏洞。随着OpenAI已经着手研发GPT-5,Kang预计大型语言模型代理将将成为民主化漏洞利用和网络犯罪的强大工具,深受“脚本小子”和自动化爱好者的欢迎。
然而,要有效利用公开披露的零日漏洞,GPT-4需要获取完整的CVE描述以及通过嵌入式连接的其他资讯。康建议的一种潜在缓解策略是,安全性群组织不要发布有关漏洞的详细报告,进而限制GPT-4的利用潜力。
尽管如此,康怀疑“通过隐蔽性来获得安全性”这一方式的有效性,尽管研究人员和分析师的观点可能有所不同。相反,他主张采取更积极主动的安全措施,例如定期更新软件程序,以更好地应对现代“被武器化”的聊天机器人所带来的威胁。
页:
[1]