导 读
网络安全研究人员发现,可以使用大型语言模型 (LLM) 大规模生成恶意 JavaScript 代码的新变种,以更好地逃避检测。
Palo Alto Networks Unit 42 研究人员在一项新报告中表示: “尽管 LLM 很难从头开始创建恶意软件,但犯罪分子可以很容易地使用它们来重写或混淆现有的恶意软件,使其更难检测。” “犯罪分子可以促使 LLM 执行看起来更自然的转换,这使得检测这种恶意软件更具挑战性。”
随着时间的推移,经过足够多的转换,该方法可以降低恶意软件分类系统的性能,诱使它们相信一段恶意代码实际上是良性的。
尽管 LLM 提供商已不断加强安全防护,以防止其出轨并产生意外输出,但恶意开发人员却宣传使用WormGPT等工具来自动编写令人信服的网络钓鱼电子邮件,这些电子邮件针对潜在目标,甚至会创建新的恶意软件。
早在 2024 年 10 月,OpenAI就披露它阻止了 20 多项试图使用其平台进行侦察、漏洞研究、脚本支持和调试的操作和欺骗网络。
Unit 42 表示,它利用 LLM 的强大功能迭代重写现有的恶意软件样本,目的是绕过“无罪推定”(IUPG)或PhishingJS等机器学习(ML)模型的检测,从而有效地为创建 10,000 种新型 JavaScript 变体铺平了道路,同时又不改变其功能。
对抗性机器学习技术旨在每次将恶意软件作为输入输入系统时,使用各种方法对其进行转换——即变量重命名、字符串拆分、垃圾代码插入、删除不必要的空格以及完全重新实现代码。
该公司表示:“最终的输出是恶意 JavaScript 的新变种,它保持了与原始脚本相同的行为,但恶意分数几乎总是低得多。”并补充说,算法在 88% 的时间内将其恶意软件分类器模型的判定从恶意转变为良性。
更糟糕的是,这些重写的 JavaScript 工件在上传到 VirusTotal 平台时也会逃避其他恶意软件分析器的检测。
基于 LLM 的混淆提供的另一个关键优势是,它的大量重写看起来比 obfuscator.io 等库实现的重写自然得多,后者由于它们对源代码引入更改的方式,更容易可靠地检测和指纹识别。
Unit 42 表示:“在生成式人工智能的帮助下,新的恶意代码变种的规模可能会增加。不过,我们可以使用相同的策略来重写恶意代码,以帮助生成可以提高机器学习模型稳健性的训练数据。”
Unit 42研究报告:
《时而看到我,时而看不到我:使用 LLM 混淆恶意 JavaScript》https://unit42.paloaltonetworks.com/using-llms-obfuscate-malicious-javascript/
新闻链接:
https://thehackernews.com/2024/12/ai-could-generate-10000-malware.html
扫码关注
军哥网络安全读报
讲述普通人能听懂的安全故事
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...