5月8日消息,在RSAC 2024现场,谷歌深入探讨了大语言模型(LLM)在网络安全领域的应用前景。
在野利用危险性评估
最有前景的应用场景
Bursztein在演讲中花了大量篇幅来探讨大模型的潜在应用前景,包括:
通过训练大模型的泛化能力综合模拟人类推理能力。这将使得AI技术能够在无需手动审核的情况下对用户生成的内容进行分类,例如解析网络钓鱼邮件和应对不断增多的社交媒体虚假信息事件。 通过生成引擎对图像、文本、视频或代码进行多模态理解,从而分析内容是否具有恶意。 代码理解。AI可以扫描GitHub等代码库,识别恶意代码并进行标记,还可以提供安全的代码替代方案。 利用人工智能的生成能力加速事件响应。Bursztein表示,通过任务自动化、缩小响应时间窗口、加快事件响应速度,AI有望改进安全性,这将对安全团队产生重大影响。
Bursztein表示:“通过AI辅助事件响应,我们希望能够极大地提高响应速度,使攻击者更难以为继。”
未来挑战
使用AI来检测和修复软件漏洞的效果参差不齐。目前,AI通过识别和缓解漏洞改善代码安全性的能力也明显不足。
Bursztein表示,漏洞检测方面存在诸多挑战,例如数据集含有噪声、难以批量识别易受攻击的代码等。在谷歌内部代码库上进行的机器学习模型实验结果不一,有些漏洞被修复了,而其他一些则被忽视。鉴于准确性和成功率的问题,AI生成的补丁在短期内能否取得成功值得怀疑。
不过,有些流程是生成式AI擅长的。Bursztein指出,使用AI进行事件响应可以将编写事件摘要所需的时间减少一半。他说:“在AI的能力和可靠性完全达到我们需要的程度之前,我们需要进行更多的研究和创新。我希望(RSA大会)能够激发人们对进入这个领域的热情。如果您还没有加入,现在应该开始考虑如何利用AI。”
编辑:陈十九
审核:商密君
征文启事
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...