过去三年,你或许已经听腻了“AI改写安全版图”的预测,却依旧被告警洪流、工具碎片和人力短缺搞得焦头烂额。今年的RSAC给出了一组罕见的硬指标:全球防护有效性首次回升至61%,业务驻留时间整体压缩40%——而背后全部指向同一条主线:AI安全。
从层级治理到模型加固,从Agentic AI自动处置到OWASP GenAI Top 10的全栈防御,安全行业终于把“模型、数据管道和人”绑进同一张作战图。想知道哪些平台真正做到了“把自动化写进DNA”?想搞懂CISO如何靠AI语言拿到董事会席位?本文为您复盘RSAC2025最关键信息:
三年来首现拐点:整体防护能力止跌回升
过去三届RSAC都笼罩在效率下滑与人力紧绷的阴影里:勒索频次、钓鱼成功率、均值驻留时间节节攀升,没人敢给“行业向好”下定论。今年,Scale Venture Partners年度报告却给出了罕见的好消息——整体防护有效性从48%回升到61%。这并非营销噱头,而是600余家企业、6 000多条攻击链的财年实测结果。
报告团队在发布会上给出解释:一是平台级整合显著,平均安全工具数量从22个降到14个;二是自动化剧增,机器/人类告警比首次突破3∶1。换言之,企业在“预算原地踏步甚至缩减”的背景下,通过“少即是多”的架构与脚本自动化,硬生生补上了过去几年攀升的大缺口。
与此同时,报告还发现,70%受访企业在“通用钓鱼”场景中阻断率最高,其中28%真正遭到渗透——值班SOC首次可以把精力从“垃圾告警”转向“高危链”溯源。SVP调研负责人直言:“停滞三年的曲线终于反弹,说明行业走对了方向,但别忘了,61%仍只是及格线。”
CISO的新焦虑:AI/ML模型成“命门”
如果说去年的热门问题是“要不要上生成式AI”,今年的焦点则变成“你准备如何保住自己的模型”。
SVP报告显示,77%的CISO将“保护AI/ML模型与数据管道”列为2025年首要任务,比去年飙升22 个百分点。原因很直观:一旦推理API、Embedding或特征存储遭篡改,下游业务链条立刻“带毒运行”;而一台GPU节点被入侵,比单台服务器泄密的商业代价要高得多。正因如此,与会的金融、医疗、工业互联网巨头今年几乎清一色地开设“模型安全”岗位,并把红蓝对抗范围从传统网络侧延伸到提示注入、后门模型和幻觉测试。
更现实的驱动力来自监管与合规。欧盟《AI法案》草案的罚款上限高达全球年营收的7%,美国NIST刚发布的AI RMF 2.0草稿同样提出“全栈威胁建模”要求。CISO们普遍担心,一旦模型治理缺位,后续的法律责任与品牌损失将比传统数据泄露严重数倍。于是,“守护模型”不再是研究领域的空谈,而是预算优先级直追SOC自动化的硬需求。
Agentic AI:从“胶水”到“DNA”
“Agentic AI”成了今年展馆最热的演讲主题。一句话解释:让AI像安全分析师一样具备自主行动和多步骤推理能力。业内把厂商的Agentic AI技术路线分成两大类:
胶水派用LLM +脚本把现有工具粘合拼成“增强功能”;
DNA派则从架构层就把Agentic AI写进核心逻辑,把检测、研判、处置一步到底。后者的名单是今年RSAC的常胜将军:Cato SASE、Cisco AI Defense、CrowdStrike Falcon、Darktrace Cyber AI Loop、Microsoft Security Copilot……
“是骡子是马拉出来溜溜”,RSAC会场的厂商Demo更有说服力:Cato在45秒内自动定位Shadow IT侧门流量、生成分段阻断策略;CrowdStrike现场追踪朝鲜“Famous Chollima”假装远程DevOps的钓鱼流程,从识别异常招聘邮件到隔离VS Code进程全程不到两分钟。更吸睛的是,他们展示的不只是AI在旁“打下手”,而是从日志摄取到终端隔离全链打通,“人类分析师只需决策是/否”。这让不少CISO第一次认真思考:也许Agentic AI真能把SOC三班倒减至一班睡到自然醒。
展会现场人气最旺的还是CrowdStrike的实战台。工程师复刻了一条76步的攻击链:朝鲜黑客团队伪装成远程应聘者,在HR简历关卡用GPT生成的“标准英语”自我介绍、通过面试后拿到VPN账户,随后用RMM工具潜伏在代码仓库服务器。
Falcon Agentic AI首先在招聘环节检测出简历指纹与已知假人库重合,并在VPN行为模型侧发现“连夜复制Git仓”异常。系统随即自动施行三步:冻结账号、隔离VPS、向HR系统回写雇佣风险。而真正需要人类介入的仅是“是否报警执法机关”。这条Demo让不少传统SOC经理感慨:人手不足的夜班防线似乎终于有了替补队员。
但CrowdStrike也提醒:模型虽强,仍要HITL(Human‑in‑the‑Loop)。他们曾在内测中遇到合法高级工程师深夜赶Hotfix却被AI判定为“大量拉取代码”,险些被封号。最终不得不引入“场景白名单”与模型反馈机制。
微软的六柱模型:从“加功能”到“做底座”
微软安全负责人Vasu Jakkal把“Secure‑by‑Design”扩展成六柱:身份、数据、模型、运行时、监测、治理(上图)。每一柱都对Agentic AI安全至关重要:
身份:AI代理与人一样需要凭证、要遵守零信任。
数据:训练集、特征、推理结果全过程加密与水印。
模型:防范后门、模型漂移与知识产权泄露。
运行时:Prompt注入、越权链调用的实时感知。
监测:日志、遥测、观测性贯通。
治理:审计、问责、合规自查闭环。
Jakkal直言:“安全设计必须跑在创新前面,否则每一次大模型迭代都会衍生同级别的新攻击面。”
未来十年半数企业的董事会将有CISO一席之地
“我保证,这不是又一场AI演讲。”CrowdStrike CEO George Kurtz上台第一句话就调侃。真正的主题是《CISO如何坐进董事会》。72%的董事会想招懂网络安全的人,但只有29%真招到。Kurtz给CISO们的清单是:
学会说业务语言:你得能讨论EBITDA、利润率、合规罚款。
把风险翻译成时间、金钱、法律责任:这是董事会唯一关心的三件事。
跳出安全圈建立信任:多数董事都掌握多家企业席位,声誉优先于技术。
随着SEC 2024披露新规生效,网络安全从“IT问题”升级成“公司治理”一级议题。Kurtz预言:10年内,CISO坐进一半董事会“并非奢望”。
硬指标&冷思考:AI安全不再是“锦上添花”
Protect AI CTO Diana Kelley用一句话收尾自己的Keynote——“AI不是魔法,而是数学;既然是代码,就必须像代码那样被审计与加固。”她主导的OWASP GenAI Top 10已成为今年最被频繁引用的清单,而Protect AI在她演讲当天下午就被Palo Alto Networks宣布收购,足见资本对AI安全赛道的焦灼。
结语:AI安全,网络安全的新核心
RSAC 2025用一系列硬核数据击碎了“AI仅是锦上添花”的误解:防护曲线止跌回升不是因为引入了花哨的新名词,而是因为CISO们真正在日常运营里把自动化、模型治理、合规留痕做到了位。未来12个月,Agentic AI将迎来验证期——能否持续压缩驻留时间、进一步提升61%的有效线,才是“下一站增长点”能否兑现的关键。对于每一位安全从业者而言,AI不再是可选模块,而是必须铸进系统底座的工程学现实。
AI安全新证书——CAISP(人工智能安全认证专家)
人工智能安全认证专家(Certified Artificial Intelligence Security Professional,CAISP)由国际云安全联盟大中华区发布,旨在为从事AI(含AI安全)的研究、管理、运营、开发以及网络安全等从业人员提供一套全面覆盖AI安全领域、跨领域综合能力培养、实践导向与案例分析、结合全球视野与法规治理的AI安全课程。
CAISP学习对象
AI行业相关人员:AI工程师与开发者、AI安全工程师、AI应用终端用户;
安全相关人员:安全研究员、合规与风险管理专员、网络安全从业者;
其他:政策制定者和监管机构、科技管理者、在校学生。
CAISP公开课课程内容
CAISP考试相关
线上考试,考试题型为单选题和多选题,共60道题,90分钟考试时间。获得70%以上的成绩通过考试。
参考链接:
https://www.scalevp.com/insights/2025-state-of-cybersecurity
END
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...