生成人工智能 (Gen AI) 以及企业利用其来改善运营和利润是几乎所有行业和领域的创新重点。Gartner预测,到 2027 年,全球在人工智能软件上的支出将从 2022 年的 1240 亿美元飙升至 2970 亿美元。企业正在提升团队技能,并聘请昂贵的专家来实施新的用例、利用数据的新方法以及使用开源工具和资源的新方法。但他们未能密切关注的是人工智能安全。
IBM 商业价值研究院 (IBV) 对高管进行了调查,以了解他们对 AI 安全的认识和方法。调查发现,只有 24% 的 Gen AI 项目包含安全组件。这些结果表明,AI 实施正在激增,而 AI 安全和治理控制却滞后。
这一令人担忧的统计数据可能不仅限于 AI 实施。与任何安全计划一样,基础安全落后的组织通常无法应对可能影响其Gen AI应用程序的威胁和攻击。
对中断和数据影响的担忧日益加剧
IBV的同一项调查还发现,大多数高管都意识到了可能影响 AI 计划的威胁和事件。受访者对采用 Gen AI 表示担忧,超过一半 (56%) 的人表示,他们担心业务中断的可能性增加。不少于 96% 的人表示,采用 Gen AI 可能会使他们的组织在未来三年内发生安全漏洞。
随着攻击者针对人工智能计划的可能性不断上升,除非将对风险的担忧转化为可行的计划,否则违规和破坏可能会让组织措手不及。
事件响应规划和演练可以从额外的关注中受益,即使是技术团队也是如此。大约五分之一的公司已经制定了响应计划;对于那些同时制定了执行/战略计划的公司来说,这个数字较低。考虑到涉及人工智能相关数据的泄露风险更高——主要是由于涉及的数据量、敏感分类以及与第三方平台、模型和基础设施交互时的攻击面,这些统计数据可能会令人震惊。
有影响力的威胁已经存在
您是否预计人工智能安全会出现更多奇特的威胁,攻击者需要花费一些时间来弄清楚?影响深远的人工智能威胁已经存在。虽然确实出现了一系列针对组织的 Gen AI 计划的全新威胁,但大多数威胁与现有威胁或相同问题有关,但存在新的漏洞和暴露风险需要考虑。因此,代价高昂的破坏可能来自技术堆栈中熟悉的地方。
基础设施、应用程序、应用程序编程接口 (API) 和不受保护的数据是攻击者每天攻击组织的常见场所。这些目标承诺对窃取敏感数据、个人身份信息 (PII) 和知识产权给予高额回报。由于供应链受损和附带损害,高影响攻击经常出现,而这些攻击更有可能在使用外部数据源、第三方和开源模型和 API 时发生。
对于攻击者来说,成功入侵共享模型就是一次成功,无需复杂的技能即可获得成功。
安全团队是否已为应对人工智能入侵做好准备?
人工智能可以极大地造福组织,创新优先于人工智能相关的安全。在大多数情况下,人工智能计划都处于不安全状态,攻击比以往任何时候都更有可能影响人工智能的实施。
考虑到这些因素,您的安全团队是否准备好应对可能影响 AI 工作负载的攻击?检测可能影响模型的攻击时会采用什么样的思路?在公共云中,您的 Gen AI 计划会如何移动和使用数据?除了控制措施之外,是否正在起草应对计划来遏制、找出 AI 攻击的根本原因并予以补救?
关于人工智能计划,我们不要忘记,很多事情都发生在云端,而云中的可见性可能被孤立。在云端,安全和响应模型是与提供商共同承担的责任。您能否说安全团队和其他从事人工智能计划的团队知道在发生与人工智能相关的违规行为时如何管理这两个方面?是否针对涉及相关利益相关者的每种主动用例都有明确的计划?在与人工智能相关的危机中,准备激活第三方的支持将至关重要。
行政套房的景观
假设参与 AI 实施的安全和技术团队有计划检测、遏制和恢复 AI 攻击。高管层在其他业务方面是否做好了同样的准备?AI 模型、数据或基础设施的重大攻击可能会造成严重破坏,并且没有明确的恢复时间表。此类攻击可能迅速升级为危机级事件,需要高管接管并领导响应。
与 AI 相关的影响与组织实施的无数用例一样多种多样,并且可能因行业而异。考虑对支持 AI 的工业工厂运营、使用支持 AI 的助手的 Web 服务或 AI 增强型欺诈检测的影响。网络攻击最初可能会破坏这些程序,但由此产生的业务影响需要高管做出管理决策,根据实时影响分析确定恢复优先级,并在整个事件过程中贯彻领导者的意图。
网络攻击因未经授权访问敏感数据而造成影响而臭名昭著。组织似乎已经做好了充分准备,以便在必要时应对这种情况,但正如某些威胁有新的人工智能变化一样,响应需求也是如此。您的数据保护官和合规团队是否已制定计划来应对新的、特定于人工智能的监管要求?想象一下这样一个场景:一个中央模型被网络攻击者毒害,导致对特定群体产生意外偏见——在检测、补救、支持和补偿受影响的社区方面,战略思维是什么?
其他响应方案如何?例如,受控地关闭支持 AI 的服务或操作、根据 AI 系统使用的数据调整电子取证法律流程、以维护客户忠诚度和声誉的方式沟通违规情况、评估具体的法律后果等等。安全团队通常不擅长管理这些类型的问题。
在组织的每个层面上为应对人工智能的颠覆做好准备
在人工智能相关违规行为的领导力和跨职能支持方面,还有很多问题需要解决。有关方向和顶层政策的决策以自上而下的方式传达时,它们与业务目标的联系最紧密。
假设您的组织已经在实施 Gen AI 用例。在这种情况下,执行团队和董事会成员还应强调做好应对与 AI 相关的网络危机的准备。走上正轨并不一定很复杂。首先要审查与重大网络攻击相关的组织治理,并获得高管对 AI 相关准备和响应计划的支持。
图 1:IBM 保护 Gen AI 的框架
一旦制定了定义阈值、危机领导、整合响应流程和覆盖最可能情景的计划,下一步将是演练高影响力的人工智能妥协并测试组织管理有效响应的能力。
根据《数据泄露成本》报告,定期演练事件响应的组织可以大大减少泄露的持续时间和成本,并能更好地抵御破坏。
通过规划应对人工智能颠覆做好准备
重大网络攻击,尤其是涉及 AI 实施的网络攻击,可能会迅速升级,严重影响运营、品牌、声誉和财务状况。它甚至可能威胁到企业的生存。做好准备是一项必不可少的、经常性的活动,可以帮助减少危机级攻击的影响。
首先为您的技术和执行团队制定计划,包括相应的角色和行动计划以及共享的升级路径和标准。制定计划后,针对最具影响力的 AI 相关中断场景制定剧本,以指导团队完成检测、遏制、消除和启动最有效的恢复策略的活动。
不要忘记将关键绩效指标纳入您的计划,并制定一个足够强大的经验教训流程,以便为整个组织提供经验教训。这些经验教训可以作为可靠的参考,随着时间的推移制定计划。
IBM X-Force 随时为您提供帮助。我们的积极主动的专家可以帮助您制定符合行业标准和最佳实践的计划。您可以信赖 X-Force 通过各个行业的无数响应活动积累的丰富经验。
技术团队的详细计划: IBM X-Force 事件响应专门从事事件准备、检测、响应和恢复。通过规划和测试,我们的目标是减少违规对业务的影响并提高对攻击的弹性。与我们的 X-Force 团队安排一次发现简报会,讨论与 AI 相关的入侵的技术响应计划。
执行团队的战略规划:如果您的团队想要为与 AI 相关的妥协制定执行计划和剧本,请查看 X-Force网络危机管理。
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...