Salesforce最近对500多名IT负责人进行了一项调查,调查显示,67%的受访者会在未来18个月内让AI参与进具体业务,而几乎所有人都承认,这需要采取额外措施来解决安全问题。
大多数组织会购买生成型AI,许多组织甚至会通过捆绑集成来获得,因此,在这样的趋势下,安全负责人需要花时间来了解各业务中AI的不同用法和风险。
Forrester的一份新报告揭示了最有可能采用生成型AI的业务部门,以及在AI技术主流化后,组织需要防范的安全风险是什么。
1、营销:文本生成器可使营销人员立即为营销活动制作粗略的副本草稿。Forrester说,这带来了数据泄露、数据窃取和竞争情报等威胁,同时风险还包括了与文本发布相关的公共关系和客户问题。
2、设计:图像生成工具激发了设计师的灵感,使他们能够用最少的时间模拟出想法。Forrester表示,这同时也引入了模型病毒、数据篡改和数据完整性等威胁,以及生成内容潜在的版权问题。
3、IT:程序员会使用大型语言模型(LLM)来查找代码中的错误并自动生成文档。Forrester表示,这会带来数据泄露、数据窃取和数据完整性等威胁,而制作的文档可能会泄露公司机密。
4、开发者:TuringBot能帮助开发者编写原型代码并实现复杂的软件系统。Forrester表示,这会带来代码安全、数据篡改、勒索软件和IP盗窃问题,同时还包括了不遵循SDLC安全实践的不安全代码、违反知识产权许可要求的代码,以及生成人工智能被勒索生产系统。
5、数据科学家:生成型AI允许数据科学家可以在不冒个人信息风险的情况下,生成和共享数据来训练模型。这就等于引入了数据中毒、数据失效和对抗性机器学习等威胁,Forrester表示,相关风险还与正在进行逆向工程的合成数据生成模型有关。
6、销售:生成型AI可帮助销售团队使用包容性语言,并创建新内容。这就带来了数据篡改、数据泄露和法规遵从性等威胁,Forrester表示:“销售团队在生成和分发内容时可能会泄露相关联系人的偏好。”
7、运营:内部运营可使用生成型AI来提升组织的智能。因此这就引入了数据篡改、数据完整性和员工体验等威胁。Forrester表示,此风险在于那些用作决策目的的数据可能被篡改。
报告提出,鉴于大多数组织都发现了生成型AI集成可部署在产品和服务中,安全负责人的当务之急是第三方风险管理。Forrester表示,当一家公司购买具备生成型AI的产品或服务时,其解决方案的安全性取决于供应商。“微软和谷歌已承担起这一责任,他们将生成型AI捆绑并集成到了Copilot和Workspace等服务中,而其他提供商将从自己的供应商生态系统中获取AI解决方案。安全部门需要根据上述用例编制自己的供应商安全风险管理策略。”
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...