人工智能 (AI) 的影响力日益增强,许多组织都在努力解决该技术带来的新的网络安全和数据隐私问题,尤其是当 AI 应用于云系统时。Apple 通过其私有云计算 (PCC) 系统正面解决了 AI 的安全和隐私问题。
苹果似乎已经解决了提供云服务而不侵犯用户隐私或增加额外不安全层的问题。ComputerWorld 的一篇文章指出,苹果必须这样做,因为苹果需要创建一个云基础设施来运行生成式人工智能 (genAI) 模型,这些模型需要比其设备所能提供的更多的处理能力,同时还要保护用户隐私。
苹果公司宣布,将向安全研究人员开放 PCC 系统,以“了解有关 PCC 的更多信息,并对我们的声明进行独立验证” 。此外,苹果公司还在扩大其 Apple Security Bounty 的规模。
这对未来的 AI 安全意味着什么?Security Intelligence 采访了 IBM 的 CNE 能力开发主管 Ruben Boonen,以了解研究人员对 PCC 和 Apple 的方法的看法。
SI:ComputerWorld 报道了这个故事,称苹果希望“整个信息安全社区的力量能够联合起来,帮助建立一条护城河来保护人工智能的未来。”你如何看待这一举措?
Boonen:我读过《ComputerWorld》的文章,也看过苹果自己关于私有云的声明。我认为苹果在这方面做得不错。我认为这超出了其他云提供商的做法,因为苹果提供了他们使用的一些内部组件的见解,基本上是在告诉安全社区,你可以看看它是否安全。
从人工智能作为一个行业不断壮大的角度来看,这也是一件好事。将生成式人工智能组件引入普通消费设备并让人们信任人工智能服务的数据是一个非常好的举措。
SI:您认为 Apple 保护云端 AI 安全的方法有哪些优点?
Boonen:其他云提供商确实为存储在其云上的数据提供了高安全性保证。包括 IBM 在内的许多企业都将公司数据托付给这些云提供商。但很多时候,保护数据安全的流程对客户来说是不可见的;他们没有解释他们到底在做什么。这里最大的不同是 Apple 为用户提供了这个透明的环境来测试该平台。
SI:有哪些缺点呢?
Boonen:目前,最强大的 AI 模型非常庞大,这让它们非常有用。但当我们想在消费设备上使用 AI 时,供应商往往会提供无法回答所有问题的小型模型,因此它依赖于云端的大型模型。这会带来额外的风险。但我认为整个行业将不可避免地转向这种 AI 云模型。苹果现在正在实施这一举措,因为他们希望让消费者信任 AI 流程。
SI:苹果的系统与其他系统和产品配合得不好。苹果在云端保护人工智能的努力将如何使其他系统受益?
Boonen:他们提供了一个设计模板,其他供应商如微软、谷歌和亚马逊可以复制。我认为这对其他供应商来说最有效的例子是,也许我们应该实施类似的东西,并为我们的客户提供类似的测试功能。所以我认为这不会直接影响其他供应商,只会促使他们在流程上更加透明。
值得一提的是,苹果邀请研究人员来查看他们的系统,推出了漏洞赏金计划。苹果在安全方面的表现一直不太好,过去曾出现过拒绝为安全社区发现的问题支付赏金的情况。因此,我不确定他们这样做是否完全是为了吸引研究人员,但也是为了说服客户他们的做法是安全的。
话虽如此,在阅读了他们详尽的设计文档后,我认为他们在解决云端 AI 安全问题方面做得相当不错。
— 欢迎关注
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...