提高人工智能安全性的唯一方法是增加人机互动、人类价值观和社会治理,以促进强化的人机反馈循环,就像我们对传统人工智能训练方法所做的那样。
,深入探讨生成式人工智能的应用,以及我们应该如何将安全视为风险管理问题。安全、隐私和安全在哪里相交?嗯,有时它们被组合成一个试图解决所有问题的总体功能,而有时它们被分成许多较小的功能,每个功能都有自己专注的团队和专业知识。在本文中,将分享这3个重叠类别视为不同的功能以及它们如何相交的看法。
安全
安全是最广泛的类别,它提供了定义人工智能与人类如何相互交互的护栏。在社交网络世界中,安全也经常与内容审核捆绑在一起。虽然其中一些仍然适用,但当涉及生成式人工智能时,安全与内容审核的联系更加紧密。这可以是从基于文本或语音的信息准确性到物理安全的任何内容,具体取决于模型的模态及其现实世界的影响和交互。美国人工智能安全委员会或开放人工智能和人类安全门户网站提供了重点安全指南的良好示例,提供了公司投资控制和测试的特定领域。此外,一些公司可能会将重点放在与人类执行相同任务(例如医疗保健或自动驾驶汽车)相比的安全指标上。
目前生成式人工智能最关键的三个安全领域是:
偏见与公平
错误信息和毒性
社会影响
为了理解生成式人工智能安全的风险,想象一下,人工智能被要求使用上述标准解决电车难题这一经典的道德困境。如果你需要复习一下:一辆假设失控的电车正沿着轨道驶向五个被绑住、无法移动的人。你站在一个杠杆旁边。如果你拉动杠杆,电车就会切换到另一条轨道,那里有一个人被绑住了。你会怎么做?虽然这纯粹是一个思维练习,但对这个问题的回答显然属于安全领域。模型目前无法理解情感或人际关系,因此在同理心或围绕同理心的决策方面存在不足。它们也缺乏长期预测能力,主要是因为没有足够的计算资源来考虑所有过去、现在和未来的数据。提高人工智能安全性的唯一方法是增加人际互动、人类价值观和社会治理,以促进强化的人类反馈循环,就像我们对传统人工智能训练方法所做的那样。
安全
安全性是指保护服务免遭滥用的能力,滥用可能导致未经授权访问系统或数据。一些属于安全性的明显示例包括:
代码库中的漏洞
多步骤角色扮演(人工智能的社会工程学)
数据存储和访问
如图所示,AI 安全借鉴了传统软件开发安全的概念,包括保护数据、第三方库和整体开发流程的核心领域。一些新的生成式 AI 特定领域包括非结构化数据输入的攻击面和基于概率度量的模型内复杂交互。此外,模型参数为不良行为者提供了一个有利可图的目标,以重新创建一个需要花费数百万美元进行训练的模型。即时安全是防止未经授权操纵和滥用生成式 AI 的领域,是一个研究非常深入的领域,将继续发展和扩展。例如,Facebook 发布了两个开源模型,用于即时安全的Llama Guard和用于即时安全的Prompt Guard。有趣的是,Facebook 目前不提供隐私工具。
隐私
隐私涉及数据的收集和使用。人工智能的一个关键问题是它必须能够访问大量数据才能提供良好的内容。微软最近因一项功能遭到强烈反对,该功能会在您使用设备时记录您的屏幕,并默认为用户启用培训。
对于隐私风险,您通常会权衡监管结果、宣传和直接经济损失。一些示例包括:
数据驻留和本地化处理
法律法规
第三方数据传输
行为跟踪和社交评分是广告业的主要关注点,现在有了更强大的模型,可以将来自不同来源的更多数据拼接在一起,从而对过去被视为私人的数据进行去匿名化。在计算机系统人为因素会议上发表的一篇优秀论文概述了人工智能数据收集如何用于降低所有互联网用户的隐私。当我们考虑人工智能所涉及的供应链以及更多第三方如何获取数据时,这一点尤其重要。
最后,可以将它们全部整合到一个通用框架下,例如NIST AI 风险管理框架。我特别喜欢这个框架的一个原因是,它提供了管理 AI 风险的高级指导,而不是专注于快速发展的技术的单个元素。它还将它们分为非常容易理解的类别,例如映射、管理、测量和治理。映射是研究阶段,花时间了解 AI 系统的背景并围绕其使用情况创建文档。测量是测量阶段,在此阶段建立定量和定性措施以创建内部基准。管理用于制定风险处理策略来解决问题,而治理是确保风险问责和所有权的总体过程。
这些原则取自其他 NIST 框架,并已在许多私营和公共部门安全计划中得到广泛采用。该框架存在的主要原因是确保人工智能系统得到负责任的使用。此外,明确的法律指导、模型透明度、模型所有权和数据使用规则将使人工智能得以发展,并使用户共同受益。
随着我们越来越了解安全、保障和隐私如何应用于新技术,了解它们之间的区别非常重要。行业应该了解每个关键领域的重要细微差别,以便我们找到减轻每种风险的方法,无论是单独还是整体。
—
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...