扫码立即加入学习!
美国政府近日发布了两份与国家安全领域人工智能治理相关的重磅文件,分别为《美国政府概述协调一致的国家安全人工智能战略》“FACT SHEET: Biden-Harris Administration Outlines Coordinated Approach to Harness Power of AI for U.S. National Security”以及《备忘录:提升美国人工智能领导地位,利用人工智能实现国家安全目标,促进AI的安全性、可靠性与可信度》“Memorandum on Advancing the United States’ Leadership in Artificial Intelligence; Harnessing Artificial Intelligence to Fulfill National Security Objectives; and Fostering the Safety, Security, and Trustworthiness of Artificial Intelligence”。同时,美国政府发布的“NSM Framework to Advance AI Governance and Risk Management in National Security”(国家安全领域人工智能治理与风险管理框架)进一步细化了美国在国家安全领域的人工智能治理措施。
来源:美国白宫
2024年10月24日,美国拜登总统发布了首个关于人工智能(AI)的国家安全备忘录(NSM)。NSM的基本前提是,人工智能前沿的进步将对未来的国家安全和外交政策产生重大影响。NSM基于美国为推动人工智能的安全、可靠和可信发展所采取的关键步骤,包括拜登总统签署的具有里程碑意义的行政命令,确保美国在抓住人工智能的机遇和管理人工智能的风险方面走在世界前列。NSM指示美国政府实施具体且有影响力的步骤,以(1)确保美国领导世界开发安全、可靠和可信的人工智能;(2)利用尖端人工智能技术推进美国政府的国家安全使命;以及(3)推进围绕人工智能的国际共识和治理。NSM旨在激发联邦政府采用人工智能来推进国家安全使命,包括确保这种采用反映了民主价值观并保护人权、民权、公民自由和隐私。此外,NSM寻求围绕人工智能使用形成国际规范,以反映相同的民主价值观,并指示采取行动跟踪和反击对手为国家安全目的开发和使用人工智能。开发先进的人工智能系统需要大量的先进芯片。拜登总统在签署芯片法案时引领了潮流,该法案对我们制造尖端半导体的能力进行了重大投资。NSM指示采取行动改善芯片供应链的安全性和多样性,并确保在美国支持下一代政府超级计算机和其他新兴技术的开发时,我们以人工智能为考虑。我们的竞争对手希望颠覆美国的人工智能领导地位,并已采用经济和技术间谍活动试图窃取美国技术。这一NSM将收集有关我们竞争对手针对我们人工智能部门的行动作为顶级情报优先事项,并指示相关美国政府实体向人工智能开发者提供及时的网络安全和反间谍信息,以确保他们的发明安全。为了让美国从人工智能中获得最大利益,美国人必须知道何时可以信任系统安全可靠地执行。因此,NSM正式指定人工智能安全研究所作为美国工业在联邦政府中的主要联系点,该研究所由了解这项快速发展技术的专家组成。它还为人工智能安全研究所与国家安全机构合作,包括情报界、国防部和能源部,制定了加强和简化的机制。NSM加大了对国家人工智能研究资源的投资,其试点工作已经在进行中,以确保来自大学、民间社会和小企业的研究人员能够进行技术上有意义的人工智能研究。人工智能发展得太快,也太复杂,我们不能仅依赖少数大公司;我们需要授权并从关心使人工智能安全、可靠和可信的各类人才和机构中学习。NSM指示国家经济委员会协调对美国私营部门人工智能生态系统的相对竞争优势进行经济评估。在保护人权和民主价值观的同时,使美国政府能够利用尖端人工智能实现国家安全目标:NSM不仅仅要求我们有效地在国家安全使命中使用人工智能系统;它还明确指出,我们必须以符合民主价值观的方式这样做。它为国家安全使命中使用的人工智能治理和风险管理提供了首次指导,补充了管理和预算办公室针对非国家安全使命发布的先前指导。NSM指示创建一个推进国家安全中人工智能治理和风险管理框架,该框架今天与本NSM一同发布。该框架提供了进一步的细节和指导以实施NSM,包括要求建立风险管理、评估、问责和透明度的机制。这些要求要求机构监控、评估和缓解与侵犯隐私、偏见和歧视、个人和群体的安全以及其他人权侵犯相关的人工智能风险。该框架可以定期更新,以跟上技术进步,并确保未来的人工智能应用是负责任的和尊重权利的。NSM指示进行全面的变革,以确保我们在使用人工智能系统时既有效又坚持我们的价值观。除其他行动外,它指示机构提出简化的采购实践和简化与传统供应商合作的方式。得益于拜登总统和哈里斯副总统的领导和外交参与,过去一年在人工智能治理方面取得了实质性的国际进展。与G7盟友一起,我们于2023年制定了首个关于人工智能的国际行为准则。在布莱切利和首尔人工智能安全峰会上,美国与二十多个国家一起概述了明确的原则。已有56个国家签署了我们的关于军事使用人工智能和自主性的《政治宣言》,该宣言为军事人工智能能力确立了原则。在联合国,美国发起了首个关于人工智能的联合国大会决议,该决议一致通过,并包括中华人民共和国作为共同提案国。NSM指示美国政府与盟友和伙伴合作,建立一个稳定、负责任和尊重权利的治理框架,确保技术的开发和使用方式遵守国际法,同时保护人权和基本自由。以下是美国首个《关于人工智能的国家安全备忘录》(NSM)全文:
备忘录:推进美国在人工智能领域的领导地位;利用人工智能实现国家安全目标;以及促进人工智能的安全性、安全性和可信度(a) 本备忘录履行了2023年10月30日第14110号行政命令(安全、可靠和可信的人工智能开发和使用)第4.8小节中设定的指令。本备忘录进一步指导在美国政府中适当利用人工智能(AI)模型和AI赋能技术,特别是在国家安全系统(NSS)的背景下,同时保护人工智能支持的国家安全活动中的人权、民权、公民自由、隐私和安全。本备忘录的机密附件涉及额外的敏感国家安全问题,包括反击对美国国家安全构成风险的对手使用AI。(b) 美国国家安全机构在技术转型时期历史上取得了胜利。为了适应变化的时代,它们开发了新的能力,从潜艇和飞机到太空系统和网络工具。为了获得决定性优势并保护国家安全,它们开创了雷达、全球定位系统和核推进等技术,并在战场上释放了这些来之不易的突破。在每次范式转变中,它们还开发了新的系统,用于跟踪和反击对手利用尖端技术谋取自身优势的企图。(c) AI已成为定义时代的技术,并对国家安全显示出显著且日益增长的相关性。美国必须在适当国家安全职能中负责任地应用AI方面引领世界。如果使用得当且符合其预期目的,AI可以提供巨大的好处。如果被滥用,AI可能威胁到美国国家安全,加强全球威权主义,破坏民主机构和进程,助长人权侵犯行为,并削弱基于规则的国际秩序。即使没有恶意意图,如果AI系统和流程缺乏足够的保护,也可能发生有害结果。(d) 最近的创新不仅促进了社会各阶层AI使用的增加,而且在AI领域内发生了范式转变——这种转变主要发生在政府之外。当今AI开发和部署的时代建立在前所未有的专业计算能力的前所未有的聚合之上,以及深厚的科学和工程专业知识,其中许多集中在私营部门。这种趋势在大型语言模型的兴起中最为明显,但它扩展到了更广泛的越来越通用和计算密集型的系统类别。美国政府必须紧急考虑当前AI范式如何特别可能转变国家安全使命。(e) 准确预测技术变革是不可能的,但支撑近期AI进步的基础驱动因素几乎没有减弱的迹象。这些因素包括复合算法改进、日益高效的计算硬件、行业对研发的越来越大的投资意愿,以及训练数据集的扩展。在当前范式下,AI可能会继续变得更加强大和通用。开发和有效使用这些系统需要一系列不断演变的资源、基础设施、能力和工作流程,这些在许多情况下与利用以往技术(包括先前的AI范式)所需的资源不同。(f) 如果美国政府不以负责任的速度与行业、民间社会和学术界合作,利用AI能力服务于国家安全使命——并确保美国AI创新的整体安全性、安全性和可信度——它就有落后于战略竞争对手的风险。丧失美国的技术优势不仅将严重损害美国国家安全,还会破坏美国的外交政策目标,并侵蚀全球的安全、人权和民主规范。(g) 建立人工智能在国家安全领域的领导地位将需要对美国政府的战略、能力、基础设施、治理和组织方面进行深思熟虑和有意义的改变。人工智能可能会影响几乎所有具有国家安全意义的领域,其使用不能被归入单一的机构孤岛。人工智能的日益普及意味着许多迄今为止由单独定制工具提供的功能,未来可能更好地由至少部分依赖共享、多用途人工智能能力的系统来实现。这种整合只有在与适当重新设计的美国政府组织和信息基础设施相结合时才能成功。(h) 在这一努力中,美国政府还必须保护人权、民权、公民自由、隐私和安全,并为稳定和负责任的国际人工智能治理格局奠定基础。在其历史上,美国一直是塑造设计、开发和使用新技术的全球领导者,不仅为了推进国家安全,而且为了保护和促进民主价值观。美国政府必须为其使用人工智能工具开发保障措施,并在全球人工智能规范和机构中发挥积极作用。人工智能的前沿发展迅速,美国政府必须保持对正在进行的技术发展的关注,同时不失去对其指导原则的关注。(i) 本备忘录旨在催化美国政府在人工智能国家安全政策方面的所需变革。根据第14110号行政命令,它指示采取行动加强和保护美国人工智能生态系统;提高在美国开发的和使用的人工智能系统的安全性、安全性和可信度;增强美国政府适当、负责任和有效地采用人工智能服务于国家安全使命的能力;并最大限度地减少全球对人工智能的滥用。美国政府的政策是,以下三个目标将指导其在人工智能和国家安全方面的活动。(a) 首先,美国必须领导世界开发安全、可靠和可信的人工智能。为此,美国政府必须与行业、民间社会和学术界合作,促进和保障整个美国的基础能力,为人工智能发展提供动力。美国政府不能想当然地认为美国人工智能生态系统无与伦比的活力和创新性;它必须主动加强它,确保美国仍然是全球人才最具吸引力的目的地,拥有世界上最复杂的计算设施。美国政府还必须向人工智能开发者和用户提供适当的安全和安全指导,并严格评估和帮助减轻人工智能系统可能带来的风险。(b) 其次,美国政府必须利用强大的人工智能,并辅以适当的保障措施,实现国家安全目标。新兴的人工智能能力,包括越来越通用的模型,为增强国家安全提供了深刻的机会,但有效利用这些系统将需要重大的技术、组织和政策变革。美国在利用技术的好处时必须了解人工智能的局限性,并且任何使用人工智能的方式都必须尊重民主价值观,包括透明度、人权、民权、公民自由、隐私和安全。(c) 第三,美国政府必须继续培养一个稳定和负责任的框架,以推进国际人工智能治理,促进安全、可靠和可信的人工智能开发和使用;管理人工智能风险;实现民主价值观;尊重人权、民权、公民自由和隐私;并促进全球从人工智能中获益。它必须与广泛的盟友和伙伴合作。美国在人工智能时代的成功不仅将通过美国技术和创新的卓越来衡量,而且还将通过美国在制定有效的全球规范和参与基于国际法、人权、民权和民主价值观的机构方面的领导力来衡量。(a) 为了保护和扩大美国在人工智能方面的优势,美国政府的政策是促进国内人工智能发展、创新和竞争;保护美国人工智能生态系统免受外国情报威胁;并管理人工智能安全性、安全性和可信度的风险。负责任的人工智能开发领导力通过使直接相关的应用程序能够直接服务于国家安全使命,解锁经济增长,并避免战略惊喜,从而惠及美国国家安全。美国的技术创新领导地位还通过使志同道合的实体集体减轻人工智能滥用和事故的风险,防止数字威权主义的无节制传播,并优先考虑重要研究,从而带来全球利益。3.1. 促进美国人工智能发展的进步、创新和竞争。(a) 如果没有美国政府的协调努力来促进和保障国内人工智能的进步、创新和竞争,美国在人工智能发展方面的竞争优势将面临风险。尽管美国在人工智能方面已经获得了先发优势,但竞争对手正在努力迎头赶上,已经将人工智能确定为最高战略优先事项,并且可能很快将资源投入到研发中,如果没有适当的支持性政府政策和行动,美国人工智能开发者将无法与之匹敌。因此,美国政府的政策是通过加强人工智能进步的关键驱动因素,如技术人才和计算能力,来增强创新和竞争。(b) 美国政府的政策是,推进非公民在人工智能和相关领域的高度技能人才进入和在美国工作的能力是国家安全的优先事项。今天,无与伦比的美国人工智能产业在很大程度上依赖于移居美国追求学术、社会和经济机会的杰出科学家、工程师和企业家的洞察力。保留和扩大美国人才优势需要在国内培养人才,并继续吸引和留住顶尖的国际人才。(i) 作为一项持续的任务,国务院、国防部(DOD)和国土安全部(DHS)应各自利用所有可用的法律权威,协助吸引并迅速将具有相关技术专长的个人带到美国,这些个人将提高美国在人工智能及相关领域(如半导体设计和生产)的竞争力。这些活动应包括对这些个人的所有适当审查,并应与所有适当的风险缓解措施一致。这项任务与第14110号行政命令第5节中关于吸引人工智能人才的任务一致。(ii) 在本备忘录日期后的180天内,经济顾问委员会主席应准备一份美国国内外人工智能人才市场的分析报告,尽可能提供可靠的数据。(iii) 在本备忘录日期后的180天内,负责经济政策的总统助理和国家经济委员会主任应协调对美国私营部门人工智能生态系统的相对竞争优势、美国私营部门竞争优势的关键来源以及对该地位可能构成的风险进行经济评估,并应提出减轻这些风险的政策建议。评估可能包括的领域包括(1)对人工智能相关活动中至关重要的芯片的设计、制造和封装;(2)资本的可用性;(3)在人工智能相关领域高度熟练的工人的可用性;(4)计算资源及其相关的电力需求;以及(5)具有必要规模的资本和数据资源的技术平台或机构,用于前沿人工智能模型的开发,以及其他可能的因素。(iv) 在本备忘录日期后的90天内,负责国家安全事务的总统助理(APNSA)应召集适当的行政部门和机构(机构),探讨优先处理和简化所有签证申请人的行政处理操作的行动,以便与敏感技术合作。这样做将有助于简化人工智能和其他关键和新兴技术的高度技能申请人的处理。这项工作应探讨确保这些操作的适当资源,并缩小触发这些申请人安全咨询意见请求的标准,同时符合国家安全目标。(d) 当前人工智能发展的范式严重依赖计算资源。为了保持在人工智能领域的领先地位,美国必须继续开发世界上最复杂的人工智能半导体,并构建其最先进的专用计算基础设施。(i) DOD、能源部(DOE)(包括国家实验室)和情报界(IC)在规划和建设或翻新计算设施时,应考虑大规模人工智能对其使命的适用性。在适当的情况下,机构应设计和建造能够利用前沿人工智能进行相关科学领域研究和情报分析的设施。这些投资应与2020年12月7日第13961号行政命令(治理和整合联邦任务弹性)中采纳的联邦任务弹性战略一致。(ii) 作为一项持续的任务,国家科学基金会(NSF)应根据其权限,利用国家人工智能研究资源(NAIRR)试点项目和任何未来的NAIRR努力,将计算资源、数据和其他关键资产分发给人工智能发展的多样化参与者,否则这些参与者将缺乏获得这些能力的途径——如大学、非营利组织和独立研究人员(包括受信任的国际合作者)——以确保美国人工智能研究保持竞争力和创新性。这项任务与第14110号行政命令第5节中分配的NAIRR试点一致。(iii) 在本备忘录日期后的180天内,DOE应启动一个试点项目,评估联合人工智能和数据源对前沿人工智能规模训练、微调和推理的性能和效率。(iv) 白宫办公厅主任办公室应与DOE和其他相关机构协调,努力简化人工智能启用基础设施建设的许可、批准和激励措施,以及支持这些基础设施弹性运营的周边资产,如清洁能源发电、输电线路和高容量光纤数据链路。这些努力应包括与州、地方、部落和领土政府的协调、协作、咨询和伙伴关系,视情况而定,并应与美国管理气候风险的目标一致。(v) 国务院、DOD、DOE、商务部(商务部)和IC应适当并一致适用法律,利用现有权威进行公共投资,并鼓励对国内外战略人工智能技术和邻近领域的私人投资。这些机构应评估需要新权威以促进公共和私人对人工智能及其邻近能力的投资必要性。3.2. 保护美国人工智能免受外国情报威胁
(a) 除了追求支持各自人工智能产业的产业战略外,外国国家几乎肯定旨在获取并重新利用美国人工智能创新的成果以服务于它们的国家安全目标。历史上,这些竞争对手采用了包括研究合作、投资计划、内部威胁和先进的网络间谍活动在内的技术,以收集和利用美国的科学洞察力。美国政府的政策是保护美国工业、民间社会和学术界的人工智能知识产权及相关基础设施,使其免受外国情报威胁,以保持在基础能力和必要时提供适当的政府援助,以维护领先地位。
(b) 与这些目标一致:
(i) 在本备忘录日期后的90天内,国家安全委员会(NSC)工作人员和国家情报总监办公室(ODNI)应审查总统情报优先事项和国家情报优先事项框架,符合2022年7月12日国家安全备忘录12号(总统情报优先事项),并提出建议,以确保这些优先事项改进识别和评估外国情报威胁对美国人工智能生态系统及其密切相关的使能部门,如涉及半导体设计和生产的部门。
(ii) 在本备忘录日期后的180天内,并在此之后的持续基础上,ODNI应与DOD、司法部(DOJ)、商务部、DOE、DHS和其他IC元素协调,并确定人工智能供应链中的关键节点,并制定一份最有可能被外国行为者破坏或妥协的途径列表。在此持续的基础上,这些机构应采取所有适当和一致适用法律的步骤,以减少这些风险。
(c) 外国行为者也可能寻求通过灰色地带方法获得美国知识产权,例如技术转让和数据本地化要求。与人工智能相关的知识产权通常包括关键技术工件(CTAs),这些工件将大大降低重新创建、获得或使用强大人工智能能力的成本。美国政府必须防范这些风险。
(d) 与这些目标一致:
(i) 为了进一步执行2022年9月15日第14083号行政命令(确保外国投资委员会对不断演变的国家安全风险进行健全考虑),外国投资委员会应适当考虑一项涵盖交易是否涉及外国行为者获取有关人工智能训练技术、算法改进、硬件进步、CTAs或其他专有洞察力的专有信息,这些信息揭示了如何创建和有效使用强大的人工智能系统。
3.3. 管理人工智能安全性、安全性和可信度的风险。(a) 当前和近期未来的人工智能系统可能带来显著的安全性、安全性和可信度风险,包括那些源于故意滥用和事故的风险。在许多技术领域,美国历来不仅在推进能力方面领先世界,而且在开发支撑可靠和有益的全球采用的测试、标准和规范方面也领先。美国对人工智能的方法不应有所不同,积极构建测试基础设施以评估和减轻人工智能风险将对实现人工智能的积极潜力和维护美国人工智能领导地位至关重要。
(b) 美国政府的政策是追求新的技术和政策工具,以应对人工智能可能带来的挑战。这些工具包括用于可靠测试人工智能模型适用性于有害任务的流程,以及与能够推进人工智能安全性、安全性和可信度研究的行业、学术界和民间社会的机构建立更深层次的合作伙伴关系。
(c) 商务部,通过国家标准技术研究院(NIST)内的人工智能安全研究所(AISI),将成为美国政府与私营部门人工智能开发者的主要联系点,以促进自愿的预先和部署后测试前沿人工智能模型的安全性、安全性和可信度。商务部应与相关机构协调,建立一个持久的能力,代表美国政府领导对前沿人工智能模型进行自愿非分类预先部署安全性测试,包括评估与网络安全、生物安全、化学武器、系统自主性和其他适当风险相关的风险(不包括核风险,其评估应由DOE领导)。自愿非分类安全性测试还应适当地解决对人权、民权和公民自由的风险,如与隐私、歧视和偏见、言论自由以及个人和群体安全相关的风险。其他机构,如本节3.3(f)中所述,应建立持久的能力,在适当的专业领域进行补充性的自愿分类测试。本小节中规定的指令与第14110号行政命令第4节中关于人工智能安全性的更广泛任务一致,并就机构各自的角色和责任提供额外的澄清。
(d) 本小节中的任何内容都不应妨碍机构执行他们自己的人工智能系统评估,包括在这些系统向公众发布之前进行的测试,以评估适合该机构的采购和采购。AISI的责任不包括评估人工智能系统对美国政府潜在使用的评估;这些责任属于考虑此类使用的机构,如本备忘录第4.2(e)小节和该小节中描述的相关框架中所概述的。
(e) 与这些目标一致,商务部,通过NIST内的AISI,应采取以下行动,以协助评估当前和近期未来的人工智能系统:
(i) 在本备忘录日期后的180天内,并受私营部门合作的约束,AISI应追求对至少两个前沿人工智能模型在公开部署或发布前进行自愿初步测试,以评估可能对国家安全构成威胁的能力。此次测试应评估模型支持进攻性网络运营、加速生物和/或化学武器开发、自动执行恶意行为、自动化开发和部署具有此类能力的其他模型,并引发AISI识别的其他风险。AISI应与APNSA、适当的跨机构对应方和各自的模型开发者分享测试期间识别的风险结果和任何适当的缓解措施。
(ii) 在本备忘录日期后的180天内,AISI应发布有关如何测试、评估和管理由双重用途基础模型引起的安全性、安全性和可信度风险的指导,建立在根据第14110号行政命令第4.1(a)小节发布的指导方针基础上。AISI应发布有关以下主题的指导:
(A) 如何衡量与人工智能模型可能促进生物和化学武器开发或自动化进攻性网络运营相关的能力;
(B) 如何解决模型被滥用以骚扰或冒充个人的社
。。。。。。
更多AI及数据中译本请加入:
还没有评论,来说两句吧...