文章最后更新时间2025年03月04日,若文章内容或图片失效,请留言反馈!
人工智能的跨越式发展正在引领新一轮科技革命和产业变革,其不仅是当前国家安全最新、最活跃、最突出的重点领域,更是维护和塑造国家安全的主战场主阵地。人工智能安全包括技术本身的内生安全和技术在各领域使用所导致的应用安全,在实践中具有内涵外延快速拓展、攻防非对称性、风险不可预测性等特征。我国人工智能安全面临多重挑战,主要体现为技术实力尚不够强、监管难题长期存在、外部遏压不断加码,以及外溢领域风险突出等。推进人工智能治理应全面贯彻总体国家安全观,统筹人工智能发展和安全,从关键核心技术自立自强、加快应用开发和强化安全监管三方面同步发力。中国作为人工智能全球治理的积极倡导者和贡献者,已发布一系列政策法规和国际立场文件,为促进人工智能全球治理贡献了中国智慧、提供了中国方案。
总体国家安全观;人工智能安全;统筹发展和安全;中国方案经过多年的发展,人工智能技术及其应用已进入爆发期,以大模型和生成式人工智能为代表的通用人工智能技术取得突破性进展,成为引领新一轮科技革命和产业变革的重要驱动力。属于非传统安全范畴的人工智能不仅是总体国家安全观的重要领域,更是新时代新征程国家安全工作新的战线和科技赋能的关键手段。当前,人工智能因其战略性、前沿性和全局性成为全社会关注的焦点,但政府、科技工作者、产业界、社会大众对人工智能安全的关注点各有侧重,政府更关心国家竞争力和安全监管,产业界更关注技术本身的发展和安全,社会大众更关注新技术带给各行各业的变革,这便产生了人人都在谈论人工智能安全,但谈论的人工智能安全并不相同的局面。因此,在深入分析我国人工智能安全问题之前,有必要首先厘清人工智能安全的概念。由中央有关部门组织编写的《国家人工智能安全知识百问》(以下简称《百问》)于2023年4月出版,《百问》将人工智能安全分为内生安全、衍生安全和发展安全。全国网络安全标准化技术委员会于2024年9月发布的《人工智能安全治理框架》1.0版则将人工智能安全风险分为内生风险和应用风险。从人工智能发展的实践来看,后一种分类更具指导意义,因其能够更好地区分并涵盖技术本身的安全问题和因技术应用所引发的其他安全问题。首先,人工智能的本质是信息技术,内生安全就是技术本身的安全,是最基础的安全问题。《百问》将内生安全定义为:由人工智能自身的脆弱性所导致,通常存在于数据、算法/模型、平台和业务等环节的安全问题。全国信息安全标准化技术委员会发布的《人工智能安全标准化白皮书(2019版)》指出:“人工智能安全是指通过采取必要措施,防范对人工智能系统的攻击、侵入、干扰、破坏和非法使用以及意外事故,使人工智能系统处于稳定可靠运行的状态,以及遵循人工智能以人为本、权责一致等安全原则,保障人工智能算法模型、数据、系统和产品应用的完整性、保密性、可用性、鲁棒性、透明性、公平性和隐私的能力。”与《百问》相比,2019版标准化白皮书对人工智能内生安全的定义更加系统详细,兼顾状态和能力两个方面,但二者本质相同,都强调技术本身的安全问题。2023年发布的《人工智能安全标准化白皮书(2023版)》继续沿用2019年版白皮书对人工智能安全的定义,同时更加强调人工智能内生安全所具有的可靠性、透明性、可解释性、公平性、隐私性五大属性。其中,可解释性、公平性是人工智能相较于其他信息系统的特有属性;可解释性关注人工智能算法模型可被人理解其运行逻辑的特性;公平性则要求人工智能的处理结果需保证公正、中立,不引入偏见和歧视因素。与之相对应地,人工智能内生安全主要表现在两个方面:一是人工智能技术特有的安全问题,如算法黑箱、数据投毒、对抗样本攻击等;二是信息系统普遍需要防护的安全问题,如网络安全、服务器安全、数据库安全和机房安全等。其次,应用安全是指人工智能技术在应用于其他领域的过程中,因其脆弱性和不确定性,或者因受到恶意攻击、不当使用甚至恶意利用而导致的安全问题,通常体现为恶意攻击、深度伪造和行为操控等。在内生安全之外对应用安全概念进行细致探讨至关重要,因为技术本身的安全问题和技术应用所导致的安全问题大相径庭,只要是使用人工智能的地方,就存在应用安全问题。一般而言,越是依赖人工智能的领域,人工智能应用安全的风险系数就越高。例如,在自动驾驶领域,人工智能系统的错误决策可能导致严重的交通事故和人身伤害;在能源领域,人工智能系统的故障可能造成整个能源网络的瘫痪;在医疗领域,人工智能的一个小失误就可能使病人付出生命代价。随着人工智能技术的应用范围越来越广,应用领域越来越关键,其应用安全问题将越发凸显。随着人工智能技术的快速发展,社会各界对人工智能安全的讨论已不局限于技术本身,很多问题的根源也不是源于人工智能技术的脆弱性,但我们也将其称为人工智能安全,这些安全问题被视为人工智能安全的外延。其主要包括三类:一是发展安全。人工智能的发展安全是指影响和决定人工智能所处的技术生态能否健康发展的安全问题,通常包括基础研究、应用研究、产业环境、体制机制、人才资源和国际环境等方面。当前,我国人工智能面临的最大发展安全问题便是来自外部的遏制打压,包括技术上的“脱钩断链”“小院高墙”“卡脖子”“去风险”等。二是技术滥用。人工智能作为工具和手段,在造福人类的同时,不可避免地会放大某些负面行为的危害,典型如网络攻击和深度伪造,在人工智能技术出现之前,网络攻击和音视频伪造行为就已经存在,但人工智能使得这些负面行为的危害程度呈现出指数上升、防范难度加大的局面。三是负外部性。负外部性是经济学词语,指某个经济主体的活动给其他经济主体带来了损害,但该经济主体却不必为此承担相应的成本。当前人工智能技术发展过快的负外部性日益显现,典型表现就是失业问题加剧和贫富分化。需指出的是,本文对人工智能安全类型的划分主要基于风险源头的差异,虽然某个安全问题并非仅存单一的风险源头,但应抓住问题的主要矛盾,例如负外部性问题表现领域和表现形式多种多样,其问题的本质均是技术发展太快,生产关系的变革滞后于生产力发展速度。第一,内涵外延快速拓展。速度快是本轮人工智能技术发展的突出特征。2018年OpenAI发布GPT-1模型的参数数量是1.1亿,2022年OpenAI基于GPT-3.5推出的ChatGPT参数数量为1750亿,最新的大模型参数数量可能达到万亿级。大模型参数指数级上升使得人工智能水平实现跨越式发展。技术的快速发展又带来安全挑战的快速演变。一方面,人工智能的应用场景不断拓展,涉及医疗、交通、金融等各个领域,这意味着安全问题的影响范围在迅速扩大;另一方面,技术更新迭代频繁,导致安全措施总是难以跟上技术步伐。新的算法、模型不断涌现,风险表现形式不断变化,给维护人工智能安全带来巨大挑战,并且未来人工智能安全的内涵和外延还将不断丰富拓展。第二,攻防非对称性。人工智能安全中的攻防具有明显的非对称性,攻击成本低、手段多样且易实施,例如对抗样本攻击只需要对原始数据进行微小的、人眼难以察觉的扰动,就可能使人工智能系统产生错误的输出结果,受过一定技术训练的个体就可以实施此类攻击。与此同时,防御的难度却很大,成本高且要求持续投入,需要建立完善的安全防护体系、进行持续的安全检测和漏洞修复。同样以对抗样本攻击为例,防御方需要开发更加安全的机器学习算法和模型,进行大量的研究和开发投入,不断跟进攻击者的新型攻击方式,及时调整和完善防御策略。第三,风险不可预测性。传统技术工具即使再复杂,其设计原理和运行逻辑还是能够被人完全掌握,故而其行为可以被预测。人工智能技术则不然,智能的原理对人类来说是“黑箱”,使用者只知道其好用,但不知道其为什么好用,也不能排除好用之外是否存在安全隐患。此外,人工智能还存在复杂系统的“涌现”可能(涌现是系统科学和哲学中的概念,用来描述一个系统中个体组成部分之间相互作用后产生新的、不可预测的特性或行为模式),随着算力的进一步提升,很难预计人工智能还将产生什么超出人类预料之外的能力。最后,人工智能系统具备一定的学习能力,能够自我进化,长期而言其进化轨迹存在很大的不确定性。当人类无法预测人工智能的行为,就必然无法为所有的安全问题做好准备。我国人工智能安全问题突出体现在技术脆弱性带来的内生安全风险和技术不合理使用导致的应用安全风险,主要面临以下四方面挑战。近年来,我国在人工智能技术发展和产业应用上取得了显著成绩,人工智能技术发展处于国际领先水平。从技术体系看,我国坚持自主创新,现已构建起包括智能芯片、大模型、基础架构和操作系统、工具链、深度学习平台和应用技术在内的人工智能技术体系。从产业规模看,截至2023年底,我国人工智能核心产业规模接近5800亿元,已经形成京津冀、长三角、珠三角三大集聚发展区,核心企业数量超过4400家,居全球第二。虽然我国在人工智能领域取得了显著成就,但与世界顶尖水平相比仍有不足,主要体现在:一是算法研究能力偏弱,与国际先进水平相比存在明显差距,尤其是在算法的创新和突破上需要加强。二是高端芯片和器件研发能力不足,在高端芯片、传感器等核心器件的研发和制造上,我国与国际先进水平相比差距明显,还存在“卡脖子”现象。三是开源开放平台缺乏影响力,我国目前缺乏具有国际影响力的人工智能开源开放平台,这在一定程度上限制了技术的交流和合作,影响了创新生态的构建。四是高端技术人才短缺,我国人工智能人才培养规模逐渐扩大,但高校和科研机构的人才培养体系与产业需求之间存在一定脱节,致使高层次领军人才稀缺、基础研究人才匮乏。以上不足的共同原因就是基础研究和应用研究之间“头重脚轻”,学界、产业界对人工智能的投入更多体现在应用层面,基础性、原创性研究依然薄弱。这在一定程度上是由我国人工智能所处的发展阶段造成的。我国在人工智能技术上处于后发追赶地位,现阶段优先寻求应用层的发展和突破相对经济可行,但长期看我们要追上世界顶尖水平,避免技术被“卡脖子”、被人拉开技术差距,加强基础领域研究已势在必行。当前,我国已逐渐建立起人工智能监管体系,极大地促进了人工智能技术的健康发展。例如在标准化建设方面,2024年工业和信息化部等四部门联合发布《国家人工智能产业综合标准化体系建设指南(2024版)》;在法律法规方面,2023年国家互联网信息办公室等七部门联合发布《生成式人工智能服务管理暂行办法》,2024年国家互联网信息办公室发布《人工智能生成合成内容标识办法(征求意见稿)》;在伦理规范方面,2021年国家新一代人工智能治理专业委员会发布《新一代人工智能伦理规范》;在安全治理方面,2023年我国提出《全球人工智能治理倡议》,2024年全国网络安全标准化技术委员会发布《人工智能安全治理框架》1.0版。但在人工智能监管体系日益完善的同时,我们也应该认识到,人工智能监管体系建设是一项长期任务,许多监管挑战将长期存在。一是技术本身不确定性长期客观存在。算法黑箱使得开发人员和监管者难以真正理解算法内部的工作机制和决策过程,从而增加了监管难度;人工智能技术发展迅速,新的算法、模型和架构不断涌现,使得监管政策和标准难以跟上技术更新的速度,导致监管滞后。二是国际合作中的竞合矛盾长期存在。在地缘政治影响下,人工智能领域存在着激烈的国际竞争,各国特别是大国都将人工智能视为国家竞争力的关键因素,这种竞争关系不可避免地会影响国际间的合作意愿,使得各国在人工智能监管方面难以达成共识。另外,不同国家和地区的法律制度、文化背景和监管政策存在差异,这给人工智能的跨国界应用和监管带来了困难,例如不同文化的国家对数据隐私问题的态度和政策存在明显差异。三是具体监管中个体性和统一性的矛盾将长期存在。人工智能应用具有多样性和普遍性,制定统一监管政策难度很大,“一刀切”式监管将导致监管过度或监管不足的问题。再加之每个行业都有自身的特点和监管要求,极大增加监管的复杂程度和难度。四是创新和安全的关系需要长期保持动态平衡。在技术发展领域,创新和安全相辅相成,监管政策需要既能激励创新,又能确保技术的安全和可靠。随着人工智能重要性进一步凸显,个别西方国家从维护自身霸权角度出发,有预谋有组织地对中国人工智能发展采取了一系列遏压行动。一是通过不断加码出口管制和投资审查,阻挠正常学术交流,限制资金、技术等资源向中国人工智能领域流动。例如,从2019年开始,美国便有组织、大规模地破坏中美科学合作,数以千计的中国留美学生和学者被美相关机构拒签、吊销签证甚至驱逐出境。2022年,美国商务部工业与安全局出台了新的出口管制措施,限制向中国出口先进计算和半导体制造物项,并多次升级这些措施,扩大限制范围,将多家中国实体列入出口管制“实体清单”。此外,美国还通过《芯片与科学法案》等,限制美国公司在中国进行半导体和微电子、量子信息、某些人工智能领域的投资活动。二是构筑人工智能反华联盟。美国政府将人工智能视为推动其所谓“自由、开放、透明”原则的重要工具,通过对合作伙伴的标准化要求,极力推动人工智能技术发展符合其利益诉求,并与盟友共同制定科技领域的国际规则和标准,以“民主价值观”之名,行构建科技“小圈子”、限制中国科技发展之实。例如,美国防部启动“人工智能国防伙伴关系”,并与韩国、日本及中国台湾地区建立“芯片四方联盟”,对华实施统一出口管制。三是重点限制我人工智能大模型发展。美国深知大模型是本轮人工智能技术爆发式增长的关键,不遗余力打压中国大模型发展,手段包括高端芯片出口限制、先进半导体制造设备全球管制、人工智能基础软件出口管制、云计算服务限制、特定应用程序服务禁令等。2024年,美国商务部要求亚马逊等云服务提供商报告外国客户使用云算力训练人工智能大模型的情况,针对中国意味明显。美国众议院外交事务委员会通过《加强海外关键出口限制国家框架法案》,对人工智能模型实施出口管制,以限制中国获取先进模型技术。人工智能作为关乎国家竞争力和未来发展的关键技术,是未来大国竞争博弈的主战场。可以预见,在未来相当长时间内,大国博弈将是影响我人工智能发展的关键变量,国际竞争和外部遏压是维护我国人工智能安全的主要挑战。在政治安全领域,人工智能深度伪造技术被用来抹黑重要政治人物,引发社会信任危机,严重危害政治安全;在信息茧房作用下,人们会依照个人的喜好自动选择和过滤信息,只对自己偏好的信息感兴趣,排斥不感兴趣的信息,这将导致主流意识形态传播弱化、话语消解的风险。在经济安全领域,人工智能可能改变现代经济体系中的“资本—技术—劳动力”的三边关系,重构价值链与权力分配格局,引发结构性失业、贫富分化加剧等问题。在社会安全领域,人工智能使得网络欺诈、隐私窃取等犯罪行为更具隐蔽性、更有针对性,给防范和打击犯罪行为带来新挑战。此外,当人工智能普遍应用于交通调度、能源管理和政务服务时,其系统故障带来的公共安全风险不容小觑。在军事安全领域,人工智能技术的发展可能改变战争形态,极大增强武器系统的性能和自主性水平,人工智能军备竞赛还将引发法律、伦理和战略问题。在科技安全方面,人工智能本身就是引领新一轮产业变革的关键技术,同时作为一项重要工具,人工智能技术对科研活动具有显著的赋能作用,国家间科技实力差距可能被进一步拉大。人工智能既是发展的加速器,也是风险的导火索。对于人工智能安全面临的复杂挑战,我们要全面贯彻总体国家安全观,高效统筹发展和安全,兼顾鼓励创新与防范风险,既要避免技术落后导致的发展动力缺失与“被动挨打”,也要加强早期治理,防范无序发展带来的安全乱象,坚持促进发展与确保安全相统一,在发展中规范、在规范中发展,确保人工智能始终安全、可靠、可控。科技创新能力是衡量一国实力的重要标准,科技竞争已成为大国博弈的重要内容。美西方在关键科技领域打着“去风险”的旗号拉帮结派,在国际上对中国大搞“脱钩断链”,筑起“小院高墙”、实施封锁围堵,企图遏制与迟滞我国科技发展进程。习近平总书记强调,关键核心技术是要不来、买不来、讨不来的。只有把关键核心技术掌握在自己手中,才能从根本上保障国家经济安全、国防安全和其他安全。人工智能作为具有划时代意义的关键技术,是我们赢得全球科技竞争主动权的重要抓手,是推动我国科技发展、产业升级、生产力跃升的重要依托。面对美西方的遏压以及人工智能内生安全风险和应用安全风险,我们必须坚持推进高水平科技自立自强,把科技命脉和发展主动权牢牢掌握在自己手中,发挥新型举国体制的优势,聚焦人工智能关键核心技术的差距和短板,加快研发进程,推动人工智能高水平发展。人工智能领域的关键核心技术主要包括人工智能芯片以及算法、算力与数据等。芯片是人工智能的基础,要加强在高端芯片领域的研发力度和产业布局,为人工智能的发展提供坚实的硬件支撑。要持续深化人工智能的基础理论研究,开展大模型基础原理和新架构探索,构建具有国际影响力的通用人工智能原创性理论体系。要推动人工智能前沿领域攻关,搭建深度学习框架等开源算法平台,加强学习推理与决策、图像图形、语音视频、自然语言识别处理等领域创新。同时还要加快建立多层次开放共享的数据体系,打破不同领域、不同平台、不同渠道的数据壁垒,形成高质量、大规模、多样性的数据集,为人工智能发展提供有力的数据支持。实现关键核心技术自立自强的重中之重是培养高素质人才。要增强人工智能领域的人才培养和学科布局,加大对人工智能学科和高校科研院所的支持力度,围绕产业需求和区域发展来布局人工智能相关专业,逐步扩大高等院校人才培养规模。要不断突破学科壁垒,探索高效前沿的人才培养模式,推动人工智能专业与数学、统计学、生物学、心理学等学科的交叉融合,坚持产学研相结合的育人导向,面向领域前沿、面向产业需要培养人工智能的研发、运维与管理人才。要完善人工智能人才国际交流合作机制,坚持“走出去”与“引进来”相结合,一方面提升与世界各国人工智能专业领域的交流合作力度,建立定期交流访学、合作办学等机制;另一方面加大引进人工智能领域高端人才力度,为全球人工智能领域人才来华工作创业畅通渠道。人工智能具有极强的溢出和带动效应,是经济社会发展的重要驱动力量,能够极大地抬升其他领域的发展变革速度,催生了一大批具有颠覆性的新产品、新业态和新模式,但人工智能在使用过程中也会产生系列应用风险,引发诸多经济社会问题。在一定程度上,人工智能的风险防范还需要依靠人工智能技术的创新性研发加以解决,因此,必须积极推进用于人工智能治理的相关技术开发与应用,不断提高人工智能治理的技术能力。习近平总书记强调,“我国经济已由高速增长阶段转向高质量发展阶段,……,迫切需要新一代人工智能等重大创新添薪续力。我们要深入把握新一代人工智能发展的特点,加强人工智能和产业发展融合,为高质量发展提供新动能。”“要发挥人工智能在产业升级、产品开发、服务创新等方面的技术优势,促进人工智能同一、二、三产业深度融合,以人工智能技术推动各产业变革。”因此,要紧紧围绕经济社会发展的新要求,充分发挥我国超大规模应用市场优势,强化人工智能科技应用开发,形成“人工智能+”的产业研发模式,培育智能创新产品和服务,构建人工智能科技创新和产业发展同频共进的良好局面。例如,要着力推动人工智能同民生保障相结合,加强人工智能在人们日常工作生活中的深度运用,聚焦社会保障和民生领域的突出问题和重难点,围绕教育、医疗、交通、养老、家政服务等领域展开人工智能应用研发,创新智能服务体系、智慧养老体系和智慧交通体系等,不断增强公共服务水平。要推动人工智能同社会治理相结合,开发适用于政府服务和咨询决策的人工智能系统,加强政务信息资源整合和公共需求精准对接;构建立体化信息化的社会治安防控体系,通过通用大模型引领的技术创新推动社会治安防控体系实现精细覆盖、快速反应与有效处置,努力提高社会治理水平。要持续推动人工智能同气候治理相结合,围绕气候变化趋势评估、碳排放监测管理、极端气候灾害预警和应急指挥、自然生态保护等方面开发人工智能应用产品,增强人类对气候变化的认知、反应和应对能力。科学技术是一把“双刃剑”,回顾人类科技文明的发展史,科技创新在推动人类社会进步的同时,也滋生了一系列风险与灾难。人工智能作为新一轮科技革命中具有颠覆性和突破性的前沿技术,对人类影响程度更深、范围更广、力度更大,“双刃剑”的属性体现得更加淋漓尽致,加强对人工智能的安全监管势在必行。特别是当前人工智能尚处于发展的初始阶段,技术伦理、法律法规和政策体系尚不完善,建立行之有效的监管体系正当其时。习近平总书记高度重视对人工智能领域的安全监管,多次就推动人工智能健康发展,确保人工智能安全、可靠、可控作出重要指示。党的二十届三中全会明确提出,要“完善生成式人工智能发展和管理机制”“加强网络安全体制建设,建立人工智能安全监管制度”。这充分表明加强人工智能安全监管已成为未来五年的一项重点工作。在人工智能领域,我们要摒弃以往“先发展、后治理”的思路,做到“边发展、边治理”,加强人工智能的战略研究、前瞻预防和约束引导,需从以下四个方面防范化解人工智能领域的安全风险。一是完善人工智能法律法规和政策体系,将制度规范贯穿到人工智能的设计、研发、部署和维护各个环节,加快推进人工智能基础设施保护、个人隐私保护与数据安全、安全服务认证等领域的立法工作,同时,完善人工智能安全管理的追溯和问责制度、风险监测研判和防范制度等,明确人工智能模型算法研发者、服务提供者、使用者等相关主体的权利、义务与责任。二是建立人工智能的伦理规范,将伦理道德融入人工智能全生命周期,推进人工智能行为科学和伦理问题的研究,明确人工智能的道德标准和社会责任,制定研发人员的伦理行为守则和行业道德规范,防止其被用于核生化导等大规模杀伤性武器等高危场景,同时,要为人工智能系统内部构造、推理逻辑、输出结果等提供说明,不断增强系统的可解释性与透明度。三是加强人工智能的监管执法力度,将监管落实到人工智能的研发应用、评估审查和监测预警等环节,相关监管和执法部门要对人工智能系统的攻击破坏行为以及借用人工智能系统实施数据窃取、散布虚假信息、网络攻击等行为及时依法进行惩处,持续强化人工智能的监管力度,提升人工智能的安全性和可靠性。四是推动公众参与人工智能监管,畅通社会组织、企业、科研院所、民间机构和社会公众等主体参与人工智能监管的体制机制和渠道,以社会监督来弥补政府监管的不足,确保人工智能良性发展。需要指出的是,虽然加强人工智能安全监管不可或缺,但人工智能方兴未艾,其未来的发展方向、应用场景和安全风险仍充满变数。因此,推进人工智能治理要注重统筹发展和安全,应坚持以发展和引导为主,进一步激发其创新动能,释放发展活力。在监管中要秉持审慎包容的理念,把握好伦理引导和创新引领、制度规范和自主发展的关系,控制好监管的范围、力度和尺度,要让监管成为人工智能蓬勃健康发展的动力,为人工智能营造良好的发展环境,避免因监管过于严格而阻碍科技进步步伐,确保我国在全球人工智能竞争中处于有利地位。中国始终是人工智能全球治理的积极倡导者和贡献者,致力于促进人工智能的健康有序发展与高效合理应用,现已推出系列政策法规和国际立场文件,为推动人工智能全球治理持续贡献中国智慧。2019年,中国发布《新一代人工智能治理原则——发展负责任的人工智能》,围绕负责任的人工智能目标,提出人工智能治理的框架与行动指南。2021年出台《新一代人工智能伦理规范》,旨在将伦理道德融入人工智能全生命周期,全力应对其带来的风险挑战。2023年,面对人工智能发展的新形势、新机遇和新挑战,习近平主席在第三届“一带一路”国际合作高峰论坛开幕式上首次提出《全球人工智能治理倡议》(以下简称《倡议》)。《倡议》聚焦人工智能的发展、安全和治理,系统阐述了人工智能全球治理的中国方案,为应对人工智能风险挑战提出了建设性解决思路,为相关国际讨论和规则制定提供了重要遵循。《倡议》的提出是中国积极践行人类命运共同体理念,落实全球安全倡议和总体国家安全观的生动体现,有力助推人工智能朝着更加安全、公平、有效的方向发展,标志着中国人工智能全球治理理念业已成熟,能力极大提升,实现由被动跟跑向主动领跑的转变。人工智能虽被冠以智能之名并能实现某些类人功能,但在本质上依旧是附属于人的技术和工具,目的不是彻底替代人类,而是更好地促进人类高质量发展。作为一项以人为模仿对象和追赶目标的新技术,人工智能的发展将给人类带来前所未有的伦理冲击。因此,强化伦理的引领、支撑和规范作用是人工智能发展的基础和前提。中国的人工智能治理方案即以伦理为根本出发点和落脚点,以增进全人类的共同福祉为目标,旨在践行和平、发展、公平、正义、民主、自由的全人类共同价值,确保人工智能技术发展与应用符合伦理道德,在安全可靠可控的前提下服务人类社会文明进步。《倡议》明确指出,要坚持伦理先行,秉持“以人为本”的理念、“智能向善”的宗旨,以保障社会安全、尊重人类权益为前提,确保人工智能始终朝着有利于人类文明进步的方向发展。在如何将上述理念落实到具体行动上,《倡议》强调,要建立并完善人工智能伦理准则、规范及问责机制,形成人工智能伦理指南,建立科技伦理审查和监管制度,明确人工智能相关主体的责任和权力边界,充分尊重并保障各群体合法权益,及时回应国内和国际相关伦理关切。通过在全球范围内广泛凝聚伦理共识、明确价值取向、规范伦理架构,中国积极构建公平合理的人工智能全球治理伦理话语体系,引领人工智能朝着造福于人类的正确方向前进。人工智能正在引领一场科技革命,给世界带来深远影响和巨大机遇,深刻塑造着人类生产、生活和学习模式,要始终以促进人工智能创新发展为第一要务。中国对外着力解决发展中国家在人工智能全球治理规则制定上的边缘化、人工智能全球发展的不均衡问题,主张推动人工智能平等发展。《倡议》提出发展人工智能应坚持相互尊重、平等互利的原则,各国无论大小、强弱,无论社会制度如何,都有平等发展和利用人工智能的权利。特别强调要增强发展中国家在人工智能全球治理中的代表性和发言权,确保各国人工智能发展与治理的权利平等、机会平等、规则平等。与此同时,呼吁全球共同发展。人工智能作为具有全球性影响的前沿技术,其发展成果不应由少数国家独占,而应由全球共享。《倡议》呼吁全球应共同推动人工智能健康发展,共享人工智能知识成果。鼓励各国开源人工智能技术,开展面向发展中国家的国际合作与援助,不断弥合智能鸿沟和治理能力差距。面对西方发达国家实施的技术封锁,《倡议》强调要反对以意识形态划线或构建排他性集团,恶意阻挠他国人工智能发展,反对利用技术垄断和单边强制措施制造发展壁垒,恶意阻断全球人工智能供应链。总体而言,中国始终践行发展优先原则,着力在全球范围内营造平等互利、合作共赢的竞争环境,以满足广大发展中国家的共同发展需要。安全是人工智能的生命线,必须确保人工智能始终在正确的方向轨道上发展。尤其是随着人工智能的飞速更新迭代,其带来的挑战前所未有,健全人工智能安全保障体制机制更显紧迫,中国对此提出了一系列主张和安排。首先,在治理问题上,《倡议》聚焦人工智能引发的多重风险挑战,强调要反对窃取、篡改、泄露和其他非法收集利用个人信息;反对利用人工智能技术优势操纵舆论、传播虚假信息、干涉他国内政、危害他国主权;要共同防范和打击恐怖主义、极端势力和跨国有组织犯罪集团对人工智能技术的恶用滥用等。其次,在治理主体上,《倡议》秉持共商共建共享的理念,凝聚各方力量,推进各国政府、国际组织、企业、科研院校、民间机构和公民个人等多元主体协力共同促进人工智能治理。最后,在治理方式上,《倡议》坚持公平性和非歧视性原则,呼吁完善法律和规章制度,保障人工智能研发和应用中的个人隐私与数据安全;推动建立风险等级测试评估体系,实施敏捷治理,提高人工智能可解释性和可预测性,提升数据真实性和准确性;避免在数据获取、技术开发、产品研发与应用过程中产生偏见和歧视。通过健全相关安全体制机制来保障实现“智能向善”目标,助力人工智能更好地为人类发展服务。人工智能的影响具有全球性,没有任何国家能在人工智能的风险冲击中独善其身,更没有一个国家能凭一己之力应对挑战。《倡议》明确指出,人工智能治理攸关全人类命运,是世界各国面临的共同课题,需各国携手应对。因此,人工智能全球治理必须以人类整体的利益福祉为宗旨,坚持自身安全和共同安全有机统一。然而,美西方无论是在军事防务部门还是产业经济领域,其人工智能合作都具有极强的排他性和竞争性,意图垄断全球人工智能治理规则制定权,这与人类的整体福祉背道而驰。《倡议》以合作共赢替代美西方零和博弈理念,广泛凝聚各方共识,主张同世界各国一道深化人工智能发展和治理国际合作,共同推动人工智能健康发展、促进世界经济增长、增进各国人民福祉。《倡议》强调,各国应秉持共同、综合、合作、可持续的安全观(亦即全球安全观,也是总体国家安全观的“世界篇”),坚持发展和安全并重,广泛参与、协商一致、循序渐进的原则,在充分尊重各国政策和实践差异性基础上,推动各利益攸关方积极参与,在国际人工智能治理领域形成广泛共识。同时,积极支持在联合国框架下讨论成立国际人工智能治理机构,协调国际人工智能发展、安全与治理重大问题,构建开放、公正、有效的治理机制,促进人工智能技术造福于人。展望未来,在人工智能治理全球合作系列主张的引领下,世界各国应共同推动人工智能科技赋能人类社会,以此助推构建人类命运共同体。陈向阳,总体国家安全观研究中心办公室主任,中国现代国际关系研究院研究员、博士生导师
张旭,中国现代国际关系研究院副研究员
黄政,总体国家安全观研究中心办公室研究人员、博士
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
宙飒天下网-ZhouSa.com
还没有评论,来说两句吧...