近一年来,以ChatGPT为代表的生成式人工智能快速发展,给各国监管机构带来重大挑战。全球迫切需要在AI治理尤其是AI监管方面达成共识,防范可能出现的重大风险。但目前全球监管格局碎片化,主要经济体对AI及其治理的基本概念、价值理念和路径策略等均存在分歧,同时主要经济体也在激烈争夺AI治理的话语权。对此,我国应在迭代完善国内AI治理体系基础上,通过推动全球共治共享、构建监管合作规则、加快国际标准制定和创新多边协调机制等举措,持续提升国际AI治理的影响力。
一是欧盟依托法律、法规和指令等全面实施强监管。2021年4月,欧盟提出《AI法案》草案,该法案根据不同安全风险等级,将AI系统分为最小或无风险、有限风险、高风险、不可接受风险四个类别,并相应采取不同的监管措施,在极端情况下,违规公司可能被处以高达3000万欧元或公司全球年收入6%的罚款。2023年6月,欧洲议会批准《AI法案》草案,该法案正式进入欧洲议会、欧盟委员会和欧盟成员国三方谈判协商程序,有望在年底前达成协议,并在2026年对相关公司产生影响。
二是美国倾向“软”监管进行规范引导。主要是通过地方自治、行业规则和自愿倡导等“软”性方式进行规范和引导,监管导向以促进AI发展为主要目标。2020年1月,白宫科技政策办公室发布《AI应用监管指南》,提出一系列风险评估与管理方案,但其重点仍为确保监管规则不阻碍AI的发展。2022年10月,白宫科技政策办公室发布《AI权利法案蓝图》,列出了美国公众应该享有的五项核心权利:不受不安全或低效系统所害、不受算法和系统歧视、个人隐私受到保护、知晓AI系统的使用并理解AI如何和为何产生最后的结果、有权选择不使用AI技术。2023年1月,美国商务部发布《AI风险管理框架》,将可信度考量纳入AI产品、服务和系统的设计、开发、使用和评估中。2023年以来,美国对AI立法给予更多关注:6月,民主党众议员泰德·刘(Ted Lieu)等人提交了《国家AI委员会法案》提案;7月,国务卿安东尼·布林肯和商务部长吉娜·雷蒙多在英国《金融时报》发文呼吁制定更完善的AI监管法案。在实质性的法律法规出台之前,美国政府希望用“自愿承诺”的方式,实现AI技术安全、可靠和透明的发展目标。2023年7月21日,美国白宫公告称,亚马逊、Anthropic、谷歌、Inflection、Meta、微软和OpenAI这七家AI巨头“自愿”就应对AI风险做出一系列承诺。
三是我国同时实施“软”引导与“硬”约束。在硬性约束方面,随着《电子商务法》《数据安全法》《个人信息保护法》《网络安全法》等相继发布实施,AI领域底层规则基石逐步规范。国家网信办等印发《关于加强互联网信息服务算法综合治理的指导意见》《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》,为规制生成式AI等应用场景制定了基本框架。2023年7月,国家网信办等七部门联合发布《生成式AI服务管理暂行办法》,成为全球率先针对生成式AI制定的强约束规则。在“软”引导方面,2019年我国发布《新一代人工智能治理原则——发展负责任的人工智能》,提出了人工智能治理的框架和行动指南。随后,围绕科技伦理、算法治理及行业应用安全等方面,《新一代AI伦理规范》《科技伦理审查办法(试行)》等文件围绕解决AI带来的社会规范失序、伦理道德等问题提供了重要指引。2023年3月,我国组建国家数据局,负责协调推进数据基础制度建设,统筹数据资源整合共享和开发利用,进一步夯实了AI监管组织架构层面的新基础。我国“软”“硬”相结合的治理方式已经走在全球前列,如果能实现动态优化迭代,该模式将成为国际AI治理的重要参考。
一方面,主要经济体AI监管方案差异较大,引发监管碎片化问题。2023年3月,加拿大国家治理创新中心发布报告指出,截至2022年8月,全球62个国家向经合组织AI政策观察站(OECD.AI)提交了800余份与AI相关的政策文件或倡议,旨在报告该国支持AI发展和治理的相关举措。其中,主要发达经济体提交的相关倡议居多。分析发现,各国监管举措划分类型不明确、各类政策文件内容交叉,同时缺乏对政策的有用性、可信性和独立性等多方面评估,特别是AI国际合作或援助的措施相对较少,突出反映了AI监管碎片化问题。另一方面,AI创新和应用主要集中于发达国家,监管不平衡问题加剧,发展中国家缺乏话语权。发达国家在数据资源、模型算力和人才能力等方面具有优势,因而更有能力推动AI研发和应用,也更易于从中受益。相比之下,发展中国家以劳动力参与国际分工的模式受到严重挑战,相应国家AI技术采用率较低,对数据泄露、隐私保护及算法偏差等潜在风险的应对能力不足,难以形成有效的监管措施,进而进一步拉大与发达国家之间的技术鸿沟,甚至会加剧国家权力分配的不均等。
2.2 监管方式存在分歧,互操作性不足
三是监管模式分歧。良好的监管方式应实现公共利益最大化,并将风险最小化。各国AI监管模式不同,监管效果也存在差异。欧盟力求通过使用一部单一法案,形成更全面的监管范围、更集中的协调方式以及更严格的监管要求,以此监管几乎所有AI应用。美国监管的核心是“避免妨碍AI创新和增长的不必要监管或非监管行动”,尚未形成全面的立法体系,更多是通过地方自治、行业规则和自愿倡导等方式,解决AI技术应用背后的安全问题。与美国类似,英国也专注于制定AI指导方针,赋予监管者权力,并只在必要时采取法定行动。上述两种监管模式带来不同的监管效果。由于AI技术不断涌现和迭代升级,政策制定者难以明确获知或预测未来衍生的风险和收益。因此,欧盟强监管模式虽然有利于风险防控,却不利于前沿科技发展;而美英近期虽呼吁加强监管,但立法进程仍处于初始阶段,其弱监管模式虽然有利于鼓励技术创新,却有可能激化技术异化背后潜在的风险危机。
2.3 国际协调缓慢,国际组织作用发挥受限
一是经合组织地位得到多国认可,但并无实质性约束力,难以推动形成全球性AI监管框架。虽然目前全球46个国家签署了经合组织《AI原则》,并得到二十国集团以及中国和俄罗斯等主要经济体的认可,但其影响范围仍主要集中在发达国家。由于缺乏可信赖AI实施情况的有效评估方法,各国在践行该原则方面具体效果欠佳。此外,由于经合组织没有立法权,难以制定规范AI开发和使用的具有约束力的国际条款,只能通过认知权威、制定规范和议程设置来协调全球AI治理,但在推动国际监管合作方面实际效力不足。
二是联合国作为AI治理的重要平台,面临着权威性标准缺乏等挑战,制约其国际协调作用的发挥。2023年3月底,联合国教科文组织发表声明,呼吁各国政府尽快实施该组织通过的首份AI伦理问题全球性协议《AI伦理问题建议书》,目前已有40多个国家与联合国教科文组织开展合作,并依据建议书在宏观层面制定AI规范措施;7月18日,联合国安理会举行主题为“人工智能给国际和平与安全带来的机遇与风险”高级别公开会,这是安理会首次就人工智能问题举行会议。需要注意的是,联合国在推动AI监管合作过程中,依旧面临着权威性标准尚缺、国际准则制定缓慢,以及协调机制有待加强等诸多挑战,制约了其在该领域推动国际监管合作的有效性。
当前,AI技术的快速发展推动全球AI监管进入新阶段,亟须在全球层面形成合力、共迎挑战,通过法律、规则和政策的创新,打破以碎片化、区域性为特征的全球监管不平衡格局对技术创新和应用的阻碍,最大化利用AI的潜在收益。作为世界上最大的发展中国家,我国应坚持“以人为本”的基本理念,充分利用多边机制,有组织地发挥企业等创新主体作用,通过提升国际话语权积极推动构建多元高效、公平正义的全球AI监管合作框架。
第一,构建“以人为本”的监管合作规则。坚持伦理先行,将“以人为本”“智能向善”作为基本准则,规范人工智能的发展方向。在此基础上,逐步建立并完善人工智能伦理规范、法律法规和政策体系。其中,重点是强化风险意识,建立有效的风险预警和应对机制,明确风险界定和风险等级分类,合理设置不同参与主体的权利义务,确保不发生超出人类掌控的风险。
第四,支持鼓励企业参与国际标准制定。在AI国际标准中,基础标准阐明了针对所有用例的一套通用语言和框架,有助于推进不同监管框架的互操作性。鼓励产业一线企业及相关机构更多参与国际标准化组织人工智能分委员会(ISO/IEC JTC1 SC42)等机构有关AI基础标准的研制工作。除了做好由中国牵头的数据质量过程框架等之外,还要积极参与其他工作组的相关工作,推动在数据质量与治理、可信与安全等方面加快制定包容性国际标准,并推动形成具有敏捷治理特征的监管策略,允许各国以基础标准为基线,完善自身监管制度。
免责声明:本文转自中国科学技术发展战略研究院,原作者杨洋,陈凤仙,王娜。文章内容系原作者个人观点,本公众号编译/转载仅为分享、传达不同观点,如有任何异议,欢迎联系我们!
推荐阅读
转自丨中国科学技术发展战略研究院
作者丨杨洋,陈凤仙,王娜
研究所简介
国际技术经济研究所(IITE)成立于1985年11月,是隶属于国务院发展研究中心的非营利性研究机构,主要职能是研究我国经济、科技社会发展中的重大政策性、战略性、前瞻性问题,跟踪和分析世界科技、经济发展态势,为中央和有关部委提供决策咨询服务。“全球技术地图”为国际技术经济研究所官方微信账号,致力于向公众传递前沿技术资讯和科技创新洞见。
地址:北京市海淀区小南庄20号楼A座
电话:010-82635522
微信:iite_er
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...