2023年4月26日,美国战略与国际问题研究中心(CSIS)发布《以G7峰会为契机 促进AI治理合作》。报告指出,人工智能创造了广泛的经济和社会红利,但也蕴含着深刻的安全风险,需要通过合作推动技术创新、产品开发和风险治理。特别是需要建立基于风险、特定上下文、敏捷、协作、谨慎和可互操作的监管框架以推动人工智能的向善发展。报告进一步提出,七国集团(G7)可以建立统一的原则和标准,在以下三个方面推进人工智能的治理进程:(1)统一定义和解释人工智能的重要规范和概念,其中包括负责任地使用人工智能;(2)加强人工智能技术标准制定的协调;(3)促进相互承认、一致、良好的人工智能治理原则,以及可互操作的国家人工智能监管方法。
人工智能给劳动力带来的挑战及其潜能
人工智能通过提高劳动力生产力可以为未来经济增长做出贡献。
人工智能是一种跨领域的通用技术,将在未来几十年内影响几乎所有行业的增长、创新和生产力发展。世界经济论坛发布的一份报告预测,到2035年,在人工智能的帮助下,发达国家劳动生产率可能增加高达40%。一项对法国公司的研究发现,自动化采用与产出增加、生产力扩大以及快速增长相关联。卡内基梅隆大学的经济学家进行的一项研究发现,申请人工智能专利与就业和收入增长速度提高、以及工人的产出增加相关。人工智能机遇成为填补老龄化工业劳动力缺口、提高生产力和降低通货膨胀的转折点。
最近出现的能够生成新颖文本、图像、视频和声音的生成式人工智能模型在开辟增长新途径方面具有特别重要的意义。
这些模型的爆发发生在不到一年的时间内,展示了技术创新的快速步伐。2022年4月,总部位于旧金山的OpenAI发布了其文本生成图像模型DALL-E2,之后伦敦Stability AI公司在夏季发布了Stable Diffusion图像生成器。这些模型首次引起人们对于生成式人工智能技术的广泛关注,在发布几个月内就吸引了数百万用户注册使用。2022年11月,OpenAI推出了基于GPT-4模型的文本生成系统ChatGPT。ChatGPT不仅成为最知名的生成式人工智能技术,还成为历史上增长最快的消费者应用程序,仅在发布两个月后就拥有1亿月活跃用户。
生成式人工智能模型已经开始展示其提高各个行业生产力的能力。这对于人工智能与人类合作伙伴关系尤为明显,在减轻单一的或数据密集型工作方面,新技术被用于补充现有的人力及传统软件的能力。基于GPT-4模型的最新版本的ChatGPT系统有能力通过各种专业和学术考试,包括美国统一律师考试Uniform Bar Exam。
总体而言,研究表明,到2025年生成式人工智能可能会在更广泛的工作领域发挥作用,有望近30%的新药物和材料是通过生成式人工智能技术发现和合成的。最大化利用人工智能还需要仔细考虑涉及的风险并进行权衡。人工智能可以通过提高人类生产力和创造力来促进全球发展。然而,如果管理不善,向人工智能未来过渡也可能导致整个行业的失业,并加大社会经济差距。如果要让人工智能有效地解决劳动力问题,就必须遵循“以人为中心”的方式,通过给人们提供更多工具来提高生产力。人工智能和自动化正在改变工作的性质,对技术导向和情感导向技能的需求预计将继续增长。
人工智能监管的意义
精心设计的人工智能监管既能加速人工智能应用,又能降低人工智能风险。
公共和私营组织越来越多地将人工智能嵌入到其流程和产品中,但对于人工智能的道德、安全和责任风险的合理担忧限制了其采用。在布鲁金斯学会进行的行业调查中,研究者表示,他们采用人工智能系统的意愿在一定程度上受到这种担忧的影响。麦肯锡2021年的人工智能状况报告发现,组织将可解释性、隐私以及公平和平等性列为人工智能管理的前五大风险之一。
世界各地的决策者正在努力制定必要且必需的人工智能监管和指导,通过治理措施和安全保障支持负责任的创新,同时将人工智能系统的潜在危害降至最低。例如,欧盟正在起草其人工智能法案;美国国家标准与技术研究所(NIST)于2023年发布了备受期待的人工智能风险管理框架;英国最近发布了其人工智能监管方法的初稿;日本通过其“社会5.0”愿景来治理人工智能。
良好的监管框架应该着重于人工智能系统的风险治理,推进良好治理,倡导统一标准。这些标准应该概述特定背景下的最佳实践,明确要求和责任,并减少企业在负责任地使用人工智能时的不确定性。因此,要推动人工智能作为提高劳动力生产力和促进经济增长的关键方法,就需要设计监管措施来减轻其风险并促进研究、开发和采用。
政府与工业界和社会合作制定的标准和法规,将有助于应用人工智能的机构制定明确的要求来负责任地使用人工智能。在采用人工智能的企业中,有84%认为负责任的人工智能(以下简称“RAI”)是高层管理的首要任务,但只有24%报告称他们的组织已经制定了成熟的RAI计划。制定RAI计划可以帮助企业识别人工智能治理的差距,并在扩大规模之前解决人工智能系统的故障。我们需要总结现有的人工智能治理最佳实践,为成熟且广泛采用的标准提供参考。这可以帮助降低人工智能治理的成本和复杂性。
避免人工智能治理的不一致性
政府对人工智能的监管机构应采取适当措施,以避免不同国家在规则、术语和要求上对人工智能监管的显著差异,从而确保全球监管的一致性。
许多国家都在共同的目标上达成了一致,这些目标在G7、G20和经合组织等多边承诺中有所体现。然而,政府在实施这些共同原则时需要重新聚焦,确保监管框架的一致性和互操作性。欧盟、美国、英国、日本等国家发布的国家战略和政策草案反映了它们在人工智能治理方面的基本差异。在基本概念上的分歧,例如对人工智能的定义、如何分类人工智能风险以及构成“可信赖性”的基本因素,可能会对人工智能监管的范围和影响产生重大影响。
虽然不同国家在某些领域的原则上可以保持一致,但对相同术语的不同定义可能会引发进一步冲突。例如,美国的《人工智能权利法案》中采用了广泛的人工智能定义,而英国则将其人工智能指南的范围更为狭窄地限定为“机器学习的讨论”。同一项技术在一个国家可能被视为人工智能,而在另一个国家可能被视为传统软件,这会导致开发者面临不同的合规要求。
为了促成进一步合作,需要在共享政策目标的基础因素上达成一致,例如可解释的人工智能以及对人工智能的定义。全球标准制定组织可以帮助制定一个共同的“尺度”,作为监管机构评估人工智能风险的衡量标准。根据不同的风险容忍水平,各国政府可以在这个尺度上制定不同的阈值,以确保人工智能的负责任使用。一旦就支持人工智能透明度的因素达成一致,各国政府可以要求在相同的基本尺度上提供不同层次的透明度要求。
免责声明:本文转自元战略,原作者Mark。文章内容系原作者个人观点,本公众号编译/转载仅为分享、传达不同观点,如有任何异议,欢迎联系我们!
推荐阅读
转自丨元战略
作者丨Mark
研究所简介
国际技术经济研究所(IITE)成立于1985年11月,是隶属于国务院发展研究中心的非营利性研究机构,主要职能是研究我国经济、科技社会发展中的重大政策性、战略性、前瞻性问题,跟踪和分析世界科技、经济发展态势,为中央和有关部委提供决策咨询服务。“全球技术地图”为国际技术经济研究所官方微信账号,致力于向公众传递前沿技术资讯和科技创新洞见。
地址:北京市海淀区小南庄20号楼A座
电话:010-82635522
微信:iite_er
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...