此篇文章发布距今已超过190天,您需要注意文章的内容或图片是否可用!
当地时间5月14日,中美人工智能政府间对话首次会议在瑞士日内瓦举行。会议由中国外交部北美大洋洲司司长杨涛和美国国务院关键和新兴技术代理特使森特、白宫国安会技术和国家安全高级主任查布拉共同主持,中方科技部、发改委、国家网信办、工信部、中央外办以及美方白宫国安会、国务院、商务部派人参加。
2023年9月5日,委员会指定Apple为其操作系统 iOS、浏览器 Safari 和 App Store的看门人。同一天,欧盟委员会启动了一项市场调查,以评估苹果的iPadOS尽管没有达到DMA中规定的数量门槛,但是否构成企业用户接触最终用户的重要门户,因此应被指定为看门人。中美双方围绕人工智能科技风险、全球治理和各自关切的其他问题深入、专业、建设性地交换了意见。双方介绍了各自对人工智能技术风险的看法和治理举措以及推动人工智能赋能经济社会发展采取的措施。中方强调人工智能技术是当前最受关注的新兴科技,中方始终坚持以人为本、智能向善理念,确保人工智能技术有益、安全、公平。中方支持加强人工智能全球治理,主张发挥联合国主渠道作用,愿同包括美方在内的国际社会加强沟通协调,形成具有广泛共识的全球人工智能治理框架和标准规范。中方就美方在人工智能领域对华限制打压表明严正立场。2023年11月15日,习主席在美国旧金山斐洛里庄园同美国总统拜登会晤,两国领导人达成建立中美人工智能政府间对话机制的共识。2024年1月27日王毅外长在曼谷同美国总统国家安全事务助理沙利文会晤,为落实两国元首旧金山会晤共识,双方同意在今年春天举行中美人工智能政府间对话机制首次会议。4月27日,王毅外长在北京与美国国务卿布林肯举行会谈,双方达成五点共识,包括举行中美人工智能政府间对话首次会议以及进一步推进人工智能领域合作。另据路透社近日报道,美国民众两党发起一份有关限制人工智能模型出口的法案,其中将特定国家直指中国、俄罗斯、朝鲜和伊朗,据悉,若该法案生效,将消除《国际紧急经济权力法》(International Emergency Economic Powers Act )中规定的开源人工智能出口监管障碍,并赋予美国商务部监管人工智能系统的明确权力。作为一个科技领域的新议题,中美在人工智能上的对话有经验可以遵循,也面临具有全新特点的挑战。两国需要在竞争与合作并存的复杂关系中找到均衡点,同时为全球人工智能治理明确方向。中美在人工智能上既存在理念上的共识,也存在现实上的分歧。一方面,中美两国在推进人工智能治理、管控该领域的战略风险上有共同意愿。2023年11月,包括中美等28国、欧盟签署《布莱切利宣言》(Bletchley Declaration),确定了人工智能对全人类构成共同挑战的基本认知,并将推进后续治理议程。另一方面,美国在人工智能领域对中国施加单方面制裁,阻止中国获取美国最先进技术和设备。这些打压措施势必会影响双方对话和合作的氛围,造成误解和误判。美国方面将这种复杂关系称为“既竞争又合作”,认为竞争因素不会影响合作关系,双方可以参考气候变化、网络安全等进行合作。但是,人工智能与上述领域有一些显著差异,两国难以简单复制过往的经验和路径。这主要体现在三个方面:从短期看,人工智能还处于发展早期,风险和收益难以准确评估。当前,新一轮人工智能浪潮仍在高速前进,将在更多领域得到应用,可能成为各国科技研发的加速器。各国无法无视该技术蕴含的巨大潜在收益,不会接受在该领域的国际竞争中落伍。在这一背景下,虽然人工智能存在一些风险和挑战,但与潜在收益相比处于次要地位。各国难以像对气候变化、网络犯罪一样接受有较强约束力的国际规则,这将让中美之间的合作缺乏来自第三方的压力。从中期看,人工智能的发展更加多元、分散,更容易扩散。相比其他前沿技术,人工智能主要依靠开源技术生态,很多技术进步源于各国科学家合作及相互碰撞的结果。未来,这种趋势不会发生根本性变化。这意味着相比国家和企业,由跨国技术精英组成群体将对该技术发展方向起关键性影响。这些非国家、非企业行为体的存在让治理变得更加复杂,对于风险的溯源将更加困难。仅依靠政府间合作及对企业端的治理不能确保该技术发展不会冲击公众利益。从长期看,人工智能的战略风险更大,更具突发性。2023年12月,联合国人工智能高级别咨询机构发布了临时报告,认为人工智能的风险难以穷尽,将给人类社会带来全方位调整。一些专家认为,人工智能的最大风险是其失控、扩散并破坏人类社会。在此情况下,多数国家的数字基础设施和数字信息生态都可能遭遇颠覆性破坏,所造成的损失无法评估。而且,人工智能的演化具有突发性,一些可能带来战略性风险的技术突破可能突如其来,超出各国监管机构的预料。此类战略性风险一旦发生,将让人工智能转变为人类社会的对立面,进而让人工智能带来的收益也瞬间归零。一是持续推进多边对话。在联合国框架下,中美应共同支持联合国人工智能高级别咨询机构的工作,并根据新形势补充修订联合国《特定常规武器公约》和联合国教科文组织《人工智能伦理问题建议书》等全球性协议,并在各区域性“人工智能安全峰会”等框架下促进国际治理机制建设。二是支持开展二轨对话。中美在促进政府间对话的同时,更需要延续和扩大两国科技界、学界、智库等二轨渠道对人工智能相关议题的讨论。两国需促进科学界的研发合作,推动人工智能服务于向善的领域,为政府间对话做出有益补充。同时,由于中美两国企业在人工智能技术领域中的重要角色,也应支持两国相关企业在技术研发、产业政策、行业标准、数据管理、社会责任等方面进行更多接触与互动,鼓励企业积极创新,在实践中发现问题和机遇,共同参与人工智能治理。三是加快建设对话机制。在对话启动阶段,中美可先从人工智能术语概念、政策主张、人才培养、全球治理等方面开展交流。首先,围绕人工智能发展的基本原则、伦理概念等相关术语和各自国内政策倡议展开交流,弥合认知差距。其次,加强人工智能相关专业人才的交流往来,鼓励学生、学者和专家互学互鉴,开展联合研究项目等。第三,着眼全球性风险和挑战,鼓励两国探索人工智能技术在气候治理、毒品管制、预防犯罪、打击恐怖主义等议题中的应用与合作,为全球治理做出更大贡献。我国高度重视AIGC的发展情况与管理能力建设。整体上采取一种审慎包容的态度,较为关注内容生态治理,倡导主流价值观。整体上管理对象主要是AIGC服务提供者、深度合成服务提供者和技术支持者,管理范围主要是面向境内公众提供的AIGC深度合成服务。当前阶段,依据2023年的《生成式人工智能服务管理暂行办法》,我国针对AIGC建立了一套较为严格的事前、事中、事后监管体系:事前,要求进行算法备案、大模型上线备案;事中,要求企业定期开展风险自评估;事后,强调事后溯源检测,通过强化标识义务等防范生成内容的滥用。目前,美国对AIGC领域的法律法规体系为分散监管模式,即除了总统拜登在23年10月发布的《安全、稳定、可信的人工智能》行政令(简称“AI行政令”)以外,暂无联邦层面的统一立法。联邦各机构与各州分散制定AI相关监管规则,形成自下而上的拼凑式监管模式。虽然拜登的AI行政令不是立法,但为后续美国的AI标准及全国范围内监管要求的制定提供了原则性指引。这项行政令要求双重用途基础模型开发者有义务分析安全测试结果,并积极引导头部科技企业自愿承诺参与共治。另外,美国根据AI行政令建立了建立美国国家人工智能咨询委员会,由来自学术界、产业界、非营利组织和民间的专家组成。主要职责是向美国政府提供与人工智能相关问题的意见建议,并支撑美国商务部与国际合作伙伴的工作,不具有执法权。 上海赛博网络安全产业创新研究院(简称赛博研究院),是上海市级民办非企业机构,成立至今,赛博研究院秉持战略、管理和技术的综合服务模式、致力于成为面向数字经济时代的战略科技智库、服务数据要素市场的专业咨询机构和汇聚数智安全技术的协同创新平台。赛博研究院立足上海服务全国,是包括上海市委网信办、上海市通管局、上海市经信委、上海市数据局等单位的专业支撑机构,同时承担上海人工智能产业安全专家委员会秘书长单位、上海“浦江护航”数据安全工作委员会秘书长单位、上海数据安全协同创新实验室发起单位等重要功能,并组织“浦江护航”数据安全上海论坛、世界人工智能大会安全高端对话等一系列重要专业会议。
欢迎联络咨询:邮件:[email protected];电话:021-61432693。
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
ZhouSa.com
还没有评论,来说两句吧...