在距离ChatGPT发布即将一周年之际,OpenAI在旧金山的首届开发者大会揭示了一个不容忽视的现实:AI正以前所未有的速度融入我们的日常生活。OpenAI CEO山姆·阿尔特曼宣布:OpenAI已经吸引了超过200万开发者,其中包括92%以上的财富500强企业,每周有一亿人使用ChatGPT。
这些数据的公布进一步证实了AI的迅猛发展和广泛应用,AI技术在为社会带来便利和效率的同时,也引发了关于隐私、安全、伦理和社会公正等一系列问题。这些挑战呼唤全球共识以及跨国界的规范与标准。
两大AI宣言:全球领导者的共同承诺
10月13日,世界数字技术院WDTA在DWC数字世界大会先导论坛上发布《全球人工智能治理宣言》,旨在呼吁建立人工智能全球治理框架,确保人工智能技术的安全、可信和负责任使用。
《全球人工智能治理宣言》由WDTA委托CSA大中华区专家起草,CSA大中华区多位专家参与了宣言的撰写、联署及发布仪式。该宣言已被联合国秘书长科技特使办公室采纳,并作为未来联合国人工智能高级别咨询机构讨论的基础材料。
11月1日,全球首届人工智能(AI)安全峰会在英国举行,包括中国、美国、英国在内的28个国家及欧盟共同签署了《布莱切利宣言》,承诺以安全、以人为本、值得信赖和负责任的方式设计、开发、部署和使用AI。
英国首相里希·苏纳克、美国副总统卡玛拉·哈里斯、欧盟委员会主席乌尔苏拉·冯德莱恩和联合国秘书长安东尼奥·古特雷斯参加会议
中国代表团此次应英国政府邀请与会。中方代表表示,AI治理攸关全人类命运,是世界各国面临的共同课题。
共同愿景下的AI治理
在AI融入日常生活的时代,《布莱切利宣言》和《全球人工智能治理宣言》作为引导性的标杆出现。两份宣言都展现了一个理想的AI未来蓝图:安全、包容、公正和以人为本。它们反映了联合国可持续发展目标的精神,不仅强调AI的经济潜力,也关注其对社会的广泛影响。
《布莱切利宣言》强调通过国际合作来监管人工智能风险,而《全球人工智能治理宣言》则更为具体地定义了负责任的AI发展原则和行动框架,同时呼吁成立全球监督机构。两份宣言都强调了AI技术的积极作用,并呼吁将其优势转化为人类的利益,但它们的侧重点有所不同。《全球人工智能治理宣言》着眼于建立一套结构化的治理体系,强调对AI政策和实践的定期审查,以确保长期的可持续性。相较之下,《布莱切利宣言》更专注于评估和缓解与尖端AI技术相关的即时和潜在风险。
《布莱切利宣言》与《全球人工智能治理宣言》对比
这两份宣言的发布,不仅为全球AI治理提供了指导原则和行动计划,也为所有国家和国际组织提供了合作和对话的平台,共同面对AI带来的挑战,共同享受AI带来的好处。随着国际社会对AI技术的监管和引导逐渐加强,我们可以期待一个更加安全、公正的数字未来。
CSA大中华区在全球AI治理中的行动
为更好推进人工智能的问题研究、技术创新与产业协同合作,CSA大中华区在“2023 inclusion·外滩大会”上发起并成立了“AI安全工作组”。工作组由中国电信和蚂蚁集团担任联席组长单位,电子科技大学、南京邮电大学、华为、百度安全、京东安全、火山引擎等企业、高校、研究机构将作为首批成员,共同推进研究人工智能内生安全、衍生安全、助力安全领域的白皮书、产业知识图谱、团体标准、系统框架、解决方案,为行业提供一个清晰、系统的AI安全研究框架。
CSA大中华区愿同各方一道就AI安全治理加强沟通交流,共同推动国际机制的形成和治理框架的共识,现已成立AI安全、AI技术与风险、AI治理与合规等工作组。工作组也欢迎更多的企业、机构加入,共同推进AI安全领域的研究,有意向参与单位可联系CSA大中华区秘书处。
csa大中华区秘书处办公室微信
以下为《全球人工智能治理宣言》(全文)
第一条 宗旨和原则
第一款 宗旨
本宣言的宗旨是建立一套促进全球负责任地开发和利用AI的指导原则和行动。我们希冀利用AI的潜能造福全人类,并确保AI与人权、伦理标准和可持续发展目标保持一致。
第二款 原则
信任和透明度:所有AI系统都应是可信、透明和可解释的,并有机制理解和挑战AI作出的决策。
责任和问责:AI生态系统中的开发人员、用户和各利益相关方应对其负责任的人工智能系统的各种后果承担责任,并应提供相应的补救机制。
安全和保障:应采取稳健的保障措施保护AI系统免遭恶意使用并确保抵御漏洞,确保AI系统的安全与保障。
开放与合作:应鼓励国际友好合作以应对全球AI的挑战,促进开源、信息共享,并建立共同标准和规范。
以人为本:开发、部署以及应用AI系统的目标应为增强人类能力、提高福祉和尊重人权,包括隐私、尊严和免受歧视的自由等。
公平性:AI系统在设计和使用过程中,应在考虑历史和社会背景的前提下,促进公平并预防歧视、偏见和不公正待遇。
包容性:应努力确保,无论其地理位置、社会经济地位或能力如何,所有人都能通过AI获益。
第二条 实施
第一款 国家框架
国家AI政策:鼓励各成员国依据本宣言所述原则制定和实施国家AI政策。
监管:政府应建立监管框架以促进对AI的负责任使用,并解决信任、安全、伦理和数据隐私等问题。
能力建设:国家应加大对AI专业领域的投入,包括教育、培训和研究;并确保AI技术被负责任地开发和部署。
第二款 国际合作
联合国监督:联合国应与各成员国以及各利益相关方合作,为AI治理建立全球监督机构。联合国科学技术发展委员会(CSTD)是承担这一任务的理想机构。
信息共享:应创建一个全球平台,用于共享AI治理领域的最佳实践和经验教训。
共同标准:应广泛征求各利益相关方的建议和意见,制定AI开发和部署的国际标准和规范。
冲突解决:应建立与AI使用相关的争端和冲突的解决机制,确保国家间的和平合作。
第三条 监督和审查
年度报告:各成员国应向联合国监督机构提交其AI政策和举措的年度报告。
审查过程:应定期审查人工智能治理政策和原则,确保其相关性和有效性。
第四条 最后条款
生效:本宣言经联合国大会批准后生效。
修正:对本宣言的修正可由联合国大会提出并经三分之二多数会员国同意后通过。
加入:联合国任何会员国均可随时加入本宣言。
世界数字技术院(WDTA)的成员,特此向联合国提交这份《全球人工智能治理宣言》,希望该宣言能指导负责任地开发和使用人工智能技术,造福今世后代。
以下为《布莱切利宣言》(全文)
人工智能(AI)呈现出巨大的全球机遇:它有可能转型并增强人类的福祉、和平与繁荣。为了实现这一点,我们确认,为了所有人的利益,AI应该以安全的方式设计、开发、部署和使用,以人为中心,可信赖和负责任。我们欢迎国际社会到目前为止在AI上合作以促进包容性经济增长、可持续发展和创新,保护人权和基本自由,并促进公众对AI系统的信任和信心,以充分实现其潜力。
AI系统已经在包括住房、就业、交通、教育、健康、可访问性和正义在内的许多日常生活领域部署,而且它们的使用可能会增加。我们认识到这是一个采取行动的独特时刻,并确认需要安全开发AI,并以包容的方式在我们的国家和全球范围内将AI的变革性机遇用于好和为所有人服务。这包括用于公共服务,如健康和教育、粮食安全、科学、清洁能源、生物多样性和气候,以实现人权的享有,并加强努力以实现联合国可持续发展目标。
与这些机会并存的是,AI也带来了重大风险,包括在日常生活的这些领域中。为此,我们欢迎相关国际努力检查并解决现有论坛和其他相关倡议中AI系统潜在影响的可能性,以及认识到需要解决人权保护、透明度和可解释性、公平、问责、监管、安全、适当的人类监督、道德、偏见缓解、隐私和数据保护。我们还注意到由于操纵内容或生成欺骗性内容的能力而产生的潜在未知风险。所有这些问题都至关重要,我们确认解决它们的必要性和紧迫性。
特别是在AI的“前沿”,即那些高度能力的通用AI模型(包括基础模型),能够执行多种任务——以及相关的特定狭窄AI,可能展示出导致伤害的能力——与今天最先进的模型的能力相匹配或超过,存在特定的安全风险。潜在的故意滥用或与人类意图对齐的控制问题可能产生实质性风险。部分原因是因为这些能力并不完全被理解,因此难以预测。我们特别关注网络安全和生物技术等领域的此类风险,以及前沿AI系统可能放大的风险,如虚假信息。这些AI模型最重要的能力可能造成严重甚至灾难性的伤害,无论是故意的还是无意的。鉴于AI变化的速度快且不确定,以及技术投资加速的背景,我们确认深入理解这些潜在风险及解决它们的行动尤为紧迫。
AI带来的许多风险本质上是国际性的,因此最好通过国际合作来解决。我们决心以包容的方式共同努力,确保以人为中心、可信赖和负责任的AI安全,支持所有人的利益,并通过现有的国际论坛和其他相关倡议,促进合作以应对AI带来的广泛风险。在此过程中,我们认识到各国应考虑采取一种促进创新和适当的治理和监管方法,该方法能够最大化AI的好处并考虑与AI相关的风险。这可能包括在适当的情况下,基于国家情况和适用的法律框架对风险进行分类和分级。我们还注意到,在适当的情况下,合作的相关性,例如共同的原则和行为准则。关于与前沿AI相关的特定风险,我们决定加强并持续我们的合作,并与其他国家扩大合作,通过现有的国际论坛和其他相关倡议,包括未来的国际AI安全峰会,识别、理解并适当采取行动。
所有行为体在确保AI安全方面都有作用:国家、国际论坛和其他倡议、公司、民间社会和学术界将需要共同努力。注意到包容性AI和弥合数字鸿沟的重要性,我们重申国际合作应努力吸引和涉及适当的广泛伙伴,并欢迎以发展为导向的方法和政策,这些方法和政策可以帮助发展中国家加强AI能力建设,利用AI的使能作用支持可持续增长并解决发展差距。
我们确认,虽然必须在AI生命周期的各个阶段考虑安全性,但特别是那些异常强大且可能有害的AI系统的开发者,对确保这些AI系统的安全负有特别强烈的责任,包括通过安全测试系统、评估以及其他适当措施。我们鼓励所有相关行为体提供适合其环境的透明度和问责制,就其衡量、监测和缓解可能有害的能力及可能出现的相关效应的计划,特别是为了预防滥用和控制问题,以及放大其他风险。
在我们合作的背景下,为了在国家和国际层面指导行动,我们应对前沿AI风险的议程将重点放在:
识别共同关心的AI安全风险,建立对这些风险的共享科学和基于证据的理解,并随着能力的不断提升在全球范围内理解AI对我们社会影响的更广泛方法中保持这种理解。
在我们各自的国家建立相应的基于风险的政策,以确保考虑到这些风险的安全性,适当时进行合作,同时认识到我们的方法可能基于国家情况和适用的法律框架而有所不同。这包括私营部门开发前沿AI能力的透明度增加,以及适当的评估指标、安全测试工具和发展相关的公共部门能力和科学研究。
为了推进这一议程,我们决心支持一个包含并补充现有和新的多边、多边和双边合作的前沿AI安全的国际包容性科学研究网络,包括通过现有的国际论坛和其他相关倡议,以促进为政策制定和公共利好提供最佳科学。
鉴于AI的转型性积极潜力,作为确保更广泛国际合作的一部分,我们决定维持一种包容性的全球对话,该对话吸引现有的国际论坛和其他相关倡议,并以开放的方式为更广泛的国际讨论做出贡献,并继续研究前沿AI安全,以确保能够负责任地利用技术的好处,造福所有人。我们期待在2024年再次会面。
代表的国家有:
澳大利亚、巴西、加拿大、智利、中国、欧洲联盟、法国、德国、印度、印度尼西亚、爱尔兰、以色列、意大利、日本、肯尼亚、沙特阿拉伯王国、荷兰、尼日利亚、菲律宾、韩国共和国、卢旺达、新加坡、西班牙、瑞士、土耳其、乌克兰、阿拉伯联合酋长国、大不列颠及北爱尔兰联合王国、美利坚合众国。
“政府”和“国家”的提法包括根据其立法或行政职权行事的国际组织。
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...