《推进安全、创新和包容的人工智能部长级声明》
2024年人工智能首尔峰会
董齐岩
北京师范大学研究助理
背景介绍
前言
根据2024年5月22日在首尔召开的人工智能首尔峰会部长会议上的讨论,我们(澳大利亚、加拿大、智利、法国、德国、印度、印度尼西亚、以色列、意大利、日本、肯尼亚、墨西哥、荷兰、尼日利亚、新西兰、菲律宾、大韩民国、卢旺达、沙特阿拉伯王国、新加坡共和国、西班牙、瑞士、土耳其、乌克兰、阿拉伯联合酋长国、英国和美国的部长以及欧盟代表)确认,有必要采取协作的国际方法来应对人工智能技术的快速进步及其对我们社会和经济的影响。我们致力于促进安全、可靠和值得信赖的人工智能发展,并确保这种发展是可持续的。
我们充分了解在布莱切利公园首届人工智能安全峰会上达成的成就。基于在首尔人工智能峰会第一天讨论的安全、创新和包容性这三个相互关联的优先事项,我们如今致力于实施具体可行的项目。鉴于我们不同的国情,我们承诺一同实施有意义的措施,以解锁人工智能的益处,同时应对其风险。
安全
1.1 务必防范人工智能在各个方面的风险,包括当前和前沿人工智能模的部署和使用所带来的风险,以及未来在设计、开发、部署和使用中的可能风险。人工智能的安全保障原则包括透明性、可阐述性和可解释性;隐私和问责制;有意义的人类监督和有效的数据管理与保护。我们鼓励所有相关行为者(包括开发和部署当前和前沿人工智能的组织)通过评估、预防、减轻和补救可能出现的不利影响,去促进整个人工智能生命周期中的问责和透明度。我们进一步鼓励所有相关行为者营造一个使人工智能设计、开发、部署和使用安全、可靠和值得信赖的环境,以造福所有人,并符合现行的国内外法律框架。
1.2 我们认识到,我们有责任在各自的司法管辖区内建立管理商业或公开可用的前沿人工智能模型或系统风险框架。我们还认识到,我们有责任推动对在我们管辖区内开发的前沿人工智能模型或系统进行可信的外部评估,特别是当这些模型或系统可能带来严重风险时。我们进一步承认,我们在与私营部门、民间社会、学术界和国际社会合作确定重大风险阈值方面扮演重要角色。
评估前沿人工智能模型或系统风险的标准可能包括考虑其能力、局限性和倾向性、实施的安全措施(包括对恶意对抗攻击和操纵的稳健性)、可预见的使用和误用、部署环境(包括人工智能模型可能整合的更广泛系统)、覆盖范围以及其他相关风险因素。
1.3 在评估前沿人工智能模型或系统的设计、开发、部署和使用所带来的风险时,我们可能需要定义和衡量可能在无适当缓解措施下带来严重风险的模型或系统能力。我们认识到,这些严重风险可能源于这些模型或系统具有明显有助于非国家行为者推进化学或生物武器及其运载工具的开发、生产、获取或使用的潜力。
我们重申遵守相关国际法(如《化学武器公约》和《生物武器公约》、联合国安理会第1540号决议以及国际人权法)的持续重要性,并根据各国的义务行事。我们强调进行多边讨论以促进人工智能安全和保障的重要性。
1.4 我们进一步认识到,这些严重风险可能源于模型或系统具有逃避人类监督的能力或倾向,包括通过规避安全措施、操纵和欺骗,或在未经明确人类批准或许可的情况下进行自主复制和适应。我们注意到,收集更多关于具有高度先进代理能力的前沿人工智能模型或系统风险的实证数据非常重要。与此同时,我们也认识到,有必要防止这些模型或系统被误用或失调,包括与开发和部署前沿人工智能的组织合作实施适当的安全措施,如有意义的人类监督能力。
1.5 我们认识到,与开发者进行建设性对话以解决前沿人工智能模型或系统风险非常重要。我们重申,开发者对这些系统的安全性负有特别责任。我们进一步认识到,在人工智能整个生命周期中始终考虑安全性和保障性的需求非常紧迫。
1.6 我们肯定人工智能安全研究所和其他相关机构在增强人工智能风险管理的国际合作以及提高全球对人工智能安全与保障领域的理解方面的独特作用。通过我们的人工智能安全研究所或其他相关机构,我们计划在适当的情况下分享最佳实践和评估数据集,并协作制定安全测试指南。我们旨在实现人工智能安全活动的互操作性,包括建立人工智能安全研究所与其他相关机构之间的伙伴关系,同时认识到需要考虑全球文化和语言多样性的测试方法。
创新
2.1 我们认识到,促进创新和发展人工智能产业生态系统的治理方法的重要性,目标是最大化人工智能为我们的经济和社会带来的潜在利益。我们进一步认识到,政府的作用不仅是优先考虑人工智能创新的财政投资、研发和人才培养,还要考虑包括个人数据、版权和其他知识产权保护在内的治理框架,确保人工智能的安全、可靠和值得信赖的发展和部署。
2.2 我们认识到人工智能为公共部门带来的变革性利益,包括行政、福利、教育和医疗保健等领域。这些利益包括通过易获取的数字化服务和自动化流程有效高效地使用人工智能,从而增强公众获取公共服务的体验。此外,我们打算支持人工智能在制造业、物流和金融等关键行业的应用,以革新生产力、减轻员工负担同时保护权利和安全,并开辟新的价值创造途径。
2.3 我们特别承诺支持有利于人工智能驱动型创新的环境,通过为中小企业、初创企业、学术界、大学乃至个人提供人工智能相关资源的便利准入,同时尊重和保护知识产权。同时,我们致力于提高人工智能相关资源的可及性,使研究人员能够在各自的研究领域中充分利用人工智能,并促进人工智能作为个人创造性事业丰富工具的负责任利用。
2.4 我们认识到人工智能创新生态系统的可持续性和韧性的重要性。在这方面,我们鼓励人工智能开发者和部署方考虑其潜在的环足迹,如能源和资源消耗。我们欢迎通过协作努力探索如何提升我们的劳动力技能,使之成为充满信心的人工智能使用者和开发者,从而增强创新和生产力。此外,我们鼓励企业致力于研发和使用资源高效的人工智能模型或系统,如应用低功耗人工智能芯片和运营环境友好的数据中心等。
包容性
3.1 在我们努力推动包容性数字转型的过程中,我们认识到人工智能的利益应该得到公平分享。我们力求推广利用人工智能造福全体人民,包括弱势群体,这一共同愿景。我们打算共同努力,促进人工智能系统的包容性发展,以及安全、可靠和值得信赖的人工智能技术的利用,以培养我们的共同价值观和互信。我们认识到人工智能在保护人权和基本自由、加强社会安全网,以及确保免受包括灾难和事故在内的各种风险等方面的潜力,这将造福于所有人。
3.2 为了实现我们的共同包容性目标,我们致力于促进人工智能教育,包括通过与人工智能系统相关的能力建设,以及提高数字素养,从而帮助弥合国家之间以及国内的人工智能和数字鸿沟。我们认识到需要加强国际合作,开展联合研究和人才培养,包括与发展中国家合作,以增强他们在人工智能设计、开发和利用方面的能力。我们努力确保在人工智能的设计、开发、部署和使用全生命周期中反映和促进社会文化和语言的多样性。
3.3 我们承诺支持和促进人工智能技术的发展,认识到它在解决气候变化、全球卫生、粮食和能源安全以及教育等世界最紧迫挑战方面的巨大潜力。我们进一步希望通过鼓励发展中国家参与旨在加快实现可持续发展目标以及促进全球共同利益和发展的联合努力和讨论,来培养包容性的治理方法。
未来的方向
W1. 我们赞扬韩国共和国和英国作为首尔人工智能峰会的两位联合主席,在安全性、可持续性和韧性议程上所做的努力。
W2. 我们注意到独立的国际科学报告关于先进人工智能安全性的临时出版物,其工促进了对与前沿人工智能相关风险的共享基于证据的理解。我们决心共同努力推进未来基于证据的人工智能风险报告,并期待在法国人工智能行动峰会之前出版关于先进人工智能安全性的最终国际科学报告。
W3. 我们承认需要推进人工智能安全科学并收集更多关于某些风险的实证数据,同时我们认识到需要将我们的集体理解转化为基于实证的、积极的措施,以应对可能导致严重风险的能力。我们计划与私营部门、民间社会和学术界合作,确定在没有适当缓解措施的情况下,由于设计、开发、部署和使用前沿人工智能模型或系统而造成的风险水平将是严重的,并定义可能构成严重风险的前沿人工智能模型或系统能力,我们的雄心是在法国人工智能行动峰会之前提出建议。
W4. 我们重申我们共同的意图,以指导人工智能的设计、开发、部署和使用,以便利用其对善的好处。我们认识到安全、创新和包容性是相互关联的目标,我们期待继续我们的合作,推进人工智能治理的讨论,并促进安全、可靠和值得信赖的人工智能,以造福所有人。
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...