英国政府资助的倡议——英国前沿人工智能工作组,在2023年4月作为基础模型工作组启动,现在发展成为英国人工智能安全研究院。
英国首相里希·苏纳克(Rishi Sunak)在2023年11月2日于英格兰布莱切利公园举行的人工智能安全峰会闭幕式上宣布了这一研究院的成立。
他说,英国政府对这个新实体的抱负是将其打造成一个全球中心,负责测试新兴类型人工智能的安全性。
“研究院将在AI发布前后仔细测试新型前沿人工智能,以解决人工智能模型可能具有的有害能力,包括探索所有风险,从社会危害如偏见和错误信息,到最不可能但极端的风险,例如人类完全失去对人工智能的控制,”英国政府在一份公开声明中表示。
为了追求这一使命,英国人工智能安全研究院将与本国组织合作,如艾伦·图灵研究院、伦敦帝国学院、TechUK 和创业联盟。所有这些机构都欢迎这一研究院的成立。
它还将与英国国内外的私营人工智能公司合作。其中一些公司,如谷歌DeepMind和OpenAI,已经公开支持这一倡议。
与美国和新加坡确认的合作伙伴关系
苏纳克补充说,研究院将处于英国政府人工智能战略的前沿,并将承担巩固该国作为人工智能安全世界领导者地位的使命。
在承担这一角色时,英国人工智能安全研究院将与其他国家的类似机构合作。
首相已经宣布了两个确认的合作伙伴关系,以与最近宣布成立的美国人工智能安全研究院以及新加坡政府合作进行人工智能安全测试。
前沿人工智能工作组的主席伊恩·霍加思将继续担任研究院主席。工作组的外部咨询委员会由来自国家安全到计算机科学的行业重量级人物组成,现在将为这一新的全球中心提供建议。
八家人工智能公司同意对其模型进行部署前测试
此外,苏纳克宣布,包括澳大利亚、加拿大、法国、德国、意大利、日本、韩国、新加坡、美国、英国和欧盟代表团在内的几个国家签署了一项协议,测试领先公司的人工智能模型。
为了帮助完成这一使命,八家参与人工智能开发的公司——亚马逊网络服务(AWS)、Anthropic、谷歌、谷歌DeepMind、Inflection AI、Meta、微软、Mistral AI 和 OpenAI——已同意在其未来人工智能模型公开前“加深”对其的访问。
首相通过宣布与八家主要人工智能公司和志同道合的国家就下一代模型的部署前测试及国家安全和其他重大风险的政府角色达成的里程碑协议,结束了人工智能安全峰会 pic.twitter.com/lLmRZiX7Ip
— Matt Clifford (@matthewclifford) 2023年11月2日
X日,积极呼吁禁止所有没有适当立法保护的人工智能模型的非营利组织PauseAI,称这项协议是“朝正确方向迈出的一步”。
然而,它补充说,仅依靠部署前测试是危险的。
概述的理由包括:
模型可能被泄露(例如 Meta 的 LLaMA 模型)。
测试危险能力是困难的。“例如,我们不知道我们如何(安全地)测试一个人工智能是否能自我复制,或者如何测试它是否会欺骗人类,”Pause AI 说。
即使是在人工智能实验室内,一些能力也是危险的。“例如,一个自我复制的人工智能可能在部署前从实验室逃脱,”Pause AI 写道。
能力可以在训练后添加或发现,包括微调、越狱和运行时改进。
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...