加州正在推动立法,强制建造大型人工智能模型的公司进行安全测试。
业界很恐慌,而且经常谈论创新遭受的沉重打击。谁对谁错?
想象一下,你是一家制造客机的公司。你没有做足够的安全测试,但仍然发布了新飞机,当几架飞机坠毁,造成数百人死亡时,你却表现得很震惊。
当然,你会被追究责任,并承受应有的后果。
现在,假设你是一家开发搜索引擎的科技公司。
如果有人决定寻求有关如何毒害他人的建议,并真的在你的产品上找到了如何毒害他人的详细说明,你可能不会承担责任,这要归功于臭名昭著的第 230 条。
到目前为止一切顺利。
但如果你开发的人工智能助手突然开始造成大规模伤亡事件怎么办?
它会更像一架有故障的飞机还是一个狡猾的搜索引擎?
奋起直追
当然,整个硅谷现在都在思考这个问题。
这是因为加州希望通过一项名为参议院 1047 号法案的新 AI 安全法案,该法案将强制要求花费超过 1 亿美元训练大型 AI 模型的公司进行彻底的安全测试。
如果这些公司不这样做,如果他们的系统导致“大规模人员伤亡事件”或单起事故造成超过 5 亿美元的损失,他们就要承担责任。
美国各地的政客,特别是左翼政客,最近因对社交媒体公司打击力度不够而受到批评,现在他们正试图更积极地打击大型科技公司。
撰写 SB 1047 的加州参议员斯科特·维纳 (Scott Wiener) 表示:我们看到,在其他技术中,我们直到出现大问题之后才会采取任何行动。
社交媒体为社会做出了许多贡献,但我们知道社交媒体也存在重大弊端,而我们并没有采取任何措施来减少或减轻这些危害。现在我们正在努力追赶。我宁愿不去追赶。
该法案对加州和美国的创新都是“巨大的打击”,行动过快可能会扼杀创新。
加州显然是一个重要的战场,因为该州的立法者倾向于进步,并相信积极的消费者生产。然而,该州也是最大的科技和人工智能公司的所在地。
我们不应该对主要位于加州的行业进行过度监管,但没有必要这样做,尤其是当我们谈论这里的预算赤字时。
监管合规确实会耗费过多的公司资源,并阻止他们做任何复杂或比平时更大胆的事情。
我们不应该损害我们技术行业的创新努力。首先,因为我们作为一个社会需要创新;其次,因为我们也知道我们的全球对手不会设置类似的繁文缛节。
我们必须避免在这个蓬勃发展的行业中对美国参与者造成不利影响。
将 GPT-5 的潜在危害视为生成文本的大型语言模型与完全自动驾驶汽车的 AI 模型(或者在极端情况下,用于运行核电站的基于 AI 的系统)似乎是不合逻辑的。
加州供应链人工智能公司 Oii.ai 的首席执行官也认为州立法者需要谨慎:加州需要仔细考虑如何措辞立法,以便开发商不会不断地想如果我建造这个,我会被起诉吗?
富有的巨头有能力承担监管
然而,SB 1047 的支持者感到困惑,其中一些人怀疑批评者是否真的读过同一份法案。
首先,加州针对大型模型提出的标准和安全要求与欧盟最近通过的《人工智能法案》中已经包含的标准类似。
此外,监管负担只会落在进行 1 亿美元训练并构建广泛“覆盖模型”的公司身上;当然,这只有谷歌或 Meta 等最大的科技公司才有可能。
加州显然是一个重要的战场,因为该州的立法者倾向于进步,并相信积极的消费者生产。
该州也是最大的科技和人工智能公司的所在地。
该门槛排除了迄今为止发布的所有人工智能模型,包括 GPT-4、Claude Opus 和 Google Gemini 的当前版本。
但即使未来的任何模式符合要求,它也肯定会由一家庞大而富有的科技巨头来打造;换句话说,这家公司肯定有足够的财力以适当的方式应对任何监管。
ChatGPT 机器人背后的初创公司 OpenAI 的首席执行官本人在国会作证时也承认:“如果这项技术出错,后果可能会很严重。”
其他研究人员表示,没什么可担心的,肯定不必担心大规模伤亡。
如果所有的担心都是无稽之谈,那为什么要抗议潜在的责任呢?
如果你确信一切都是合法的,那么即使是最严格的法案也不应该成为问题,对吧?
忧心忡忡地展望未来
一般来说,如果它们生成的内容经过人类的审查和测试,那么目前的大型语言模型是相当安全的。
别忘了,技术本身并不坏,人类利用技术的行为才有可能造成危害。
坏人总会找到滥用技术的方法。
当前人工智能模型的大多数用户都在试图扩大业务规模、提高生产力、生成营销材料或增加技术堆栈,他们并不是要消灭人类。
从存在的角度来看,当前一代模型没有表现出任何危险的迹象,而且尚不清楚仅使用文本、图像和音频数据是否足以产生会产生这些风险的抽象推理能力。
我们更应该担心的是未来。例如,智能无人机(杀手机器人)等自主武器系统在不久的将来完全有可能起飞。
有人还可能开发出一种人工智能系统,该系统有可能影响其自身资源(如硬件和能源)的分配。
如果发生这种情况,那么制定监管壁垒将非常重要。
加州的人工智能公司正在向人工智能领域投资数十亿美元,并计划赚到数万亿美元。
他们开发的模型的能力一再让政策制定者措手不及。
SB 1047 是一项令人钦佩的努力,它确保那些花费数千万甚至数亿美元研发新车型的公司能够检查他们的车型是否能够犯下灾难性的大规模罪行。
最后,在任何或多或少健康的民主国家,任何立法者检查并回应公众情绪总是一个好主意,在这种情况下,加州人似乎非常关心人工智能的安全。
在人工智能安全行动基金中心最近委托进行的一项民意调查中,86%的参与者表示制定人工智能安全法规是加州的重要优先事项,77%的人支持对人工智能系统进行安全测试的提议。
事情的简单事实是,组织必须对其技术造成的后果负责。
SB 1047 的核心强调了对技术造成的危害的责任,这与电力公司因电线故障引发野火时所面临的责任没有什么不同。
机器学习研究人员群体确实存在分歧,其中大约有一半人确实认为强大的人工智能系统可能会带来灾难性的危险。
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...