点评:美国拒签的主要动机,是阻止中国借国际框架扩大话语权,尤其是在DeepSeek颠覆美国AI霸权的当下。欧洲试图用“可持续AI”的伦理围栏约束技术狂飙,美国却选择一脚油门踩到底。为了宣示自己的AI霸权,美国甚至不惜与欧盟“撕破脸”。
2月11日,法国巴黎人工智能行动峰会落下帷幕,61国签署的《关于发展包容、可持续的人工智能造福人类与地球的声明》(下称《巴黎声明》),美英两国却选择了拒签和“退群”。这场看似寻常的国际峰会,撕开了全球AI竞赛的三重裂痕:技术路线之争、治理权博弈与安全观对撞。
一、美式AI霸权:为何拒绝“可持续”紧箍咒?
在巴黎,包括中国、印度、德国等60多个国家签署的联合声明中提出的优先事项之一是“加强国际合作,促进国际治理协调”。签署该文件的某国家员表示,这种措辞让美国感到不满,因为美国根本不接受AI治理的多边主义和国际合作。该官员表示,美国还担心法国在峰会期间启动的基金会“Current AI”会被用来向法语国家输送资金。
美国副总统万斯(JD Vance)在峰会上向世界各国领导人和科技高管表示:“特朗普政府将确保最强大的人工智能系统在美国建立,并采用美国设计和制造的芯片。”
“美国不会用国际条约束缚自己的AI领导者地位。”万斯在峰会上的表态,揭开了特朗普政府拒签《巴黎声明》的底层逻辑——这是一场“美国优先”与“全球治理”的路线战争。
牛津互联网研究所研究人工智能地缘政治的讲师基根·麦克布莱德(KeeganMcBride)表示,万斯的讲话“与拜登政府的态度发生了180度大转弯”。
技术原教旨主义的复活
特朗普政府的AI战略核心是“去监管化”。在万斯的演讲中,“市场自由”被反复提及,其潜台词是:任何可能延缓美国企业创新速度的规则都应被排除。这种立场与欧盟形成鲜明对比——后者正推动全球最严AI监管法案,要求高风险AI系统必须通过透明度审查和人工监督。
“美国科技公司想要‘无摩擦创新’,而欧洲想要的是‘可刹车创新’。”日内瓦国际治理中心研究员Martin Müller指出。这种分歧在算力与能源的绑定上尤为尖锐:当法国总统马克龙强调“用核能驱动绿色AI”时,美国却对“可持续”一词避之不及,背后原因是特朗普政府对化石能源的政策倾斜。
DeepSeek破局,欧盟迎来历史性机遇
美国拒签的主要动机之一,是阻止中国借国际框架扩大话语权,尤其是在DeepSeek颠覆美国AI霸权的当下。中国代表在峰会晚宴上呼吁“秉持AI公益性原则”,而万斯则在演讲中暗指“专制政权”可能滥用AI技术。这种将技术和经济问题政治化的对抗性叙事背后,是两国在基础模型领域的贴身缠斗:
OpenAI的GPT-5训练成本突破20亿美元,而中国深度求索(DeepSeek)仅用1/10成本实现可比性能;
美国商务部正酝酿对华AI芯片禁运升级,试图锁死算力差距。
“《巴黎声明》的‘包容性’原则可能为中国参与规则制定打开缺口,这是华盛顿无法接受的。”前白宫科技政策顾问Tom Kalil指出。
中美博弈的“规则真空”和DeepSeek的横空出世给AI的第三极——欧洲带来了战略机遇。欧洲一直寻求在人工智能行业站稳脚跟,以避免过度依赖美国或中国。
“马克龙主持的AI峰会的宣传重点是推动替代美国主导的人工智能技术发展。”人工智能研究机构AI Now Institute的欧盟和全球治理高级负责人弗雷德里克·卡尔特霍伊纳(Frederike Kaltheuner) 表示:“在DeepSeek发布强大的开源模型后,欧洲人迎来了稍纵即逝的在人工智能领域竞争的机会。”
在法国总统马克龙主持的为期两天的峰会上,欧洲领导人和企业公布了在数据中心和计算集群方面约2000亿欧元的计划投资,以支持欧洲的人工智能发展。
二、安全陷阱:当AI军备竞赛失去刹车片
美国拒签的代价,可能是全球AI安全治理的全面失序。
军用AI的“黑箱化”
五角大楼2025财年预算显示,AI军事应用拨款增至180亿美元,涵盖自主无人机群、AI目标识别系统等领域。而《巴黎声明》中“禁止自动化杀人武器”的条款因美英反对被删除。缺乏国际约束下,AI军事化正滑向危险边缘:
以色列军方已在加沙使用AI系统生成空袭目标清单,误伤率引发争议;
俄罗斯“Marker”战斗机器人配备自主开火模块,伦理审查机制缺失。
“没有全球安全框架,AI可能让战争变成算法游戏。”乔治城大学安全与新兴技术中心(CSET)高级研究分析师Lauren Kahn警告。
企业“精神分裂”
美国政府的放任政策,正将硅谷的科技巨头推向两难境地:
微软、谷歌为满足欧盟《人工智能法案》,不得不在欧洲设立独立合规团队,导致研发成本增加15%;
亚马逊AWS在弗吉尼亚州的数据中心因碳排放激增,遭环保组织起诉,被迫加速采购核能。
“我们像是在两个平行宇宙中运营。”一位硅谷AI公司高管吐槽,“加州总部追求极致性能,布鲁塞尔办公室却要证明算法不会搞性别歧视。”
三、未来战争:谁能定义AI的“安全”?
巴黎峰会的真正遗产,或许是揭示了AI竞赛的终极战场——不是算法或算力,而是规则的制定权。
美国的“自由放任”与欧盟的“谨慎监管”能否共存?中国的“发展优先”如何平衡安全风险?这些问题尚无答案。但可以确定的是,当AI开始重塑战争、能源与国际权力时,没有国家能真正独善其身。
唯一的问题是:在技术失控前,人类还剩多少时间踩下刹车?谁能够阻止“刹车焊死”的美国AI霸权主义?
END
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...