导语:2025年7月,兰德公司发布报告《人工智能与未来战争:六种潜在冲突路径及其制约因素》(Six ways AI could cause the next big war, and why it probably won’t),深入探讨了人工智能技术对国际安全格局的潜在影响。文章系统分析了人工智能可能导致大国冲突的六种主要路径,并评估了这些情景发生的可能性,同时强调审慎的政府政策在规避风险方面的关键作用。启元洞见编译整理了其中的核心内容,帮助读者理解人工智能对国际安全的复杂影响及其风险管控路径。
文末点击“阅读原文”,可获取原文
PART1
引言
除了核武器等技术能显著改变大国战争风险外,先进人工智能也可能带来深远变革,成为另一项对国际安全具有重要影响的特殊技术。本文探讨了人工智能可能增加大规模国家间战争的六种假设,这些假设分析了人工智能如何影响军事、经济和社会,从而破坏国际稳定。同时,评估了这些假设成立的关键条件,并研究了这些条件如何聚合可能增加冲突风险。
PART2
人工智能是否会打破力量平衡
并创造新的侵略机会?
如果人工智能赋能的军事能力改变了力量平衡,使决策者认为可以实现原本无法实现的目标,人工智能的进步可能会引发战争。影响这一情景发生的关键条件同时满足的可能性相对较低。
首先,这需要人工智能赋能显著的军事优势,这种优势可能源于某项突破性进展,或人工智能在多军事任务中的广泛应用。为实现不对称优势,国家需在人工智能创新和采用上先发制人。
其次,优势具有暂时性。若军事优势短暂,领导人可能产生“机会之窗”(Fleeting Windows)观念,促使其在优势消失前采取行动。
再次,优势程度适中。这种优势不能过强到弱国为避免代价高昂的失败而寻求政治解决方案并作出让步。若双方均明确认为人工智能已决定性地改变力量平衡,可能降低战争风险。
最后,存在战争目标。拥有优势的国家需有值得开战的目标,如果该国家维持现状会从人工智能中受益更多,保持和平的稳定性可能增加。
PART3
对敌方人工智能发展的担忧
是否会导致预防性战争?
该假设的结果是,各国可能诉诸战争以阻止对手获得先进人工智能能力。如果领导人认为人工智能将带来爆炸性经济增长和决定性军事优势,他们可能担心对手率先获得先进人工智能会使自己未来受到胁迫或攻击,从而通过预防性打击减缓对手人工智能发展。
有几个条件可能会加剧这些风险,但它们同时成立的可能性不大。
首先,领导人需要预期先进人工智能会导致力量平衡发生重大转变。这一点有可能成立,因为领导人可能会认同人工智能带来变革性愿景的潜力。但对于人工智能未来究竟会是什么样子、何种水平的先进人工智能会引发重大危机,领导人仍将面临巨大的不确定性。
其次,领导人需要预期人工智能具有巨大的先发优势,以至于自己很难追赶。但从历史来看,成为快速追随者、更有效或更高效地采用新技术,往往比率先创新更重要。
再次,领导人需要预期预防性军事打击能显著减缓对手的人工智能发展。
最后,领导人需要认为攻击的成本和风险值得其所带来的收益。
此假设的一种变体是,一国在先进人工智能方面取得突破后,可能使用武力来维持其垄断。这种更强烈的动机,加上人工智能赋能的军事优势,可能使领导人更倾向于使用预防性攻击来维持垄断。然而,即使对有能力的对手发起有限的预防性攻击,也可能带来严重的升级风险或其他政治代价。
PART4
人工智能会降低参战的预期成本吗?
此假设认为,人工智能能显著减轻或消除战争中的传统高昂因素。拥有先进人工智能赋能军队的国家或许会更愿意动用武力来追求政治目标。
要此假设成立,需满足几个条件。
首先,人工智能赋能的无人机和机器人需大量取代人类士兵的危险角色,大幅降低战争预期伤亡。
其次,依赖人工智能赋能系统需比依赖人类更廉价。人工智能需与机器人技术结合从而具备物理能力。虽然无人机和机器人相比载人系统确实具有显著的成本优势,但相对而言并不便宜。如果人工智能赋能的军事能力能缩短战争时间而非导致持久冲突,则可能降低人力物力成本。但人工智能增强的自动化生产能力可能提高国家部署新部队以维持长期战争的能力,累积成本随之增加。
一个突出案例是先进人工智能削弱核威慑。核威慑为国际体系注入稳定力量,人工智能不太可能消除这种力量。人工智能可能增强对敌方核武库的进攻能力,但也能提高防御方的生存能力。同样,人工智能虽能使防空和导弹防御系统的效能提升,但不太可能让国家完全免受大国的核报复——这需要拦截所有而非仅仅大部分来袭核打击,而这些手段的设计初衷正是为了穿透人工智能增强的防御系统。最后,尽管有人担心人工智能可能会助力网络攻击,通过瘫痪指挥控制系统来瓦解敌方核武库,但考虑到核大国对这些系统安全性的高度重视,这种情况出现的可能性极低。
PART5
人工智能会引发社会混乱
从而导致战争吗?
一条潜在的冲突路径可能源于国内动荡。有人担心,先进人工智能融入国家经济可能导致大规模失业,从而破坏社会稳定。理论上,领导人或许会通过攻击外国敌人以转移民众注意力,鼓励他们支持政府。尽管人工智能似乎很可能造成重大经济影响,但这种通过“转移视线型战争”引发冲突的路径却尤其不可能。领导人可能试图将公众愤怒转向外部而非自身。
发动全面战争可能加剧而非缓解国内政治问题,尤其当其是蓄意危机而非真实威胁时。相反,国内动荡常促使领导人转向国内改革或政治镇压。
此假设的一种变体是,人工智能可能促使社会更具侵略性和帝国主义倾向。如果人工智能导致爆炸性经济增长,公众可能要求利用这些利益获取地缘政治优势或领土扩张。然而,军事侵略并非宣示更高地位的唯一途径,这些经济优势是否会创造新的侵略机会之窗,取决于人工智能是否打破力量平衡。此外,人工智能赋能的经济增长可能更倾向于稳定而非破坏稳定。如果社会对资源短缺的担忧减少,经济自给能力增强,则对国际竞争和冲突的兴趣可能降低。
或者,人工智能可能通过加剧公共话语中的病态而非经济影响,使社会更具侵略性。人工智能对社会的最终影响取决于对该技术的诸多假设、其被采用的方式,以及政府对转型过程的管理。人工智能将如何重塑社会偏好仍存在极大不确定性,因此这一假设变体的成立与否也同样存疑。
PART6
人工智能会自行采取行动
引发战争吗?
在电影中,人工智能常因领导人将军事控制权委托给机器而引发战争。更合理的假设是,人工智能可能通过意外或未经授权的行动引发战争。人工智能体可能对自主军事系统等拥有足够控制权,危机期间的失控事件可能导致冲突升级。
但支持此假设的条件不太可能出现。
首先,人工智能技术需比非人工智能传统技术事故率高。这一点有可能成立,因为人工智能增加了系统复杂性,而复杂性越高,意外风险就越大。但与人类操作或当今的自动化水平相比,足够先进的人工智能或许能提高可靠性和安全性。
其次,事故类型需能够引发战争。历史上多数军事事故由友军承担,对对手的意外攻击多为局部事件,事故升级为战争潜力有限。
最后,在发生严重损害他国利益的意外事件后,领导人必须未能找到缓解紧张局势的方法。历史上几乎没有证据表明领导人会意外卷入战争,部分原因在于,当战争不符合自身利益时,他们通常能够有效缓和危机。
PART7
人工智能会以何种方式
影响领导人决策,增加冲突的可能性?
人工智能可能通过影响人类领导人的战略决策,从而导致冲突,而非直接引发战争。过度依赖人工智能获取情报信息和决策支持的领导人,可能会为人工智能加剧误解、助长不稳定创造条件。
要让这一影响路径最终引发战争,最关键的前提是:人工智能提供的战略评估或建议会增加激进行为或误判的可能性。我们没有理由相信先进人工智能体比人类更具冲突偏好。但这些支持工具可能因“幻觉”无意中加剧误判,或对情况和对手行为做出错误推断。领导人可能表现出“自动化偏见”,即过度信任人工智能输出,默认其具有客观性和准确性。奥汉隆(O’Hanlon)提到:人类或许不会充分考虑到,人工智能的偏见和谬误可能会在无意中促使他们采取更强硬的政策或承担更大的风险。这可能导致他们对一系列核心威慑因素产生不必要的信心。
此外,人工智能系统可能会被有意或无意地定制为强化领导人已有的偏见。即便在现实中缺乏依据,人工智能系统仍可能证实领导人预先存在的信念,如印证领导人存在可有效利用的“机会之窗”这一固有信念。除了偏见问题,如果领导人担心对手会利用人工智能工具更快地做出决策和采取行动,他们可能会感到更大的时间压力。信息内容和决策时间线息息相关:领导人越感到需要快速决策,就越不可能批判性审查人工智能系统提供的信息。
另一方面,人类具有众所周知的心理偏见,会扭曲其决策,增加冲突的可能性。通过适当设计和训练数据设置预防措施,人工智能可能有助于改善而非加剧偏见。足够先进的人工智能可通过更准确、快速地整合信息帮助领导人理解快速变化的危机。在信息模糊时,更好地传达关键的不确定性和多种解读;以及找出无需使用武力即可实现目标的方法。
人工智能决策支持工具会产生总体稳定还是破坏性的影响取决于一系列因素,但这种假设提出了一个可信且令人担忧的观点,即人工智能可能增加战争风险,特别是考虑到政府可能拙劣地实施这项技术的情形。当人类以正确的心态和操作使用人工智能工具时,他们可能做出更好的决策,但如果系统设计和使用不当,他们可能做出更糟糕的决策。
PART8
局限性与启示
综合对这六个假设的评估可以看出,人工智能引发新一轮国际冲突的风险被夸大。发动战争的决策本质上与政治相关,而非技术。人工智能可能在未来冲突中发挥作用,但它本身不太可能成为决定性的因果因素。尽管如此,人工智能有火上浇油的潜在风险,这就是各国政府采取预防性政策,规范人工智能使用时机与方式的原因所在。
由于人工智能仍是新兴技术,上述结论存在几点局限:
首先,预测未来本就极具难度,而对于人工智能,这种预测更是难上加难。尽管本文分析侧重于大规模国家间冲突,但人工智能可能通过在国家能力薄弱的地区引发社会和经济动荡,对内战构成更显著风险。
此外,本文探讨了人工智能可能破坏稳定的方式,但值得注意的是,人工智能的影响可能倾向于加强而非削弱国际稳定。研究人员可将同一分析框架应用于探究其积极方面:人工智能如何促进稳定与和平?实现此愿景需哪些条件配合?
各国政府可通过审慎政策管控多数人工智能风险。研究人员应特别关注两大最具挑战性的假设:人工智能可能导致力量平衡破坏性转变的这一传统风险,以及人工智能可能扭曲人类战略判断这一新风险。
为防范军事平衡变化使决策者对自身获胜能力产生新的或被夸大的信心,各国政府首先应避免技术突袭,还应考虑可抵消对手人工智能赋能能力的反制措施。决策者还需制定政策,防范人工智能加剧误判和助长冲突升级的风险。个人层面,领导人需以对待人类顾问评估时应有的谨慎和怀疑对待人工智能生成信息;机构层面,政府可设计人工智能系统管理这些风险。此外,加强沟通措施同样重要。
(本文内容系“启元洞见”公众号原创编译,转载时请务必标明来源及作者
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...