2025年5月,卡内基国际和平基金会(Carnegie Endowment for International Peace)发布报告《欧盟的人工智能实力博弈:在去监管化与创新之间》(The EU's AI Power Play: Between Deregulation and Innovation),剖析了欧盟在人工智能战略的关键十字路口面临的张力与抉择。面对中美人工智能领域地缘政治竞争的加剧,欧盟正从以伦理监管为核心的“规则制定者”治理路径,加速转向强调创新驱动与产业竞争力的发展路径。启元洞见编译报告核心内容,旨在为读者提供参考。
一、引言
在围绕人工智能的高风险全球竞赛中,欧盟处于十字路口。人工智能已成为改变地缘政治格局的关键力量,支撑着经济安全与军事实力。长期以来,欧盟专注于伦理监管,优先发展以人为本的可信赖人工智能。然而,欧盟近期正从监管为主路径转向创新驱动路径,这引发了如何平衡监管、竞争力和战略自主的关键问题。这一去监管化转向虽然可能带来收益,但也对合法监管、民主监督、战略自主与技术主权构成深远风险。
欧盟以监管为主的方法,特别是其开创性的《人工智能法案》,虽被广泛赞誉,却也存在扼杀创新能力、产业实力及战略能力的风险。作为全球公认的技术治理规则制定者,欧盟似乎正在加剧的地缘政治压力和中美激烈竞争的推动下步入一个去监管化新时代。
欧盟将其转向去监管化的行为描述为应对加剧的地缘政治风险的必要之举。欧盟对关键人工智能组件的外部依赖,使其面临战略风险和被竞争对手利用的可能。同时,转向创新驱动的发展路径,欧盟需仔细考量人工智能系统的军民两用性质,这可能无意中加剧地缘紧张局势或引发自主武器军备竞赛。欧盟的挑战在于需谨慎平衡培育顶级人工智能创新与维护保障公共利益和民主价值观的强监管之间的关系。若将创新和竞争力置于审慎之上,欧盟可能面临法律保护瓦解、科技巨头影响力放大并造成监管真空的情形。
二、欧盟的人工智能平衡法案
全球对人工智能霸权的竞争空前激烈且极具地缘政治争议。《人工智能法案》引发重大冲突,在设定可信赖人工智能全球标准上举步维艰,其合法性受到质疑,欧盟成为人工智能安全领域领导者的雄心岌岌可危。有观点认为欧盟的监管使其创新落后,阻碍了初创企业规模化,并带来了对中美技术和资源的战略依赖风险。事实上,即使法案谈判艰难,要求减轻严苛条款的压力仍在增加。有欧盟专家指出,监管扼杀创新的说法更多是由美国推动形成的战略想法。2025年对企业的观察分析显示,闭门会议中少数数字巨头主导制定了约束自身人工智能的指导方针,引发了对算法监督公正性的质疑。
对于质疑欧盟的人工智能政策并误导了欧盟初创企业的那些片面的批评,我们有必要进行反驳。美国近期政策调整(如关税冲击、亲俄倾向以结束乌战等)以及美国副总统万斯2025年2月在巴黎人工智能峰会上警告欧盟放松监管,已使欧盟处境尴尬。欧盟委员会的去监管化转向打破了原有平衡,开始向创新倾斜。欧央行前行长马里奥·德拉吉(Mario Draghi)的2024年报告强调了去监管化对提升欧盟竞争力的必要性,认为人工智能的发展困境源于限制性监管。然而,去监管化虽然可能在短期内促进竞争力,却忽略了削弱监管带来的重大战略脆弱性,特别是在应对外国拥有的关键人工智能基础设施和数据隐私方面。
(一)亟需人工智能驱动的产业复兴
多年来,欧盟在技术的民用和商用方面落后于美国和亚洲的主要原因之一是高科技行业的状况。数据表明,只有11%的欧盟企业使用人工智能,远未达到欧盟计划的到2030年实现75%的目标。欧盟在很大程度上依赖于外国设计的人工智能。2023年,欧盟仅吸引了80亿美元的人工智能风险投资,相比之下,美国为680亿美元,中国为150亿美元。
欧盟最有前途的生成式人工智能企业们,如Mistral和Aleph Alpha,因缺乏资本而难以与美国巨头竞争。由于技术娴熟的专业人士被国外更高的薪水所吸引,欧盟还面临人工智能人才储备较少的困境。
1. 欧盟遥远的数字主权目标
人工智能竞争是赢家通吃的残酷游戏,失败者可能被边缘化。将欧盟的挑战简单归为监管与创新的权衡具有误导性。欧盟的法规(如《人工智能法案》、GDPR等)常被指责扼杀投资,但阻碍其人工智能领导地位的深层原因在于:欧盟数字市场碎片化、风险资本容忍度低,以及对外国云服务巨头的高度依赖(亚马逊、谷歌和微软占据欧盟近70%的云市场,欧盟最大的供应商仅占2%)。
监管政策固然关键,但仅仅在治理方面去监管化并非万能药。欧盟还需要在关键领域采取大胆的产业行动以实现战略自主,在其数字基础设施的各个层面提升技术独立性。
2. 欧盟为提升竞争力的努力
为提升人工智能竞争力,欧盟已建立结合超算、数据和专业知识的人工智能工厂。当前,欧盟面临的主要挑战是如何确保能源效率和充足的人工智能芯片供应。超级计算机和数据中心能耗巨大,数据中心目前已消耗欧盟2.7%的电力,预计到2030年将增长28%。事实上,到本十年末,全球数据中心电力容量需求将增加两倍以上。
3. 创新机遇与障碍
欧盟旨在提升人工智能创新力,计划汇集资源、投资尖端人工智能模型并将其整合到战略应用中。欧盟委员会主席宣布投入80亿欧元建设人工智能工厂,并启动500亿欧元的投资倡议以“超级充电”人工智能创新。法国总统马克龙也宣布计划投资1090亿欧元到私人人工智能领域。欧盟和法国似乎在参与全球人工智能竞争中,优先考虑快速增长和资本注入而非审慎监管。
相比之下,美国推出了由私营部门主导的“星际之门”项目,承诺投入5000亿美元用于人工智能基础设施,在得克萨斯州建设数据中心。该项目由OpenAI、甲骨文、软银和阿联酋政府技术投资部门MGX联合,但引发了对能源消耗和外国投资者风险的担忧。美国模式避免直接采用公共资金投入,转而依靠监管支持,如简化土地许可、确保廉价能源和水资源的保障以促进人工智能的发展。
尽管“星际之门”的投资远超欧盟,但在某种程度上,欧盟采取监管优先而非企业利益优先的政策,能够更好的保证透明度、问责制和公平准入。然而,欧盟的发展雄心受到其严格的数据保护制度制约。许多科技企业和人工智能研究人员认为,备受赞誉的GDPR(通用数据保护条例)在优先保护隐私的同时,无形中阻碍了欧盟对训练复杂人工智能模型至关重要的大规模数据集的利用能力。
(二)监管还是不监管?这是大型科技企业的问题
欧盟的人工智能战略偏向国家干预主义,通过公共资助和协调来增强数字主权。与此相反,美国模式则通过私人资本驱动市场增长,政府则扮演促进者的角色,以降低运营壁垒。随着欧盟从监管转向创新,受政府、企业(特别是科技巨头)的影响,关于人工智能创新的主流观点建立在了有问题且狭隘的意识形态之上。
1. 人工智能责任指令
欧盟委员会在2025年工作计划中取消了原拟的人工智能责任指令,该指令旨在为人工智能系统造成的损害建立非合同性民事责任条款,确保受害者获得与欧盟其他技术受害者相似的保护。这标志着政策的显著转变。
废除指令使保护人工智能受害者的关键法律保障消失,此举充满风险。与监督人工智能市场准入的《人工智能法案》不同,责任指令本应在损害发生后解决问责问题。没有它,人工智能损害受害者的权利(如追索等)在法律上很难得到保障,处于有风险无权利的境地。此决定也削弱了欧盟议会的治理,可能导致体制不和。
没有该指令的情况下,在歧视、侵犯个人权利和纯粹经济损失等方面会存在监管空白。欧盟高级官员急于向美国、国内外科技企业、投资者、供应商及创新者表明欧盟是创新和开展业务的绝佳场所。矛盾的是,去监管化可能削弱“布鲁塞尔效应”,进而削弱欧盟对法治以及推广降低风险的人工智能安全方法的承诺,并影响全球标准。
2. 硅谷神话
人工智能模型被宣称能带来繁荣、高效、公平和人道的未来,从而使削减繁琐官僚机构和过度监管的呼声合法化。然而,这种由特定私营主体科技参与者的专业知识所主导的观点,将人工智能模型描绘成纯粹的技术性,将创新塑造的过于理想,最大限度地淡化了其给社会带来的负面影响。
长期以来,硅谷及其产生的巨大财富被视为自由市场资本主义的奇迹,是创新在摆脱监管束缚时蓬勃发展的证据,但这种观点只是一个神话。从冷战到数字繁荣,美国政府向研究、国防项目和早期融资等投入数十亿美元,一直充当着创新的无形设计师。互联网、GPS、阿波罗计划,甚至苹果公司的基础技术,都是在公共投资的培育下发展起来的。
当今的科技巨头将利润私有化,同时将成本外部化,避税、反监管游说并寻求公共补贴。硅谷科技行业是在政府干预和支持下建立起来的,这表明,耐心等待公共财政,而非去监管化,才是持久创新的基石。
硅谷神话仍在继续推动全球政策的制定,但其风险资本驱动的模式往往加剧不平等。与此同时,OpenAI和谷歌正在游说特朗普政府,要求将使用受版权保护数据进行人工智能的训练归类为合理使用,并将其框定为维护国家安全的必要条件。此举引发了深刻的伦理和法律担忧。
3. 欧盟的行动时刻
在其第二任期初,特朗普动摇跨大西洋联盟并损害盟友信任,2025年3月,美国利用星链(Starlink)施压乌克兰的消息对欧盟更是严重警告。此事暴露了重大的战略脆弱性情形:政府、军队、企业过度依赖总部常设于境外的单一企业控制的技术。
欧盟决策者必须减少对单一供应商的依赖,实现供应链多元化,确保关键基础设施和核心数字服务由欧盟或多边控制。否则不仅是经济挑战,更是日益增长的安全风险。目前,支撑欧盟数字经济的关键基础设施由少数美国科技巨头主导,其业务正从传统服务扩展到公共部门(如健康、警务、国防乃至用于战争的人工智能模型)。这种依赖削弱了欧盟的战略自主性,并可能引发监管冲突。
欧盟需谨记监管人工智能模型本质上是监管权力。目标应是确保强有力的监督,维持清晰的定责与问责法律框架,这对维护民主合法性、保护公民免受人工智能滥用的损害至关重要。
(三)欧盟的军民两用人工智能困境
欧盟治理的另一困境源于人工智能的军民两用性质,提升工业效率的算法可转用于战场。这种模糊性使治理复杂化。《人工智能法案》目前未涵盖军事用途,留下重大监管空白。
一方面,人工智能被誉为第四次工业革命的引擎,有望提升生产力、创造产业并重塑经济。另一方面,在军事领域,人工智能被视为潜在规则改变者,能实现无人机集群与自主机器人的应用、智能网络防御和人工智能辅助决策等。2024年,OpenAI修改使用政策,取消军事用途禁令,允许其先进系统用于武器开发和战争;Alphabet也终止了禁止人工智能开发武器和监视工具的长期禁令。
欧盟的军事创新来源正从传统国防承包商转向初创企业和科技企业,欧盟的欧洲防务基金也因此将更多资源投向中小企业主导的项目,如德国的Helsing和法国的Mistral AI等企业的崛起就印证了这一转变。
未来几年将考验欧盟如何调和其创新发展技术的战略雄心与对高风险人工智能技术的审慎监管。在欧盟内部拥有27个成员国的情形下,建立一个可信的人工智能增强型国防形态成本高昂且政治上具争议性。即使与欧盟以人为本的理想相悖,《人工智能法案》中还是允许了国家安全豁免,从某种程度上说是对这一现实的让步,也是对欧盟成员国希望自由部署人工智能用于安全和国防目的的认可。然而,这些豁免带来一个难题:当欧盟成员将创新武器化并利用人工智能获取军事优势或使用强大人工智能监控工具且缺乏监督时,欧盟在国际上如何令人信服地倡导以人为本的人工智能议程?
三、欧盟人工智能的未来
欧盟正面临大胆创新与负责任监督的艰难抉择,否则将面临技术主权和监管影响力双失的风险。然而,欧盟人工智能创新的最大障碍并非仅限于监管,长期投资不足、市场分割以及对外国技术基础设施的依赖才是更重要的影响因素。
为促进人工智能的未来发展,欧盟应采取三项行动:大幅增加投资,以公共资金催化私人资本,防止初创人工智能企业外流或被收购;建设“欧盟技术栈”全面数字基础设施,减少对外国云服务和半导体制造商的依赖,增强数字韧性和安全性;最后,不应削弱问责制,而应增强监管清晰度,尤其在人工智能军民两用方面,平衡战略自主与民主监督,避免人工智能军备竞赛。应对人工智能时代,投资、协作和民主问责制才是欧盟战略未来的基石。
免责声明:本文转自启元洞见。文章内容系原作者个人观点,本公众号编译/转载仅为分享、传达不同观点,如有任何异议,欢迎联系我们/转载公众号XXX!
推荐阅读
转自丨启元洞见
研究所简介
国际技术经济研究所(IITE)成立于1985年11月,是隶属于国务院发展研究中心的非营利性研究机构,主要职能是研究我国经济、科技社会发展中的重大政策性、战略性、前瞻性问题,跟踪和分析世界科技、经济发展态势,为中央和有关部委提供决策咨询服务。“全球技术地图”为国际技术经济研究所官方微信账号,致力于向公众传递前沿技术资讯和科技创新洞见。
地址:北京市海淀区小南庄20号楼A座
电话:010-82635522
微信:iite_er
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...