本文转载自“社会治理期刊”公众号,原文刊登于《社会治理》期刊2025年第2期。
资本主义使得人和人的关系异化为工具性交换,进而形成系统性阶级分化和社会不平等。人类虽然将从人工智能工具中获得更为便捷的知识和解决问题的能力,但是一部分人类将在资本加持下,在运用人工智能技术进步上走得更远,从而在资本和衍生权力方面得到充分放大,进而加剧了劳动者之间的差异,加剧了劳动成果与劳动回报间的分离,这将是一种加速社会阶层分化的过程。在此过程中,如果人类摆脱不了思维惰性和固执偏见,面对失控的人工智能算法操控,信息茧房效应加剧,不同社会群体更加难以共情、沟通和互信,极端主义在各个领域被放大,必将导致社会观念和政治对立更加极化。
1995年美国芝加哥的高温热浪造成700多人非正常死亡,危机中的隐形杀手直指社会阶层分化所形成的“社会隔离”,独居老年群体、贫困社区的非洲裔居民等,由于事实上长期被物理空间、社会空间、心理空间所隔离,在气象灾害面前凸显极端脆弱性,成为高死亡率的主要因素。那么,人工智能时代将会加剧还是会减轻这种情况?
进一步设想这种情况,社会隔离现象在人工智能时代是否会演变为“数字隔离”?数字隔离至少包括信息阻隔和智能阻隔两方面。信息阻隔是由于算法推送而产生人与人在信息禀赋上的天然差异,智能阻隔是由于资源投入而形成人与人在智能获取使用上的位势差异,当两者成为社会常态,社会隔离的新形态“数字隔离”将根深蒂固,并一步步助推社会阶层的分化走向极化,未来世界的不安全因素也因此增多。
科技是发展的利器,也可能成为风险的源头。毫无疑问,一方面人工智能对人类诸多方面带来跨越式的进步,诸多科学重大进展都有证据。科学领域权威期刊展示了一些进展,例如,人工智能系统在某些癌症早期识别任务上的表现优于经验丰富的医生;受过训练的人工智能发现了比现有的人类和计算机所设计算法更加有效的矩阵乘法算法;人工智能在气候建模和预测方面的能力已经超越了传统方法,能够更准确地预测极端天气和长期气候变化。人工智能将会给人类生命健康带来前所未有的保障,将在疾病预防和治疗、生态环境监测和治理、重大灾害预警和应对等方面发挥前所未有的积极作用,这将使人类的安全环境前所未有地改善。
然而,另一方面的担忧仍然存在。常态事故理论强调技术主导的复杂系统本质决定了事故将是“常态”而非例外,系统高度的复杂性和紧密的子系统间的耦合决定了事故无法通过常规的优化管理来避免,虽然批评此观点的学者不愿否定技术进步带来的风险管控的进步,但是,未来人工智能驱动的经济社会运行巨系统中,谁能确保人为失误不会出现?谁能确保某些子系统技术事故不会快速演变为系统崩溃式破坏?谁能确保深度隐藏的技术系统缺陷不会突然以独特破坏方式出现?技术灾难风险在未来智能时代仍不可避免,如果说切尔诺贝利核事故的物理影响还能控制在一定地理空间内,人工智能的技术灾难在网络空间的蔓延一定会是全球性的,这种破坏的后果不亚于世界性的战争。
另一种担忧同样存在。让人工智能落入极端主义分子的手中,不负责地部署武器并使用,人工智能在核心特定武器装备上的恶意使用,自主武器系统的管控失效,将对全人类构成更大的威胁。与此同时,人工智能时代的开启刚好与当今世界紧张局势加剧重合,国际关系和地缘关系未来极可能被智能空间重新塑造,算法统治信息下的政治极化加剧,进一步增加了战争的风险。所以,技术灾难和战争风险并不能降低的未来,也不可能将是安全的世界。
就技术领域来说,更不用延伸到对于技术奇点的探讨,人类若无法控制技术奇点的出现,无论是技术自主产生还是人为产生,将会导致未来世界文明变革走向更加不可预测。
这种假设完整表述为:人工智能时代,人类将无法克服人性中根深蒂固的弱点,这些弱点被智能算法及其驱动的场景所放大,形成新型的群体性弱点,最终为此付出代价。
人性弱点源于进化形成的认知机制并不断塑造人类的心理倾向,当然这也形成了丰富多彩的人类社会和文化。《全球风险报告》2024年报告中,将人工智能相关风险提到了最高级。短期来看,人工智能生成的虚假信息带来的风险呈现出激化社会分裂等显性问题;长期来看,人工智能失控性发展的风险将波及环境生态、地缘冲突等领域。然而,不可否认,人性的弱点,包括贪婪、傲慢、偏见、短视等,在人工智能时代都有可能会无限放大,与上述社会、环境、冲突等问题叠加在一起,极易形成社会生活中的系统性风险隐患。
首先是人类理性思考能力的退化。智能时代信息产生和获取前所未有加速,人类面对信息过载和决策过快,自远古以来在生存和斗争中习得的认知系统在短时间内不可能有实质性的更新换代,但浅表层面的认知强化却已经发生,有研究表明,人工智能的出现使得卡尼曼双系统理论中的系统依靠习惯和情感的快速决策不断强化,需要深思熟虑和逻辑推理的系统却得不到锻炼,这种思考模式在日复一日的训练下,人类距离理性思考只会越来越远。
其次是人类即时满足相关短视行为的激励。强调即时满足的短视行为在远古时期的人类生活中却是提高生存概率的通行之道,人类经历种种教训在漫长的过程中学会克服短视,但人工智能带来的突然改变打破了这种进程,人类的进化速度远远慢于人工智能的迭代,人类将注定被智能算法绑定而染上群体性的信息成瘾,这种即时满足的心理重新构建,激发了人类对待生产生活的耐心阈值全面下降。这样,人类距离卓识远见会越来越远。
最后是人类固执和偏见的强化。人工智能个性化算法推荐无疑放大了每个人的固执与偏见,在技术朝着原有方向越走越远时,与其对抗的措施相比极为乏力。信息爆炸的同时,作用到每个人的却是信息茧房。这个论断在大规模对照试验中已经证实,信息系统性减少和偏差将直接导致偏见固化,这种现象在政治(如美国总统大选)、气候变化、核电站、移民等议题中已经凸显。
当然,人工智能时代人性的弱点很多方面在一定时期必然会被放大,而克服这些弱点的新机制难以在短时间构建起来,因此,我们不得不严肃思考人工智能触发的人性弱点的新形态,否则人类将成为其自身弱点的牺牲品,未来世界的安全将大打折扣。
如果前面所述的三种悲观的假设都成立,那么我们的后代将会面临一个令人绝望的世界。相反,如果我们能够努力打破这些假设,我们的后代必将生活在一个更加安全的世界,那也将是我们期望的。
我们相信人在改造自然和社会的同时,也在改造自己的思维和能力,人工智能时代所改变的生产力和生产关系,也将带来前所未有的人类潜力的提升,进而创造更高质量的发展机遇和条件。因此,问题的本质不是人工智能带给人类一些暂时的负面作用,也不是人类在智能时代将面临的潜在巨大风险,更不是人工智能将会取代人类,而是我们在人工智能时代,主动做好以人类命运共同体为共识的全球治理体系和能力变革,用好人工智能科技的进步,努力创造更加公平的社会、更加可控的技术和更加向善的人性。
当今时代,人类正阔步迈向数字社会、智能社会。基辛格曾言:“网络空间挑战了所有历史经验”,而人工智能技术和应用的加速发展,在给人类社会带来前所未有发展机遇之际也伴生了诸多的不确定性,同时也给国家安全、国家治理带来巨大风险挑战。在时代的颠覆式变革中,国家安全理论和实践的各个维度正经受着前所未有的冲击。虽然传统地缘政治视域下大国博弈的安全叙事仍在持续展开,但新兴安全因素正在强势崛起、新的安全逻辑正在悄然生成。如何正确认识人工智能时代的新变量新挑战,重塑安全常识,革新安全思维,厘清安全逻辑,将是维护国家安全的重大历史课题。
2016年以来,随着美国特朗普的当选和英国正式脱欧,隐匿于其幕后的一个名为“剑桥数据分析公司”浮出水面,人们深切了解到大数据分析、智能算法推荐等在政治选举、公共决策等中的深度“与谋”,也感受到政治日益变成“计算的政治”的风险,学界通常把其归为“非传统安全问题”。如果将智能时代的各种新技术新应用带来的安全挑战视为外因并将其归入非传统安全问题,那么当下在算法“与谋”的情景下,由美西方政治人物“个性化政治”带来的巨大不确定性,则是不折不扣的内因,且可视为传统安全问题在数智时代的演化。政治人物的个性本就是国际关系和国家安全研究中备受重视的研究主题,但美欧当下的“个性化政治”所带来的安全冲击,已经不是政治人物个人的性格问题,而是一种时代现象。无论是在欧洲、亚洲还是在美国国内,特朗普开启新任期都被视为影响安全局势的最大不确定性因素之一。欧洲大陆极右翼的崛起和民粹主义的抬头业已成为不容忽视的时代潮流。更严重的是,成为政治符号、意见符号、宗教符号多重意义合一的政治人物似乎已经变成相当一部分美欧政客的政治抱负,日益“特朗普化”的美欧政坛正成为这个时代最令人难以置信的现实,凡此种种求诸传统理论解释已然不够。
一种可信的解释是,智能时代社交媒体、算法推荐和定制化新闻是催生这一现象的关键催化剂,“病毒式传播”的社交媒体特性和“流量为王”的互联网经济形态相结合,为个性化政治人物的崛起提供了肥沃的社会土壤;而“情绪化叙事”的媒介环境与其政党选举制度碰撞,个性化政治人物遂成为美欧政治生态中最容易赢得选票的形象设定;“信息茧房”效应和“回音壁”效应作用下政治人物对自我的认同与职业使命相混淆并最终超越了职业使命,传统政治人物的伟大志业追求更是难觅踪影,国家利益由此下沉为个人信仰与欲求的工具;内外因素综合之下,政治人物与网络情绪的直接媾和,“短路”了其他所有政治进程,美欧长期引以为傲的各种政治结构也在自下而上的网络民意狂潮和自上而下的政治人物个性高压之下被“击穿”,传统政治机制由此全面发生效用递减,传统精英政治也随之被“边缘化”。这一过程看似民众对建制的厌弃,实则是西方代议制民主与无节制的智能社交媒体算法共谋的结果。
智库深度参与美国政治是一个重要的传统,但在当下的美国,疏于数字化智能化的传统老派知识精英想要扭转这一局面恐怕难有建树。美国智库介入现实政治的能力被大为削弱,更多的只能以旁观者之姿,看着特朗普这位推崇“交易型领导”、擅长“麦克风外交”的美国总统,在国际国内屡屡引发多重安全冲击,并不断改写国际外交规则。
显然,在智能算法加持下,个性化政治人物的崛起已成为欧美社会的现实,由此引发的安全冲击和变化,又进一步彰显了个性化政治人物的影响和地位。顺之,则会使得未来的不确定性日甚;逆之,则会在当下引发直接的社会冲突和种群仇恨。
同时,与历次科技革命均会带来不同程度的社会风险相类似,人工智能的发展应用也会产生各类社会风险。首当其冲的就是人工智能带来的就业替代风险。马克思、凯恩斯都曾就“技术性失业”表达过担忧。根据国际货币基金组织的报告,全球近40%的就业人员面临着人工智能替代风险。就业岗位被人工智能取代可能导致失业潮,容易扩大贫富差距,增加社会安全风险。算法偏见可能使执法、社会福利分配等公共政策偏离公平,容易引发信任危机和公共治理政策失衡。弱势群体可能因缺乏数字技能或设备,无法享受人工智能带来的便利,甚至被智能算法排斥。基于历史数据的人工智能系统可能固化社会偏见(如种族、性别歧视),导致就业、信贷、司法等领域的不公平结果。凡此种种,挑战着我们对不平等的时代认知,如何正确认识人工智能时代的新型不平等,未雨绸缪,提出有前瞻性的应对之策,考验着我们的智慧。
国家安全深受社会认知差异的影响,对此理论家们早有洞察。国家的行为不仅受权力政治的驱动,还受到文化和意识形态的影响。国家对外政策是其文化和价值观的延伸,这些因素会影响国家对安全的认知和追求,不同国家的安全文化差异也会影响其对国家安全的认知和战略选择。实际上,国家对安全的追求并非完全基于客观威胁,而是受其主观认知的影响,国家对威胁的感知和误解是导致冲突的重要原因。国家无法完全信任其他国家的意图,这种认知上的不确定性会导致安全困境的加剧。历史上,国家安全的认知差异长期被地缘政治绑定,掩盖了其在国家安全领域引发危机和冲突的独立性,也很少被视为驱动国家安全行为的主导因素。第二次世界大战结束后的产业链全球化和全球贸易体系将各国融合为休戚与共的一体化大市场,传统上居于中心地位的利益冲突诱发的国家间武装冲突,特别是经济大国之间的武装冲突的可能性被大大抑制。
事实上,21世纪爆发的数场国家间大规模武装冲突已然清楚地表明,认知差异因素正在成为国家安全中的主要挑战。智能算法加持下的社交平台等在全球范围内的广泛普及,使不同认知突破时间和空间的枷锁在虚拟空间相遇,在迅速消弭了部分浅表差异的同时,加速了深层次认知差异的直接对撞。随着数字化智能化的加速发展和快速普及,人人都可借由社交媒体将自身内隐认知外放为社会认知,社会认知差异迅速井喷,由此引发的社会偏见、意见极化、矛盾激化开始成为社会“流行病”。即便从一个国家内部来看,封闭的圈层、极化的民粹主义、极端的民族主义,所有这些都大大增加了国家安全叙事的认知误解和安全危机涌现。
从全球看,“人工智能革命的到来会形成诸多对立的数字领域……人类社会分裂成一个又一个的信息茧房,不但会造成经济对抗与国际紧张局势,还会发展出各种截然不同的文化、意识形态与身份认同”。基于智能算法的认知战和心理战被一些国家作为“利器”重点发展,近年来,美西方利用大数据、情感计算、算法推荐等技术方法,针对大群体目标进行大规模认知结构分析,针对具体目标进行精准心理操控,持续实施思想渗透和认知供给,对其他国家安全构成重大威胁。
对此,有人将人工智能技术视为激发安全误解、诱发安全误判、引发安全冲突的根源。其实人工智能只不过是在千万倍加速演算和推理的同时,千万倍地放大了人类社会的认知差异而已,毕竟在“深度学习算法+海量数据+算力”的技术范式中,人类社会的各种认知差异、偏见乃至陋习无一例外地被囊括其中。因此,人工智能并不是认知差异的根源,而是其扩音器与放大器。
人工智能不仅是总体国家安全观的重要领域,更通过技术赋能与风险防控的双重属性,成为维护新时代国家安全工作科技赋能的支撑手段。人工智能正深度融入社会发展的各个层面,对国家安全的影响广泛而深远。深入剖析人工智能给国家安全带来的机遇与挑战,并探寻有效应对之策,具有重要的现实意义和战略价值。
一是增强安全监测与预警能力。在传统安全领域,人工智能技术有效应用于政治、经济、军事和国土安全的海量数据实时分析,特别是融合了语言、文字、图片、视频等诸多信息形态的新一代人工智能技术,极大提升了信息分析与传递效率、拓展了安全防范的手段与能力。通过建立以机器学习为主干的数据处理算法,能够对来自多源感知渠道的复合情报信息实现高效分析解读,更为快速、精准地识别敏感事项、风险起因、危害影响等态势,并大幅降低预警系统的虚警率,助力维护国家安全和社会稳定。在非传统安全领域,人工智能技术更加彰显赋能主体的功能。如人工智能赋能网络安全治理,已成为支持网络漏洞核查与防御的能力加速器;在核安全方面,人工智能技术与核技术相结合将显著提升核能装备运行监测、故障诊断、辐射防护和安全管控功能,以人工智能和大数据技术为核心,构建核电发展的智能化运维安保体系,是推动核电积极安全有序发展的有力举措。
一是信息系统和网络安全风险升级。人工智能技术使得网络攻击具有非常高的隐蔽性,利用人工智能算法开发的网络攻击恶意软件更具针对性,手段更加复杂,算法黑箱、数据投毒、对抗样本等可以在短时间内对目标系统发动大规模攻击,而网络监测手段对潜在网络攻击代码和攻击发生后的追踪溯源、根因分析及风险处置能力都亟待提升,否则可能使网络安全防御面临既不能预防于前,又不能追责于后的尴尬局面。随着人工智能在能源、交通、金融等关键基础领域应用的不断深入,信息系统中的服务器、数据库和机房设施等安全监护尤为重要,这些基础设施及网络系统一旦遭受攻击,也将对国家经济社会运行造成严重影响,威胁国家安全。
一是实现人工智能关键核心技术自立自强。科技创新能力竞争是大国博弈的重要内容。面对遏压以及人工智能的内生安全风险和应用安全风险,应聚焦关键核心技术的差距和短板,加快研发进程,推动人工智能高水平发展;应加快人工智能领域的人才培养和学科布局,围绕产业需求和区域发展布局人工智能相关专业;推动人工智能专业与各类相关学科的交叉融合,面向本领域需要的专向方向培养人工智能的研发、运维与管理人才。针对我国核工业新质生产力发展的需求,强力推进人工智能技术与核能研发、生产、管理等关键领域深度融合,构建智能化应用框架。制定数据管理制度和机制、建立数据管理流程和规范,构建贯通核工业领域的大数据系统;强化核科技创新,提升智能监测、建模仿真、数值模拟与智能设计能力,为核产品智能制造、生产能力高质量发展提供坚实支撑。
人工智能发展必然经历新技术的风险伴生与加速过程。在网络信息领域,新技术发展必然伴生着对旧风险的加速“改造”、对新风险的创造,以及自身成为风险侵害对象的过程。
不发展是最大的不安全。只有立足于快速发展,才能形成安全与发展的新的平衡。从信息化到数字化再到智能化,这是不可逆的历史趋势。因担心风险而阻滞发展,不仅不会带来安全,反而会因为发展缓慢形成更大的战略安全被动。在外部竞争和威胁始终存在的背景下,安全风险不只来自我们对自身技术发展的安全规划,更来自与主要压力方之间,在有效创造、掌握运用技术上的加速度比拼。因此,应立足让发展的增益远大于风险的影响,以快于竞争对手的发展加速度和优于竞争对手的安全与治理能力,渐进构建发展中的安全防线。
人工智能的自我“觉醒”甚至“越狱”,并非不需要防范的安全风险。人工智能的发展会不会成为因人类好奇心而从潘多拉盒子放出的魔鬼,带来一种集体恐惧感?事实上,人类对新事物的好奇心和恐惧感,是人的本能之一,前者驱动探索与进步,后者驱动安全与治理。
李韬,北京师范大学中国社会管理研究院院长,新闻传播学院教授
罗清平,中核战略规划研究总院有限公司董事长、党委书记、研究员级高级工程师
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...