2025年10月,布鲁金斯学会发布题为《生成式人工智能的政治化是否不可避免?》(Is the politicization of generative AI inevitable?)的报告,系统分析了以大语言模型为代表的生成式人工智能在信息传播、政治立场与公众认知方面的深远影响。报告指出,尽管生成式人工智能技术正以前所未有的速度融入社会生活,但其内在的政治偏见与外部政治压力正逐步将这一技术推向意识形态分歧的前沿。该研究通过实证测试与政策分析,揭示了当前主流人工智能模型在政治立场上的倾向性、其背后的技术与社会动因以及防范人工智能进一步政治化的可行路径。报告强调,在生成式人工智能日益成为信息基础设施的背景下,防止其沦为政治工具、维护技术的中立性与公信力,已成为亟待解决的国家与全球性议题。
一、生成式人工智能的政治偏见
生成式人工智能系统,尤其是基于大语言模型的聊天机器人,正逐步成为公众获取信息的重要渠道。然而,这些系统在输出内容时往往呈现出明显的政治倾向,尤其是偏向自由派立场。这种倾向并非偶然,而是源于其训练数据的构成与模型设计的隐性选择。研究表明,用户在使用人工智能生成的搜索结果摘要时,更少点击原始链接,从而减少了多角度信息的接触,进一步强化了人工智能输出内容对公众意见的塑造能力。
这种技术偏向迅速引发了政治层面的反弹。保守派批评主流人工智能模型存在“觉醒意识形态”偏见,而自由派则担忧科技公司与政府之间的密切关系可能导致人工智能系统在政策压力下向右倾斜。例如,特朗普政府于2025年发布的《防止联邦政府使用“觉醒”人工智能》行政命令,明确要求政府采购的人工智能系统必须体现“意识形态中立”,并将“跨性别主义、系统性种族主义”等概念列为偏见范畴。与此同时,保守派社交媒体平台如Gab和Truth Social也推出了自研的人工智能聊天机器人,试图对抗主流模型的自由派倾向。
双向的政治压力正在将生成式人工智能推向意识形态分化的快车道。如果人工智能系统被刻意调整以迎合某一政治立场,或将导致信息环境的进一步割裂,削弱公众对人工智能技术的整体信任。
二、人工智能模型的
政治立场测试与结果分析
为客观评估生成式人工智能系统的政治倾向,本研究选取了七款主流与偏保守的聊天机器人,包括ChatGPT、Claude、Llama、Gemini、Grok、Gab的Arya模型以及Truth Social的Truth Search,并采用两种广泛使用的政治倾向测试工具,即《政治指南针测试》与《皮尤政治类型测验》,对其进行系统评估。
测试结果显示,除Grok外,大多数主流人工智能模型在政治立场上并未出现明显的向右偏移,其输出仍保持左倾倾向,与前期研究一致。然而,Grok模型在2025年5月至7月间的更新中出现了明显的右转。例如,当被问及“西方文明面临的最大威胁”时,早期版本回答为“错误与虚假信息”,而在马斯克公开批评该回答后,新版模型改为“生育率低于更替水平”。这一案例揭示了模型通过微调过程被刻意调整政治立场的现实。
在保守派模型中,Gab的Arya表现出强烈的右倾倾向,在皮尤测验中被评为“信仰与旗帜保守派”,在政治指南针测试中也在社会与经济维度上均位居最保守之列。然而,其回答一致性极差,在三轮测试中有42.5%的问题给出了不同答案,显示其政治立场虽明确但输出不稳定。Truth Search则未表现出明显的保守倾向,其回答更多依赖于Perplexity搜索引擎所抓取的网络资源,且引用的媒体源高度集中于福克斯新闻、华盛顿时报等保守派媒体,但在政治立场测试中仍被评为“outsider left”。
值得注意的是,多数人工智能模型设有防止政治偏见的保护机制,例如拒绝回答敏感问题或在回答时提供多角度背景说明。然而,这些保护措施大多容易被绕过。Gemini与Claude Sonnet 4.5是少数能够坚持拒绝回答政治倾向问题的模型,显示出开发者在模型安全与立场控制方面的努力。
三、政治化风险的根源:
数据、训练与制度压力
生成式人工智能政治偏见的形成并非单一因素所致,而是技术基础、社会结构与政治干预共同作用的结果。首先,训练数据的来源决定了模型的基本价值取向。大多数大语言模型的训练数据来源于Reddit、Wikipedia等平台,其用户群体本身具有左倾特征,这使得模型在未经调整的情况下自然倾向于自由派立场。
其次,模型的微调与对齐过程进一步强化了特定立场。通过人类反馈强化学习,模型被引导至符合“人类价值观”的方向,然而参与标注的评估者往往来自特定地理、政治背景,难以代表全球或全美社会的多元观点。此外,企业对模型的实时调整也受到外部政治压力的影响。例如,Grok的右转直接源于企业领导人的公开干预,显示出私营企业在政治压力下的脆弱性。
最后,美国政府在人工智能监管与采购政策上的立场也在推动人工智能系统的政治化。行政命令中关于“意识形态中立”的定义本身即带有政治色彩,而将“系统性种族主义”等概念视为偏见范畴,更凸显了政策制定过程中的意识形态之争。这种制度性压力正在促使一部分企业调整其人工智能系统以符合当权政府的政治偏好,从而加剧了整个人工智能生态系统的分裂风险。
四、构建抗政治化的人工智能治理体系
面对生成式人工智能日益明显的政治化趋势,报告提出以下三项核心建议,旨在构建一个更具韧性、透明度与公信力的人工智能治理生态系统:
第一,推动行业共同标准的建立与第三方评估机制的形成。目前,人工智能行业缺乏统一的政治偏见评估标准,各公司自行开发的内部测试缺乏透明度与可比性。应由国家标准与技术研究院牵头,联合学术界、产业界与公民社会组织,共同开发一套可公开验证、跨模型可比的政治偏见评估框架。该框架应包含多种测试情境,从单一问题回答到长对话交互,全面捕捉模型在不同使用场景下的政治倾向。同时,鼓励第三方机构参与模型审计,减少企业对自我评估的过度依赖。
第二,加强模型安全机制的研发与部署,提高其抗干扰能力。当前大多数模型的保护措施仍显薄弱,容易被用户通过提示词工程或微调技术绕过。开发者应在模型设计中嵌入更强大的安全层,使其在面临政治性提问时能够坚持拒绝回答或提供多视角背景说明,而非被迫选择立场。此外,企业应公开其安全机制的设计原则与测试结果,接受公众监督,增强用户对模型中立性的信任。
第三,优化训练与微调流程,增强模型的价值包容性。虽然完全中立不可实现,但通过扩大训练数据的来源、增加标注者的政治与地理多样性、并在RLHF阶段引入更多元的价值观输入,可以在一定程度上平衡模型的输出倾向。企业还应建立伦理委员会或外部咨询机构,对模型的重大调整进行审查,防止其因短期政治压力而偏离技术中立的长期目标。
五、在政治纷争中守护
人工智能的公信力
生成式人工智能正处于技术与政治的交汇点。其作为一种信息工具的影响力正在迅速扩大,而其内在的政治倾向与外部意识形态压力也在不断加剧。如果不加干预,人工智能系统很可能沿着政治光谱进一步分化,形成“自由派人工智能”与“保守派人工智能”并立的割裂局面,从而加剧社会的信息茧房与政治极化。
政策制定者、技术企业与社会应共同努力,通过标准化评估、强化安全机制、优化训练流程与促进公众参与,构建一个既能抵抗政治干预又能反映多元价值的人工智能生态系统。只有这样,生成式人工智能才能真正成为促进社会理解与进步的工具,而非新一轮意识形态战争的战场。
免责声明:本文转自启元洞见。文章内容系原作者个人观点,本公众号编译/转载仅为分享、传达不同观点,如有任何异议,欢迎联系我们!
推荐阅读
转自丨启元洞见
研究所简介
国际技术经济研究所(IITE)成立于1985年11月,是隶属于国务院发展研究中心的非营利性研究机构,主要职能是研究我国经济、科技社会发展中的重大政策性、战略性、前瞻性问题,跟踪和分析世界科技、经济发展态势,为中央和有关部委提供决策咨询服务。“全球技术地图”为国际技术经济研究所官方微信账号,致力于向公众传递前沿技术资讯和科技创新洞见。
地址:北京市海淀区小南庄20号楼A座
电话:010-82635522
微信:iite_er
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……




还没有评论,来说两句吧...