美国国家标准与技术研究院(NIST)最近给与美国人工智能安全研究所(AISI)合作的科学家们下了新指令:别再提“AI安全”“负责任AI”或“AI公平”这些词。取而代之的是,要求大家把精力放在“减少意识形态偏见”上,说是这样才能推动人类繁荣和经济竞争力。这份更新后的合作研发协议是三月初发出的,对象是AI安全研究所的成员。此前,协议里还鼓励研究者们开发技术,找出并修正那些因性别、种族、年龄或财富差距导致的模型歧视行为——这些偏见可不是小事,直接影响用户,尤其是少数族裔和经济弱势群体往往受害更深。
新协议不仅把这些目标删得一干二净,连开发工具“验证内容真伪、追踪来源”以及“标记合成内容”也不见了,显然对追踪假消息和深度伪造没啥兴趣了。反而加了句要“把美国放在首位”,还特别让一个工作小组搞测试工具,帮美国在全球AI赛道上拔得头筹。一名跟AI安全研究所合作的匿名研究者直言:“特朗普政府把安全、公平、假消息和责任感全踢出了AI的价值清单,这态度不言自明。”他担心,忽视这些问题会让普通用户吃亏,比如算法可能肆无忌惮地按收入或其他特征歧视人。“除非你是科技亿万富翁,否则未来只会更糟——AI可能会变得不公平、有歧视、不安全,还没人管,”他毫不客气地说。
另一位曾跟AI安全研究所打过交道的研究者也觉得离谱:“人类繁荣?这到底啥意思啊?”的确,新规听起来高大上,但具体怎么落地,谁也说不清。
说到AI偏见,Elon Musk可是个爱挑刺的主儿。他现在正代表特朗普大刀阔斧地削减政府开支和官僚作风,早就看不惯 OpenAI 和 Google 的AI模型。去年二月,他在 X 上发了个迷因,把 Gemini 和 OpenAI 贴上“种族主义”和“觉醒”的标签。他常拿 Google 一款模型举例子,说它居然会纠结在核末日时误认性别对不对——这场景也太夸张了吧。除了 Tesla 和 SpaceX,Musk 还有个 xAI,跟 OpenAI 和 Google 直接竞争。据 WIRED 报道,一名 xAI 的顾问最近搞出个新招,能改大语言模型的政治倾向。自从今年一月,Musk 的“政府效率部”(简称 DOGE)开始在美国政府里大扫荡,裁公务员、停开支,连教育部的多元包容文件都被归档删除了。NIST 作为 AISI 的母机构也没逃过这波冲击,几十名员工被炒。
“这些变化基本是白宫直接拍板的,”非营利组织 Eleuther 的执行主任 Stella Biderman 说,“政府摆明了优先级,改计划也是为了继续生存,不奇怪。”去年十二月,特朗普任命跟 Musk 关系匪浅的 David Sacks 当白宫AI和加密货币沙皇。不过,新研究议程是不是他定的,或者白宫有没有插手,还不清楚。新措辞会不会真影响研究者的工作,也没人能打包票。
AI安全研究所是拜登 2023 年十月签执行令成立的,当时正值AI突飞猛进,大家忧心忡忡。那会儿,研究所的任务是应对顶级AI模型可能带来的麻烦,比如能不能被用来搞网络攻击,或研发化学、生物武器,甚至会不会变得狡猾又危险。可今年一月,特朗普的新执行令把拜登的废了,虽然留下了研究所,却说“要保持领导地位,AI得摆脱意识形态偏见和社会工程议程”。二月,副总统 JD Vance 在巴黎的AI行动峰会上放话:“美国要在AI竞赛中胜出,不是靠为安全唉声叹气。”结果,美国代表团里一个AI安全研究所的人都没带。
有研究者警告,焦点转向可能会让AI更不公平、更不安全,还说不少AI研究者为了保住饭碗,已经开始巴结共和党人及其金主。“希望他们早点看清,这些人和背后的公司就是吃人的豹子,只在乎权力,”他忿忿地说。一项 2021 年关于 Twitter 推荐算法的研究也佐证了AI的政治偏见确实存在:用户更容易被推送右倾观点。现实摆在眼前,AI的未来会怎样,谁心里也没底。
白宫暂时未回应置评请求
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...