本周二,美国卫生与公众服务部(HHS)所有雇员的收件箱里,都收到了一封主题为“AI部署”的重要邮件。要求即日起部门全员立刻开始使用ChatGPT。
该邮件由副部长吉姆·奥尼尔签发,字里行间都透着一股不容置疑的紧迫感。他写道:“人工智能正开始改善医疗保健、商业和政府……我们都应警惕那些可能拖慢我们‘让美国再次健康’进程的障碍。”
在邮件中,HHS的领导层为雇员描绘了一幅AI赋能的美好蓝图:用ChatGPT对抗“邮件和会议泛滥的行政负担”,从而让“积极性高的人也能专注于成事”。邮件甚至引用了新任部长小罗伯特·F·肯尼迪的豪言:“AI革命已经到来。”
这不仅仅是一次工具的引入,更像是一场由白宫主导、自上而下的“AI大跃进”。而操盘这场“运动”的,是HHS的首席信息官克拉克·迈纳,一位曾在数据监控巨头Palantir工作了11年的资深员工。
Palantir前高管掌舵,数据安全是“承诺”还是“幻觉”?
“AI大跃进”的背后,有一个强有力的执行者。克拉克·迈纳的Palantir背景,无疑为这次HHS的AI部署增添了一层复杂且引人遐想的色彩。Palantir以其为政府和情报机构提供强大的数据分析与监控工具而闻名,其技术能力与对数据的处理方式一直是外界关注和争议的焦点。
在邮件中,官方信誓旦旦地保证,迈纳已“采取预防措施,确保您在高度安全的环境中与AI协作”。更令人瞠目的是,邮件明确指示员工“可以放心地输入大多数内部数据,包括采购敏感数据和常规的非敏感个人身份信息(PII)”。
然而,魔鬼就藏在细节里。邮件紧接着又划定了一条红线:“ChatGPT目前未被批准用于披露敏感个人身份信息(如社保号码和银行账号)、机密信息、出口管制数据或受《商业秘密法》保护的商业机密信息。”
问题来了:什么是“常规的非敏感个人身份信息”?邮件并未给出任何定义。这条模糊的界线,将数据安全的判断权和风险完全抛给了基层员工。当一个以处理海量公民健康数据为核心的部门,其数据安全政策竟然建立在如此含糊其辞的表述上时,所谓的“高度安全环境”听起来更像一个危险的“幻觉”,而非坚实的“承诺”。
反疫苗先锋,要用AI定义“科学”?
这次AI部署中最具讽刺意味的一点,莫过于其领导者——HHS部长小罗伯特·F·肯尼迪。作为一位以积极反对疫苗、散播关于自闭症成因的阴谋论而闻名的公众人物,他的部门如今却高举起用AI“促进严谨科学”的大旗。
这产生了一个巨大的悖论:一个对人类专家和科学共识持怀疑态度的领导者,为何如此笃信一个连其开发者都无法完全解释其内部逻辑的“黑箱”算法?
邮件中提到的“你应该对你读到的一切持怀疑态度,注意潜在的偏见,并将答案视为建议”的免责声明,更像是一种程序正确的“政治作秀”。当HHS计划将AI推广到旗下医保与医助服务中心(CMS),用于决定患者是否有资格获得某些治疗时,这种风险就被无限放大了。历史数据早已证明,这类算法在医疗领域的应用中存在着严重的偏见,往往导致少数族裔和弱势群体更难获得所需的治疗。
一个以质疑科学著称的部门,开始用一个充满偏见风险的AI来辅助甚至决定关乎民生的健康决策,这究竟是在“让美国再次健康”,还是在用算法给潜在的歧视与偏见披上一层“科学”的外衣?
美国政府的AI焦虑
HHS的激进举措,并非孤例。它是整个美国联邦政府AI焦虑症的一个缩影。从拜登政府开始,到如今的特朗普政府,将AI全面整合到政府运作中,已经成为一种跨党派的痴迷。
然而,当技术部署的速度远远超过了法规、伦理和风险管控的完善速度时,这辆“AI快车”究竟会驶向何方,无人知晓。
HHS的全员ChatGPT部署,就像打开了一个潘多拉魔盒。它或许能在短期内提升文件摘要和邮件撰写的效率,但其模糊的数据政策、背后领导者的反科学立场,以及未来在关键医疗决策中应用的巨大风险,都为公众的健康和隐私埋下了深远的地雷。
当一个部门高喊着要用AI来追求“激进的透明度”和“全民健康福祉”时,人们不禁要问:我们得到的究竟是效率的提升,还是一个被算法精心包装过的、更加难以察觉和纠正的系统性风险?这个问题,HHS没有在邮件里回答,但历史最终会给出答案。
^
相 关 阅 读
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...