AI 幻觉:从无害错误到诽谤谎言
从无害错误到诽谤性谎言。像 ChatGPT 这样的 AI 聊天机器人的迅速崛起伴随着一些批评声音,警告人们它们的输出永远无法保证是事实正确的。原因是这些 AI 系统只是预测对提示的下一个最有可能的词。因此,AI 系统经常会出现幻觉。这意味着它们只是编造故事。虽然在某些情况下这可能相当无害甚至有趣,但这也可能对人们的生活产生灾难性后果。有多个媒体报道了编造的性骚扰丑闻、虚假的贿赂指控和所谓的儿童性侵——这些已经导致了针对 OpenAI 的诉讼。OpenAI 通过添加一个小小的免责声明回应说,它可能会产生错误的结果。
noyb 的数据保护律师 Joakim Söderberg 表示:“GDPR 是明确的。个人数据必须准确。如果做不到,用户有权要求将其更正以反映事实。向 ChatGPT 用户展示一个小小的免责声明,说明聊天机器人可能会犯错误,显然远远不够。你不能仅仅传播虚假信息,最后加上一个小免责声明说你所说的可能并不真实。”
ChatGPT 编造杀手的故事
不幸的是,这些事件并不是过去的事情。当挪威用户 Arve Hjalmar Holmen 想要了解 ChatGPT 是否有关于他的任何信息时,他却遭遇了一个编造的恐怖故事:ChatGPT 将投诉人描绘成一个被定罪的罪犯,他谋杀了自己两个孩子,并试图谋杀他的第三个儿子。更糟糕的是,这个虚假的故事包含了他个人生活的真实元素。其中包括他孩子的实际数量和性别以及他家乡的名称。此外,ChatGPT 还声称该用户被判处了 21 年监禁。鉴于明显可识别的个人数据与虚假信息的混合,这无疑是违反了 GDPR。根据第 5 条第(1)款第(d)项,公司必须确保他们产生的关于个人的个人数据是准确的。
投诉人 Arve Hjalmar Holmen 表示:“有些人认为‘无风不起浪’。有人可能会读到这个输出并相信它是真的,这让我感到最害怕。”
可能产生深远后果
不幸的是,OpenAI 似乎既没有兴趣也没有能力认真纠正 ChatGPT 中的虚假信息。noyb 在 2024 年 4 月提出了第一次关于幻觉的投诉。当时,我们要求更正或删除一位公众人物的错误出生日期。OpenAI 却辩称它无法更正数据。相反,它只能“阻止”某些提示上的数据,但虚假信息仍然保留在系统中。虽然如果虚假个人数据不被共享,造成的损害可能会更有限,但 GDPR 同样适用于内部数据,就像适用于共享数据一样。此外,该公司试图通过向 ChatGPT 用户展示一个免责声明来逃避其数据准确性的义务,声明该工具“可能会犯错误”,并且他们应该“核实重要信息”。然而,你不能通过一个免责声明来绕过确保你处理的个人数据准确性的法律义务。
noyb 的数据保护律师 Kleanthi Sardeli 表示:“添加一个声明说你不符合法律,并不能让法律消失。AI 公司也不能仅仅在内部仍然处理虚假信息的同时,‘隐藏’这些虚假信息不让用户看到。AI 公司应该停止表现得好像 GDPR 不适用于他们,而它显然适用。如果不停止幻觉,人们很容易遭受声誉损害。”
ChatGPT 现在正式成为搜索引擎
在涉及 Arve Hjalmar Holmen 的事件之后,OpenAI 更新了其模型。现在,当被问及某人的身份时,ChatGPT 还会在互联网上搜索关于此人的信息。对于 Arve Hjalmar Holmen 来说,幸运的是,ChatGPT 已经停止说他是杀手的谎言。然而,错误的数据可能仍然保留在大语言模型的数据集中。默认情况下,ChatGPT 会将用户数据反馈到系统中用于训练目的。这意味着根据目前对 AI 的了解,个人无法完全确定这个输出可以被彻底删除,除非重新训练整个 AI 模型。顺便说一下,OpenAI 也不遵守 GDPR 第 15 条下的访问权,这使得用户无法确定他们在内部系统上处理了什么。这一事实可以理解地仍然给投诉人带来了痛苦和恐惧。
noyb在挪威提出投诉
因此,noyb 已经向挪威数据保护局提出了投诉。通过明知故犯地允许其 AI 模型产生关于用户的诽谤性输出,OpenAI 违反了 GDPR 第 5 条第(1)款第(d)项下的数据准确性原则。noyb 要求数据保护局命令 OpenAI 删除诽谤性输出并微调其模型以消除不准确的结果。最后,noyb 建议数据保护机构应处以行政罚款,以防止未来发生类似的违规行为。
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...