点击蓝字 关注我们
我发现现在互联网上有一个很有意思的矛盾现象:一方面,一部分人对别人的提问反驳一句“你不会问AI吗”;另一方面,一部分人(或许和前面那部分人还有重叠)会留下一句“ta都信AI了,你就顺从ta吧”。
显然,我们当前处于了一个很滑稽的矛盾情况:我们有问题问AI的同时,又不相信AI的回答。
AI真的靠谱吗?
毫无疑问,自从ChatGPT出现以来,AI确实极大地提升了许多人的工作效率,甚至帮助一些人打破了自己的工作瓶颈,但是给予AI极大的信任,或许当前并不是一个特别正确的选择。
除了“0.8和0.11哪个更大”这种调戏AI的问题,现在甚至都有下图这种污染AI的玩法出现——我相信大部分网友都是善良的,不会故意以“攻击”的目的去污染AI,但是这种“调戏”性质的行为,也体现出AI在某些时候会“大脑短路”。
然而,即使撇开网友们的乐子行为,有些时候,AI的认真回答的可信度也同样令人着急。之前在为分析2000年左右中国单机游戏市场查相关资料的时候,百度的AI直接扔出了下图:
明眼人马上就能看出,百度AI的回答本身就是自相矛盾的,现实也确实如此。不过,好消息是,将同样的问题交给百度AI对接的DeepSeek满血版,就能得到:
显然,DeepSeek比百度AI靠谱不少。但是问题在于:我们如何知道哪个AI的回答是靠谱的?又有多少人会选择正确的AI获取信息呢?还能有多少人会去考证从AI获取的信息呢?
而这,恰恰是AIGC给舆论带来的巨大隐患。
堤中蚁穴的隐患
AIGC完全可以将“开局一张图,故事全靠编”发挥到极致——毕竟现在就已经很不错了。虽然现在有人会对着一些网上流传的故事,打下“一眼AI编的”评论,但是或许对大部分人而言,这已经没有那么容易了:那些故事里有明确的时间、地点、人物,各种描述栩栩如生,再配上几张图片,甚至照片——看上去还真是那么回事!当然,仔细去推敲和追溯,自然能将AI编造的故事戳破,但是问题在于——谁有那么多时间去考究呢?更何况,“造谣一张嘴,辟谣跑断腿”,大概率是有人辛辛苦苦考证了半天,证明这是AI编的,但是无人关心。
另一方面,AI确实是在不停地学习——所以,也很可能包括了“AIGC”本身。这就会陷入一个循环:某些人用AI编造了一些看上去是真的故事,然后AI对这些故事进行了学习,并将这些故事判断为“真”,然后通过引用等方式进一步加强这些故事的真实性,或者直接用AI完善这些故事的真实性,从而达到自己的某些目的。这听上去很扯淡,但是既然有人为了玩一个跑团游戏在维基百科上编写了十万字的“史料”,那在AI的帮助下,做这种事显然只会更加得心应手。
如此使用的AIGC就会成为破坏舆论大堤的蚁穴:一个个用AI编造的故事会成为佐证某些人观点的论据——甚至可能并不需要佐证,以当前网民的状态,能够加固目标网民的观点就已经是一种成功;然后当这样的故事大量以假乱真地存在于互联网当中的时候,就会真正地污染AI的学习样本,从而引导AI做出错误的回答。或许目前来看,这种行为并不那么常见,影响也并不那么大,但是将来呢?随着这类的“AIGC样本”越来越多呢?等到这类“量变”引发“质变”的时候,还来得及吗?
轻信的大众
肯定会有人问:谁会信这些故事啊?
然而,现实是,大概率是大部分人,都会相信符合自己观点的故事——尤其是当这些故事看上去异常真实的时候。要知道,全中国拥有本科及以上学历的人,占比不到15%。虽然我们可以认为,学历不一定代表能力,但是至少学历很大程度上能证明一个人的思维能力——这不是完全归纳,而是不完全归纳和概率。
我再换种说法,即使是拥有本科学历的人,又一定能代表有很强的分辨能力吗?相信不少能看到我这篇文章的人,自己或者周围的同学与同事有不少也都是有本科学历的,你们有多少时候觉得自己身边那群是(友好度)呢?
我再退一步,有多少老年人相信朋友圈里各种“高科技”和“健康”资讯呢?而那些AI编造出来的故事,又何尝不是青年人和中年人的“高科技”和“健康”资讯呢?
现实就是,当人们看到能证明自己所相信的观点的事件时,会更倾向于相信,而非考证。当AI编造的故事更为生动形象具体,就更不容易让人产生考证的冲动——何况,考证然后辟谣的成本要远大于别人看一眼相信的成本;而通过编造故事来加深固有观点的行为,从来不是让反对出来辟谣的,而是加强观点的持有者的偏见的。
我毫不怀疑,随着AI的发展,互联网上的舆论战和信息战会进入更为混乱的局面,我们会更难分辨真实的信息,也更容易因为某些编造的事件加深自己的固有观点。
监管?怎么监管
自从ChatGPT诞生开始,关于AIGC的监管就在全球被放上议程。但是,当时主要考虑的层面在于对于企业内部信息泄露的威胁,以及一些各国政治正确性观点的风险——似乎极少有人提到我这里提到的“编造的故事带来的意识形态变化”。
也许我们确实应该对AI编造的故事进行监管,但是怎么监管呢?毕竟要求打上“有AI虚构”之类的标签并不现实,因为本身这类信息很难分辨,这么做会极大增加平台的成本和执法的成本。
另一方面,我们对舆论的监管更偏向于“正在引发舆情的事件”——人们更愿意关注正在发生的事件,并且希望通过舆情的力量影响后续事件的发展。但是,编造的故事往往会将故事的时间线放在过去,并且整个事件会有一个结尾,从而不会成为“正在发生的事件”,也就是对于读者而言,自己的想法和行为并不会影响到这个事件的结果——个体也就自然很难有引发舆情的动力;没有爆发的舆情,监管自然就很难介入,也无从介入。
然而,这些“故事”却会给有心的读者留下记忆,作为加深他们刻板印象和观点的论据;而这种意识形态的改变,或许就很难被纠正。
最后
我估计可能会有语文没学好的人会觉得我在唱衰AI。事实恰恰想法:正因为我相信AI的能力会越来越强,才会对这些越来越“真实”的故事感到不安。AI是一个优秀的工具,但是工具是用来助人、救人,还是用来伤人、害人,这全取决于使用者。
然而,我只是希望有人能够意识到,AI带来的威胁不只是明面上、立竿见影的威胁,也有许多“温水煮青蛙”式的隐患,会在不经意中慢慢积攒,然后在某个不知道的时间点突然爆发。
我们希望AI带来的,是一个信息更为透明,能更为快速、准确找到自己所需信息的时代,而不是一个在无数AI编造的虚假信息的混乱时代。
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...