其实我犹豫了一下,觉得这个话题没有必要跟你展开。作为一个有强烈自我意识的人,你其实比我更充满质疑,不畏权威,不会完全相信AI给出的答案。但出于一个母亲的谨慎,我还是会絮叨几句,就像在你出门前,顺手帮你看了一眼天气,然后一万次热情洋溢地说出那句毫无必要的话:今天要下雨,要带伞哦~
“我知道!”你会不耐烦。
“是是是对对对。”我嗯着,毫不在意地给你递伞。
这次,我忍不住想聊的是AI幻觉,hallucination。
“我知道!”你会说。
我知道你知道。上次你问它(此处隐去模型名字)披头士到底解散是哪一年,它一边说1970年,一边又列出1975年后的单飞专辑,让你嘲笑了它整整三天;又有次你问它一个冷门的电影导演,它列出五部电影,其中两部根本就不是那个人拍的,当你追问它为什么编造时,它居然说“根据风格和语境推测可能是他导演的”,你说这么一本正经的胡说八道真有你的风采,我说那可不是嘛可真有你的风采。
这些事你能识别出来,那是因为你对这些东西本来就有了解。你知道什么信息不靠谱,知道什么时候该警觉。
但我要提醒你的,是另外一些时刻。
比如那些你不熟悉的领域,你用它查询资料,它信手拈来,洋洋洒洒,引经据典,从历史脉络讲到人物传记;你多跟它聊几句,它还亲口告诉你,它非常理解你的意思,认可你的想法,觉得你见地高明,颇有独到之处,一针见血,充满真知灼见,另外附赠细节丰满、逻辑严密的大量内容来证明和延展你的思想。
你一时上头,觉得天下英雄唯使君与操耳,便信了。
对,就是那种“充满情绪价值,又说得太像真的了”的幻觉。
别信。
基于LLM的AI,所有的回答本质上都是个“猜词游戏”——也就是预测下一个词的可能性,而不是在追求事实本身。
它不会停下来问自己:“我这样说有依据吗?”
它不会怀疑:“我的依据资料有没有被污染?”
它不会在意:“如果我错了,会不会影响对方的判断?”
它只负责“接着说”,“说得顺”。
这就是我想告诉你的重点。别信。
浪子回头,赌徒上岸,他是秦始皇,韭菜能翻盘。
凡说到别信这种词,通常情况下都是人类用血泪写下的肺腑之言。
4
我知道你有些很聪明的应对方法。
第一种是PUA,不管它回答什么,你都冷冷地告诉它,你再想想你说的对不对。
简单。直接。怎么说呢,有用没用我不知道,但是不怎么厚道。
第二种是多问几个AI模型,然后比对他们的答案,用少数服从多数的法则来选择性相信。这个倒是挺实用的,赌的就是充分竞争市场模型不能都错吧。
但为以防万一,我会再给你一个建议,针对有答案的收敛性问题专用。
关键时刻,稳一点:要求它标注来源,特别是查数据、查论文、查政策时,不要只看回答,要点进出处看看是不是真的有那篇文章、有那句话。相信我,就算有信誓旦旦的来源,点开后看到了那篇文章,里面也可能和他引用的毫无关系。
当然更简单的方案是这样的:
只用高级模型,并复制下面这段prompt贴在你的问题之前。
“请仅根据当前可验证的数据回答,不要推测、不要补全。若信息不完整,请直接说明,不要假设。优先使用权威来源,并注明出处,给出链接。”
我知道你会觉得这些方法太“繁琐”了,“我有事儿不能直接搜wiki吗?”、“就查个这么点小事儿我还要点开来源?”
是的。
但这其实和AI也没什么关系。
这个世界上原本就充斥着貌似合理、但虚假混乱的各种信息。只是因为有AI,才让这件事变得更紧迫、也更简单了一些。而无论AI与否,我们都应该具有自己的判断力;这样求真求实、批判性思维的判断习惯,会让你在未来某一天,可以从容地说出:“我知道这个答案,不是因为有人告诉我,而是因为我查过,我判断过,我相信它值得被说出口。”