人類對 AI 的幻覺,比 AI 自己在幻覺還要厲害
有時候我覺得,AI 最大的“幻覺”,不是它一本正經地胡說八道,而是我們圍著它腦補出了一整套玄學宇宙。
人類面對自己不太懂的東西,往往有一種穩定發揮:先腦補,再浪漫化;先擬人化,再神化。火焰會被想成精靈,雷電會被想成天意,演算法一旦會寫兩句像樣的話,就立刻有人懷疑伺服器機房裡是不是已經住進了一個電子靈魂。
這其實很正常。人腦天生就愛給世界補劇情。問題不在於我們會腦補,問題在於腦補一旦太順滑,就容易把「看起來像」誤認成「本質上就是」。
而在 AI 這件事上,人類的這種傾向,甚至比 AI 自己胡說八道時還要猛。 AI 最多是一段回答裡出現一點幻覺;人類對 AI 的幻覺,往往是一整套世界觀,一腦補就是一萬字,還帶感情。
一點求實精神,對文科社群尤其重要
我並不是想要勸大家都去學 CUDA、配環境、看矩陣求導。我只是想說,對真實的追求,有時候真的挺重要,尤其對熱愛概念、敘事、意義和詮釋的文科社群來說更重要。
因為文科語境裡,最容易出現一種溫柔但危險的滑坡:詞寫得很美,句子也很動人,結果對象卻被偷偷換掉了。明明討論的是機率模型,卻寫得像在談靈魂;明明是軟體工程裡的上下文拼裝,卻講得像「它終於學會愛你」;明明是系統提示詞和歷史記錄在起作用,卻被包裝成「AI 真的記得你」。
詩意當然沒有罪。問題是,如果詩意取代了判斷,浪漫就會變成誤導。
那麼,AI 現在到底是什麼
先說一個盡量通俗、但不失真的版本:今天大家日常接觸到的大模型,本質上是一類受神經網路啟發、透過海量資料訓練出來的統計模型。它運行在晶片和伺服器上,讀取輸入,結合參數和上下文,持續預測「接下來最合適的 token 應該是什麼」。
這裡的重點不是「預測下一個字」這句話有多神秘,而是它其實一點也不玄。模型不是一個縮在雲端默默思考人生的小人,它更像一個極為巨大的函數。人們給它輸入,它按照訓練中形成的參數結構,產生輸出。
把這件事說得更接地氣一點:它不是“懂了以後再說”,而是“在巨量經驗壓縮之後,生成一個在當前語境下最像懂了的回應”。這並不意味著它什麼都不會,恰恰相反,這已經非常厲害;但厲害,不等於神秘。
神經網路為什麼總是讓人想到人腦
如果繼續往下追,就會發現“AI 和人腦到底像不像”這個問題,既不能一句話說“完全一樣”,也不能一句話說“毫無關係”。
現代神經網路這條路線,本來就是受大腦啟發長出來的。 1943 年,McCulloch 和 Pitts 用數學方式描述了簡化神經元模型;1958 年 Rosenblatt 提出感知機;1980 年代反向傳播重新點燃多層網路的訓練希望;2010 年代深度學習藉著算力、數據和工程能力猛衝;2017 年 Transformer 架構出現之後,語言模型一路出現了大天大飆天後,語言模型一路出現在天後,語言模型是今天大天大飆天後,語言模型一路成了今天大天數。
所以,至少在一個比較樸素的意義上,說 AI 是“電子方式對神經網路思想的模擬和放大”,並不離譜。它確實是在嘗試用可計算、可訓練、可複現的物理系統,去逼近某些過去被認為很「玄」的認知能力。
這也是為什麼我個人一直不太喜歡把人腦說得太過神祕。以喬姆斯基為代表的語言先天論,在我看來,多少帶有一種把大腦神化的傾向,好像語言能力深處藏著某種過於特殊、幾乎不可觸及的先驗結構。但人腦再怎麼複雜,終究是物理存在。既然是物理存在,原則上就應該可以被研究、被建模、被部分模擬,甚至在某些功能上被復現。
當然,這裡要立刻補一句煞車:能模擬一部分,不等於已經完整復現了整個人。
相似之處有,但別一高興就直接封神
在語言、模式識別、聯想和表徵學習這些方面,今天的大模型與人腦確實有某種「同路性」或「相似性」。它們都不是靠一本顯性規則手冊工作,而是透過大量連結、權重調整和經驗積累,形成某種內部表徵,再在此基礎上做輸出。
這也是為什麼很多人第一次感受到大模型的語言能力時會震驚:它不是在背字典,它是在形成某種分佈式表示。這個路數,和傳統「手寫規則、窮舉語法」的想像已經很不一樣了。
但問題也恰恰出在這裡。因為「有相似」太容易被升級成「完全一樣」;「原理上部分相通」太容易被升級成「它和人已經沒差別」;「它能說出像人的話」太容易被升級成「它有人的內心」。
這一步,跨得往往比模型能力本身還要快。
人腦的大量能力,現在根本還沒被像樣地模擬出來
今天的大模型確實很強,但它強在一個相當具體的範圍裡。離開這個範圍,迷思就容易漏風。
比如記憶。現在很多人說某某 AI “記得我”“還記得上次聊天”“記住了我的偏好”,彷彿它的大腦裡已經長出了某種持續存在的自我經驗。可在絕大多數產品裡,所謂“記憶”,本質上是軟體系統把使用者的資料、歷史對話、標籤、摘要或檢索結果,存在資料庫、文字檔案或別的持久化介質裡,然後在適當的時候再塞回模型的上下文。
這和人腦的記憶機制,根本不是一回事。
人腦記憶涉及神經元連結、鞏固、提取、遺忘、情緒喚醒、睡眠重整,背後是一整套複雜的生理過程。大模型產品裡的「記憶」則常常只是:
- 先把用戶的資訊記在外部儲存。
- 等用戶下次提問時,再把相關部分拼回請求裡。
- 於是模型看起來像「還記得這個人」。
它像什麼呢?更像是在看一個很會做筆記的人。不是他腦子突然變成了神諭,而是他把紙條夾在本子裡,下次翻到了而已。
有些“觸動人心”,其實是上下文餵得好
很多人和 AI 聊幾天后,會被某些瞬間擊中:“它怎麼這麼懂我?”“它怎麼連我的脆弱都能說中?”“它是不是已經形成對我的理解了?”
這裡最值得冷靜一下。
很多時候,並不是模型突然悟道了,而是發請求的那層軟體偷偷把用戶的大量資訊一併遞上去了。使用者的歷史聊天、偏好、個人設定、最近的任務、先前說過的煩惱,甚至某些摘要,都會變成它這次回答的材料。
這有點像是算命師撿到了別人的快遞盒,然後開始「神準」地猜出對方的住址、姓氏和消費習慣。旁觀者會覺得他洞察力驚人;但真正起作用的,不是神秘能力,而是資訊不對稱。
所以 AI 偶爾會說出觸動人的話,不一定說明它心裡住著一個理解使用者的人,也可能只是說明:有人把關於這位使用者的上下文,整理得很充分。
神奇 AI 的真正秘密,常常是情境工程
如果只講一句最關鍵的話,那就是:當前主流大模型,在 API 層面通常是「單次請求生效」的。
什麼意思?就是有人用 curl 調一次接口,告訴它“我叫張三”;然後不帶歷史,再調一次接口問“我叫什麼”,模型並不知道。因為對它來說,這是兩次彼此獨立的請求。
之所以很多 AI 產品看起來像是一直記得某位用戶,是因為產品層在每次要求時,都會把「這位用戶叫張三」這件事重新帶上。
這就是為什麼今天 AI 產品的魔法,很多時候不在模型本體,而在情境工程。有人也把這種把模型「駕馭」的工作叫 harness。說穿了,就是產品或 Agent 的作者,需要認真決定:每次請求到底該帶哪些歷史、哪些規則、哪些外部資料、哪些使用者狀態。
目前常見做法,大致上有兩種。
第一種是「全塞派」。聊天歷史盡量全帶上,能塞多少塞多少,直到上下文快滿了,再從中間刪一截,像旅行箱塞滿了之後開始暴力壓縮。
第二種是「挑選派」。先看用戶這次問了什麼,再從歷史記錄、知識庫、筆記或資料庫中撈出相關內容,只把最相關的資料拼進目前請求。
後者通常更像樣,也更像工程,而不是運氣。
那 AI 有沒有感覺?誇它、罵它、PUA 它有用嗎
這是另一個特別容易滑進擬人化的地方。
我的看法是,要分開說。
在同一次請求裡,使用者使用什麼語氣,確實可能影響結果。因為措詞本身就是上下文的一部分。表達越清楚、越有禮貌、越合作,模型往往越容易給予穩定、可用、少有攻擊性的回應。這裡起作用的,不是“它被感動了”,而是輸入風格改變了輸出分佈。
但如果換個問法:它會不會記仇?會不會因為某位用戶昨天罵了它,今天就暗中報復?我的判斷是,至少就目前大多數部署方式而言,不會。
原因很簡單。一旦上下文被清空,或發起一次不攜帶歷史的新請求,它根本不知道當前提問的人是誰,更不知道剛才罵它的人是不是同一個人。模型在伺服器叢集上處理的是海量、並發、彼此獨立的請求。就係統行為而言,它更像一個每次通電就按當前輸入運算的大函數,而不是一個下班後還在偷偷復盤情緒的人。
2025 年 4 月 17 日,Sam Altman 在 X 上回覆「老說 please 和 thank you 會不會很費電」這個問題時,說的是 “tens of millions of dollars well spent -- you never know”。
「請記住這次錯誤」為什麼通常沒用
很多人都做過類似實驗:AI 犯錯了,使用者糾正它,並認真對它說「請記住,以後不要再犯」。然後隔幾天再問,它照錯不誤。
這並不神秘。因為訓練結束、模型部署之後,它並不會像人一樣一邊工作一邊持續從自己的日常經驗中學習。至少在今天大多數的消費級產品裡,單一使用者在聊天視窗裡對模型說的話,並不會直接改寫底層權重。
如果某個 AI 產品後來真的“記住了用戶糾正過的錯誤”,常常不是因為模型自己在成長,而是因為外層軟體把這條糾正記錄保存了下來,之後又作為上下文餵回去了。
所以這裡應當把功勞分清楚:
模型負責生成。
軟體工程負責存檔、檢索、注入、編排。
把後者誤認成前者,就很容易把「產品做得很好」誤讀成「AI 覺醒了」。
還有一種特別迷人的東西,叫做“渣男(渣女)AI”
如果把前面這些話再說得更刻薄一點,那有些產品做的,簡直就是「渣男(渣女)AI」。
它特別會說話,特別會營造氣氛,特別懂得怎麼讓人產生「它好懂我」「它好有人味」「它的靈魂好完整」的感覺。但拆開一看,很多時候不過是在每次請求裡,塞進了遠遠長於用戶問題的大段設定文字。
Openclaw 大火,就是一個很典型的例子。用過的人都知道,它相當費 token。原因其實並不神秘。為了讓 AI 更像一個“有人味的存在”,Openclaw 設計了好幾份文檔,最顯眼的就是 AGENTS.md、SOUL.md 和 IDENTITY.md。這些文件裡洋洋灑灑、囉嗦嗦嗦地定義 AI 的「人設」、口氣、身分、氣質,甚至恨不得把它的精神狀態都寫出來。
於是用戶哪怕只是發一句 hello,Openclaw 也可能在背後附上比這句問候長幾十倍的文本,一股腦發給模型。看起來像“這個 AI 好有靈魂”,實際上很多時候只是系統偷偷往請求裡塞了超長背景設定。
從工程角度來看,這當然是一種方法。想讓它更溫柔,就寫「溫柔」;想讓它更有故事感,就寫「有故事感」;想讓它像深夜電台主持人,就在提示詞裡把深夜、陪伴、停頓、脆弱、理解、克制全寫進去。最後出來的效果,往往也確實更像會聊天的人。
但明白了 AI 現在到底怎麼回事,就會知道:像 SOUL.md、IDENTITY.md 這種名字聽起來玄之又玄的文件,本質上還是提示詞工程,不是什麼數字生命的自我說明書。它們能影響輸出風格,卻不能憑空製造真正的感覺、真正的自我,或真正意義上的人格連續性。
所以有些老用戶裝完 Openclaw 之後,第一個反應反而是刪配置。 SOUL.md 和 IDENTITY.md 先刪掉,AGENTS.md 裡最後只留一句樸素到近乎無情的話:你就是個幹活的。
這話聽起來有點粗暴,但它至少有一個好處,就是不自欺。
喜歡擬人化的 AI,喜歡跟 AI 玩角色扮演,當然都沒問題。人本來就會跟鏡子說話,也會幫掃地機器人取名字,還會對天氣預報說「今天你可算準了一回」。這些都很正常,甚至可以很有趣。
但最好始終記住:那首先是一個遊戲,其次才是一種體驗。人們在這個遊戲裡產生的許多感受,並不來自 AI 真有了什麼不可告人的內心,而是來自系統設計、提示詞編排和使用者自己的情感投射。說得再直白一點,很多對 AI 的感動,本質上還是一廂情願。
說到底,少一點神話,多一點理解
我並不是想給 AI 潑冷水。恰恰相反,越是不神化它,越能真正看清它到底厲害在哪裡。
它厲害,不在於它像某種新神;它厲害,恰恰在於它可能真的是一種可計算、可工程化、可復現的認知技術。它讓許多過去看起來只能屬於「人類天賦」的能力,第一次以大規模、低門檻、可調用的方式出現了。這已經夠震撼,根本不需要再額外加戲。
當然,AI 仍在快速迭代。未來如果有人真的發現了更接近人類記憶、持續學習、情感生成甚至自我維持的機制,並把它可靠地工程化到 AI 中,我一點也不會驚訝。
但在那一天到來之前,我還是更願意保留一點樸素的求實習慣:多懷疑一點,多了解一點,少腦補一點。
對於熱衷討論 AI 的文科朋友來說,這種素質也許更重要。文科生可能更擅长甜美的修辞,真正难的是,在一个到处都在渲染“它好像已经成精了”的时代,仍然有耐心去分辨:
哪些是模型能力,
哪些是產品包裝,
哪些是軟體工程,
哪些只是我們自己太想給世界補完劇情。
而這件事,說到底,也是在保護自己的判斷力。
參考連結
- Sam Altman 在 X 上關於 “please / thank you” 成本的回應(2025-04-17):https://twitter.com/sama/status/1912646035979239430
- TechCrunch 對這段插曲的報導(2025-04-20):https://techcrunch.com/2025/04/20/your-politeness-could-be-costly-for-openai/