跳至主要内容

幻覺

· 閱讀時間約 2 分鐘

大型語言模型(俗稱「AI 聊天機器人」)常常會吐出不準確或是完全捏造的訊息。當它這樣做的時候,我們叫它 Hallucination(幻覺、唬爛、鬼扯)。

「幻覺」並不是 bug,大型語言模型本來就是這樣運作的:它只是根據前面已經出現的文字,推測「最有可能出現的下一個字」而已。只不過,模型認為的「最有可能出現的文字」,不見得與真實世界的情況相符。

人類不也是這樣嗎?我們每天都在把「自己認為最可能的推論」直接當作事實來看待呀!

  • 🛍️ 「這個 YouTuber 很紅 → 他推薦的商品一定很好用!」……幻覺!
  • ❤️ 「我的貼文得到了好多愛心 → 大家覺得我很重要!」……幻覺!
  • 📱 「iPhone 有三個鏡頭 → 我的生活品質會提升!」……幻覺!
  • 👍 「這則貼文有三萬個讚 → 內容一定是真相!」……幻覺!
  • 👜 「她都拿名牌包包 → 她一定很有錢!」……幻覺!
  • ⏰ 「他總是遲到 → 這個人沒責任感!」……好吧,這可能是事實。

看吧,一切都是幻覺,那只不過是大腦裡的神經元基於貧乏的訓練資料,推論出的「最可能的下一步」而已。

差別只是,比起 AI,人類比較不願意承認自己正在 hallucinate。