回到頂部

🫧 AI 幻覺是什麼?為什麼 AI 會一本正經地胡說八道

AI 會捏造論文、編出假數據、虛構歷史事件,而且說得超有自信?深入了解「AI 幻覺」的原因、類型和應對方法。

你問 AI:「推薦幾篇關於 AI 教育的學術論文」 AI 回答:「Smith, J. (2024). The Impact of AI on Higher Education Pedagogy. Journal of Educational Technology, 45(3), 112-128.」

格式完美、看起來超專業——但你去查,這篇論文根本不存在

這就是「AI 幻覺」。


AI 幻覺的定義

AI 幻覺(AI Hallucination) 是指 AI 模型生成看起來合理、格式正確、語氣自信,但實際上是錯誤、虛構或誤導的內容。

它不是 AI「故意騙你」——AI 沒有「故意」的概念。它只是在做它最擅長的事:預測下一個最可能的字


為什麼會這樣?

AI 的本質是「文字接龍」

想像一個超級厲害的文字接龍選手。你說「今天天氣」,他會說「很好」,因為這個組合最常出現。但他不是看了窗外才說「很好」——他只是根據「統計上最可能的下一個字」在接龍。

AI 也一樣。當你問它一個問題,它不是去「查資料庫的正確答案」,而是:

  1. 看你的問題
  2. 根據訓練時讀過的大量文字
  3. 預測「最可能的回答應該長什麼樣子」

所以它能產出格式完美的論文引用——因為它讀過成千上萬的論文引用格式。但「格式正確」不代表「內容真實」。


幻覺的 5 種類型

1. 捏造事實 🏗️

AI 創造完全不存在的事實。

範例: 「愛因斯坦在 1920 年發表了《量子意識論》」← 這篇論文不存在

2. 張冠李戴 🔄

把不同事件、人物、數據混在一起。

範例: 把 A 公司的營收數據套在 B 公司上

3. 過度推論 📈

從有限的資訊做出過度自信的結論。

範例: 「根據趨勢分析,AI 市場在 2027 年必定達到 5000 億美元」

4. 偽造來源 📚

編造看起來很專業的參考來源、網址或論文。

範例: 給你一個完美格式的 DOI 碼和期刊引用,但連結打開是 404

5. 過時資訊 📅

用訓練資料截止日之前的舊資訊回答現在的問題。

範例: 2026 年問它某公司 CEO 是誰,它回答的是 2024 年的 CEO


哪些情況最容易幻覺?

容易幻覺不容易幻覺
冷門知識、小眾領域常識性知識
具體日期、數字概念性解釋
即時新聞、最新事件基礎科學原理
特定人物的具體言論通用技能教學
學術論文引用程式碼(可以直接測試)

怎麼防範?

詳細的防範技巧請看 AI 事實查核指南。這裡列出 3 個最重要的原則:

原則 1:越重要的事越要查核

AI 說的料理食譜錯了?頂多不好吃。AI 說的醫療建議錯了?可能出大事。

原則 2:看到數字就懷疑

AI 給你的具體數字(百分比、金額、日期)有很高的幻覺機率。用搜尋引擎驗證。

原則 3:用搜尋型 AI 交叉驗證

Perplexity 等搜尋增強型 AI 的幻覺率明顯較低,因為它們基於即時搜尋結果回答,而且附上來源連結。


好消息:AI 在進步

AI 幻覺問題正在快速改善:

  • RAG 技術: 讓 AI 先檢索資料再回答,大幅降低幻覺
  • 搜尋增強: ChatGPT 搜尋模式、Perplexity 即時搜尋
  • 自我檢查: 新模型會先「想一想」再回答,減少衝動性錯誤
  • 信心指標: 未來可能標示「這個回答我有 90% 把握」

但在完全解決之前,你的判斷力就是最好的防線。這也呼應了 AI 時代最重要的三項能力:邏輯、審美、後設認知。


常見問題

AI 是在「故意」騙我嗎?
不是。AI 沒有「故意」的概念。它只是在做「預測最可能的下一個字」。有時候「最可能的文字組合」恰好不是事實。就像自動完成功能有時會預測錯一樣,只是 AI 版本的錯誤更隱蔽。
有沒有不幻覺的 AI?
目前沒有任何 AI 能保證 100% 不幻覺。但「搜尋增強型」的 AI(如 Perplexity)幻覺率最低,因為它們的答案基於即時搜尋結果,而非純靠「記憶」。
我怎麼知道 AI 什麼時候在幻覺?
紅旗信號:極度精確的數字、完美的引用格式、過度自信的語氣、無法驗證的來源。最可靠的方法是用搜尋引擎交叉驗證。詳見 事實查核指南

📚 延伸閱讀