⚠️ 重要提醒 AI 是你的強力助手,但不是全知全能的神。它可能自信滿滿地給你錯誤的答案——這在 AI 領域叫做「幻覺」(Hallucination)。這篇教你如何辨識和防範。
AI 幻覺是什麼?
AI 幻覺是指 AI 模型生成的內容看起來合理、充滿信心,但實際上是錯誤或虛構的。
真實案例
- 捏造學術論文:AI 會編出不存在的論文標題和作者,格式完美但根本查不到
- 錯誤的法律條文:美國曾有律師引用 ChatGPT 給的案例,結果法官發現那些案例全是 AI 編的
- 虛構的歷史事件:AI 可能把不同事件混在一起,創造出一個「聽起來像真的」的假故事
- 過時資訊:AI 的訓練資料有截止日,它可能用去年的資訊回答今年的問題
為什麼會這樣?
AI 的本質是「預測下一個最可能的字」,而不是「查詢事實資料庫」。它像一個讀了很多書的學生——能說出很多聽起來對的東西,但不代表每句話都經過驗證。
💡 關鍵概念 AI 不是在「回憶」知識,而是在「生成」看起來合理的文字。這就是為什麼它會犯錯卻顯得很有自信。
5 個事實查核技巧
技巧 1:直接問 AI「你確定嗎?」 🤔
最簡單的方法:當 AI 給出具體數字、日期或事實,追問一句:
「你剛才說的那個數據有來源嗎?你確定是正確的嗎?」
很多時候,AI 會在被質疑後自我修正:「抱歉,我之前的說法不夠精確,實際上⋯」
⚠️ 注意: 這不是萬靈丹。AI 有時會堅持錯誤答案,甚至編造假來源來「證明」自己。
技巧 2:用搜尋引擎交叉驗證 🔎
最可靠的方法。 把 AI 的關鍵陳述丟到搜尋引擎驗證:
- AI 說:「台灣的 GDP 在 2025 年成長了 4.2%」
- 你搜尋:「台灣 2025 GDP 成長率」
- 對照官方數據(主計總處、央行等)
推薦搭配 Perplexity — 它的回答會附上來源連結,方便直接查核。
技巧 3:辨識「太完美」的回答 ✨
AI 幻覺有幾個常見特徵:
| 紅旗信號 🚩 | 說明 |
|---|---|
| 大量精確數字 | 「市場成長 23.7%」「佔比 41.3%」— 越精確越可疑 |
| 完美的引用格式 | 「根據 Smith et al. (2024)⋯」— 可能是編的 |
| 過度自信的語氣 | 「毫無疑問地⋯」「事實證明⋯」— AI 越自信你越該懷疑 |
| 無法找到的來源 | AI 給的 URL 打開是 404,論文搜不到 |
| 聽起來像維基百科 | 太像教科書的敘述,可能是混合多個來源拼湊的 |
技巧 4:用不同 AI 交叉比對 🔄
同一個問題問不同的 AI:
- ChatGPT 說 A
- Claude 說 B
- Perplexity(附來源)說 C
如果三家的答案一致,可信度就高很多。如果有分歧,就針對分歧點去查證。
技巧 5:區分「事實」和「觀點」 ⚖️
AI 很擅長把觀點包裝成事實。學會區分:
| 類型 | 範例 | 可信度 |
|---|---|---|
| 可驗證的事實 | 「台北 101 高度 508 公尺」 | 高,但仍要查 |
| 統計數據 | 「2025 年 AI 市場規模達 X 億美元」 | 中等,數字可能不準確 |
| 專業判斷 | 「這個投資策略風險較低」 | 低,是觀點不是事實 |
| 預測 | 「AI 將在 2030 年取代 30% 的工作」 | 很低,純屬推測 |
💡 黃金原則: 越重要的決定(健康、法律、財務),越不能只靠 AI 的回答。一定要諮詢專業人士。
哪些場景特別容易出錯?
❌ 高風險場景(一定要查核)
- 醫療健康建議
- 法律條文引用
- 財務投資決策
- 學術研究引用
- 新聞事實陳述
✅ 低風險場景(AI 通常可靠)
- 文字潤稿 / 翻譯
- 程式碼撰寫(可以直接跑看看)
- 腦力激盪 / 創意發想
- 格式轉換(表格、條列式⋯)
- 摘要整理
AI 自己在進步
好消息是,AI 幻覺問題正在快速改善:
- 搜尋增強生成(RAG):讓 AI 先搜尋再回答,而非只靠記憶
- 引用來源:Perplexity 等工具會附上參考連結
- 信心指標:部分模型開始標示自己的「不確定程度」
- 即時資料:越來越多 AI 能存取即時網路資訊
但在這些技術完全成熟之前,你的判斷力仍然是最後一道防線。這也是為什麼後設認知——知道自己不知道什麼——是 AI 時代最重要的能力。
常見問題
AI 說的話有幾成是對的?
這取決於問題類型。常識性問題(如「水的化學式是什麼」)準確率接近 100%。但具體數據、日期、引用來源的準確率可能只有 70-80%。越新、越冷門的資訊越容易出錯。
有沒有完全不會幻覺的 AI?
目前沒有。但搜尋增強型的 AI(如 Perplexity、ChatGPT 搜尋模式)幻覺率明顯較低,因為它們的回答是基於即時搜尋結果而非純靠記憶。
AI 給的程式碼也會有問題嗎?
會,但程式碼比文字容易驗證——直接執行就知道對不對。大部分 AI 生成的程式碼在基本功能上是正確的,但邊界情況(edge case)可能有 bug。建議一定要測試。