
文/張杰倫
在人工智慧技術突飛猛進的今天,ChatGPT 或 Gemini 等大型語言模型(LLM)已成為我們工作與生活的好幫手。然而,當你問它一個不存在的歷史事件,或是請它列出某個學術領域的參考文獻時,它可能會吐出一串看起來極其專業、邏輯通順,但卻「完全虛構」的內容。這種現象在業界被稱為「AI 幻覺」(Hallucination),也就是我們常戲稱的 AI 妄想症。
為什麼 AI 會產生幻覺?
要理解 AI 為什麼會「妄想」,首先要明白它的運作本質。大型語言模型本質上是一個極其強大的「機率預測機器」。它並不像人類一樣擁有真正的意識或理解能力,而是透過分析海量文本數據,去預測下一個字(Token)出現的機率。
當 AI 遇到它不知道的答案,或者其訓練數據中存在矛盾、稀缺時,它的目標並不是「誠實回答不知道」,而是「完成這段對話」。在這種機率優先的機制下,AI 會根據上下文的關聯性,自動編織出一套聽起來非常合理但事實錯誤的內容。這就像是一位極度自信的學生,即使沒讀書,也能在考場上靠著強大的修辭能力寫出一篇看似深奧的廢話。
AI 妄想症的潛在風險
這種「一本正經胡說八道」的特性,在不同場景下會帶來不同程度的影響:
- 錯誤資訊的傳播:如果使用者將 AI 產生的錯誤數據直接引用在新聞、研究報告或政令宣導中,將會導致社會大眾對事實的認知偏差。
- 法律與醫療危機:影片中提到,若將 AI 用於法律檢索或醫療診斷,其幻覺產生的虛假法條或診斷建議,可能會導致法律訴訟失敗,甚至危害生命安全。
- 信任危機:當幻覺發生的頻率過高,使用者對 AI 的信任度會大幅下降,進而阻礙這項科技在各產業的深度應用。
如何與「愛幻想」的 AI 共處?
面對 AI 妄想症,我們不應因噎廢食,而應採取正確的應對策略。首先,「查證」是核心關鍵。對於 AI 提供的任何事實性數據、姓名、日期或專業建議,使用者必須保持懷疑態度,並透過可靠的第三方資料庫進行複查。
其次,業界正開發如 RAG(檢索增強生成)等技術,讓 AI 在回答前先去搜尋外部可信的資料庫,以降低其胡亂猜測的機會。
總結來說,AI 妄想症是當前技術階段的必然產物。它既是 AI 強大創造力的副作用,也是我們使用工具時必須時刻警惕的陷阱。了解它的局限性,我們才能更安全、有效地駕馭這股數位洪流。

