你可能聽過這樣的故事:有人請 ChatGPT 幫忙列出參考文獻,結果拿到一串格式完美、看起來非常專業的引用清單——但實際上,裡面的論文根本不存在。這就是所謂的「AI 虛構文獻」(AI Hallucinated References),也是近年來學術界最擔憂的新興風險之一。
什麼是 AI 虛構文獻?
AI 虛構文獻,指的是由 ChatGPT、Claude、Gemini 等大型語言模型(LLM)生成的、看似真實但實際上並不存在的學術文獻。這些虛構文獻通常具備完整的格式——作者名、論文標題、期刊名稱、年份、卷期號,甚至連 DOI 編號都有,但當你試著去查找原文時,會發現這些論文從未被發表過。
在 AI 研究領域,這種現象被稱為「幻覺」(Hallucination)。AI 並不是故意要騙你,而是它的生成機制本身就會產生這種問題。
為什麼 AI 會「編造」文獻?
要理解這個問題,得先了解大型語言模型的運作方式。ChatGPT 這類工具的本質是一個「文字接龍」系統——它根據前面的文字,預測下一個最可能出現的字詞。當你要求它提供參考文獻時,它會根據訓練資料中學到的「參考文獻長什麼樣子」來生成內容。
問題在於,AI 並沒有一個「學術資料庫」可以查詢。它不會像你上 Google Scholar 一樣去搜尋真實存在的論文。它只是在「模仿」參考文獻的格式和風格,所以生成出來的東西:
- 作者名看起來很合理——因為 AI 學過大量真實作者名,會組合出聽起來像真人的名字
- 期刊名通常是真的——但裡面的那篇論文不存在
- DOI 格式正確——但點進去會顯示「找不到頁面」
- 年份和卷期號看似合理——因為 AI 知道這些數字的合理範圍
簡單來說,AI 擅長「生成看起來像真的東西」,但它無法保證那些東西「真的是真的」。
真實案例:政大博士論文事件
2025 年,國立政治大學一篇博士論文被發現含有多條 AI 生成的虛構參考文獻,事件曝光後引發學術界廣泛討論。這些文獻格式完整、引用方式看似規範,但經過逐一查證後發現,部分文獻在任何學術資料庫中都查不到原文。
這起事件的重要性在於:它讓大家意識到,AI 虛構文獻的問題不是理論上的風險,而是已經真實發生在台灣的學術環境中。從此之後,越來越多的大學和指導教授開始重視文獻真實性的查核工作。
AI 虛構文獻的四大特徵
如果你想辨識一條文獻是否可能是 AI 虛構的,可以注意以下特徵:
- 標題過於「完美對應」你的主題——AI 傾向於生成跟你的研究主題高度相關的標題,真實文獻不太可能每一篇都精準命中你的題目
- Google Scholar 搜不到全文——真實的學術論文幾乎都能在 Google Scholar 或各大資料庫找到紀錄
- DOI 連結失效——在 doi.org 輸入 DOI 後出現錯誤頁面
- 同一批文獻的「風格」過於一致——真實文獻來自不同作者和時期,格式和語氣會有自然差異
對研究生的影響有多嚴重?
使用了含有虛構文獻的論文,後果可能比你想像的嚴重:
- 學位撤銷:如果畢業論文被查出含有虛構文獻,學校有權撤銷已授予的學位
- 論文退稿:期刊在審稿過程中若發現文獻不實,會直接退稿,嚴重者可能被列入黑名單
- 學術信譽受損:在學術社群中,文獻造假是非常嚴重的誠信問題,一旦被發現,對日後的學術生涯影響深遠
- 指導教授連帶受影響:學生的論文出問題,指導教授也會面臨壓力和責任
如何防範 AI 虛構文獻?
最直覺的方法是手動驗證:逐一把每條參考文獻的標題貼到 Google Scholar 搜尋,確認論文存在、作者正確、DOI 可以解析。但如果你的論文有 50 條以上的參考文獻,手動驗證不僅耗時,也容易遺漏。
更有效率的做法是使用自動化的文獻查核工具。快刀 AI 文獻查核的運作方式是:你上傳論文後,系統自動擷取所有參考文獻,接著透過 8 層交叉驗證(包括 Google Scholar、CrossRef、DOI 解析等多個學術資料庫),逐一確認每條文獻的真實性,最後以「確認存在」「存疑」「查無此文獻」三級判定呈現結果。
不論你有沒有使用 AI 輔助寫作,在交出論文前花幾分鐘跑一次文獻查核,都是保護自己的最佳做法。畢竟,就算你自己沒用 AI 產生文獻,也可能在整理資料的過程中,無意間引用了來源有問題的文獻。
快刀 AI 文獻查核,自動比對全球學術資料庫
上傳論文,8 層交叉驗證,幾分鐘查完所有參考文獻的真實性