2025-11-19
黃正傑
50
生成式AI幻覺又一起,律師因此而可能丟掉飯碗。企業運用生成式AI時,要怎麼防止AI幻覺呢?本文簡介了AI幻覺發生原因,並說明企業實施時,可以運用RAG、提示詞模板、知識圖譜、輸出驗證、數據品質管理等技術與手法協助。企業的課題,不是「要不要用 AI」,而是如何讓 AI 說真話、做對事,成為可信賴的智慧夥伴!!

AI幻覺造成的問題又添一樁!! 據紐約時報報導,一名美國德州的律師,向法院提交文件時,引用了不存在的「1985 年布拉舍訴史都華案」,以及其他31條AI捏造的引證。法官嚴厲批評,將律師移交州律師協會懲戒並命令接受六小時AI教育課程。
運用AI要如何避免AI幻覺呢?
美國ACM通訊期刊(Communications of the ACM),發表了一篇文章「智慧的代價」,清楚地說明了AI可能的三大風險原因,包含:幻覺、間接的提示注入、越獄。其中,間接地提示注入、越獄屬於資訊安全的漏洞與防護。本篇我們探討減低AI幻覺的方式。
現今生成式AI基於大語言模型(LLM),來自於蒐集大量網路或特定文件的資料,利用演算法進行訓練與推論。目前語言學習模型大都基於Google自注意力Transformer模型,該模型基於龐大的訓練語料庫,逐個詞元進行文本訓練。在訓練過程中,模型並未被賦予明確事實或規則,只是調整數十億個權重,以統計方式模擬人類的文本機率。
以此,模型學習來自於訓練文本的不完美以及詞元的機率統計。想想看,我們說的話、撰寫的文章或者在部落格上發表的評論,有多少接近事實? 前因後果推論邏輯完美呢? 再加上,許多語言模型為了創造性和多樣性的回應,不選擇機率最高而是運用隨機的方式接續生成下一個詞,因而產生偏誤。此外,模型也會從提示詞中捕捉微妙的線索、語境,甚至是偏見,以致於錯誤的提示詞可能造成幻覺的擴大!!
綜合來說,常見的AI幻覺有以下幾種∶
理解AI幻覺的原因後,我們可以進一步思考企業如何運用一些手法來減少幻覺∶
例如: 西門子利用知識圖譜建立產品、物料、零件、設備間的關係以強化數位孿生模擬;
鼎新AI平台將生產、庫存、供應等多元數據資料以知識圖譜建立數據血統(data lineage)關係以正確搜尋ERP數據;
鼎新ChatFile產品結合大語言模型與小語言模型優勢,以快速並正確地綜整多元的企業文件知識。

圖、企業生成式AI減低AI幻覺幾個做法
生成式 AI 的能力令人驚艷,但它的「幻覺」現象提醒我們:
AI 並非萬能,也可能輸出錯誤或虛構資訊。企業若要真正運用 AI 創造價值,必須理解並妥善管理這些風險。
1️⃣ 從根因著手:了解幻覺的本質
AI 並不理解真實世界,它只是根據統計機率預測文字;以此,錯誤的訓練資料、模糊的提示詞、過時知識,都可能讓模型「想像出不存在的事實」。
2️⃣ 用技術手法降低錯誤發生
透過 RAG(檢索增強生成)、提示詞模板、事實查核程式、知識圖譜整合 與 模型微調,企業可以在生成過程中導入正確且即時的資料,減少幻覺產生。
3️⃣ 建立防線:從流程到人員審核
除了技術之外,企業應設置人工審核與資料上傳權限,確保輸出結果的正確性與可信度。
4️⃣ 強化協作:與信賴的AI夥伴共進
導入生成式AI時,應尋找理解企業流程的供應商或整合商,共同建立防幻覺機制、教育訓練與驗證流程,讓AI發揮最大價值。
AI 幻覺不是暫時現象,而是生成式AI的結構性挑戰。企業的課題,不是「要不要用 AI」,而是如何讓 AI 說真話、做對事,成為可信賴的智慧夥伴。
科技轉角巷
1,431 Followers
數智員工
一分鐘體驗 各種企業AI助理
未來企業新進化,AI助理讓營運再升級
科技轉角巷
1,431 Followers
我們使用本身的Cookie和第三方的Cookie進行分析,並根據您的瀏覽習慣和個人資料向您展示與您的偏好相關的廣告。如欲瞭解更多資訊,您可以查閱我們的隱私權政策。