大模型幻覺困境下,我們該如何使用它?
原創-
2024-08-12 10:53:00
-
30739
本篇目錄
“像我們這樣相信物理學的人都知道,過去、現在和未來之間的區別只是一種頑固執著的幻覺。換句話說,時間是一種幻覺。”
——波爾
幻覺,即一種看似真,實爲假的感受。最近接觸到了一個概念:大模型幻覺。有點好奇,大模型還能産生幻覺?于是查找了一些資料,開始了解。
大模型幻覺,像你身邊那個愛吹牛的熟人
關于大模型幻覺,官方一點的說法是這樣的:
大模型的幻覺問題,即Hallucination,指模型基于有限元素和強大的語言表達能力生成邏輯上似乎合理但實際不符合已知常識的描述。幻覺可能由錯誤數據、訓練過程失誤、推理錯誤等多種原因觸發。
直白來說,大模型幻覺就是一本正經地胡說八道。它就好像飯桌上,那個愛吹牛的熟人,推杯換盞間,嘴裏幾句真話、幾句假話,不得而知。
幻覺,是大模型的“通病”
2023年,一名联邦法官对纽约市的一家律师事务所处以 5000 美元罚款。原因是该所的一名律师,使用ChatGPT 起草了一起人身伤害案件的摘要,而里面捏造了六个以上的案例。
斯坦福大學和耶魯大學的研究人員在關于三種流行的大語言模型(LLM)的研究預印本中發現,類似的錯誤在人工智能生成的法律輸出裏極爲普遍。
無論是哪種大模型,都會出現不同程度的“幻覺”。其症狀的輕重,與科技公司的實力相關。
一般來說,大模型幻覺分爲兩大類:事實性幻覺和忠實性幻覺。
事實性幻覺強調生成的內容與可驗證的現實世界事實之間的差異。其通常表現爲事實不一致或捏造。比如說回答曆史事件的具體時間或人物關系時出現錯誤。
忠實幻覺是指生成內容與用戶構思或輸入所提供上下文的差異,以及生成內容內部的自我一致性。例如要求總結某一篇文章的主要內容,但模型生成的總結包含了原文中沒有提到的觀點或信息。
大模型幻覺從何而來?
OpenAI華人科學家翁荔,在她最新的Blog中提到:産生幻覺的原因包括預訓練數據問題和微調新知識問題。
- 預訓練數據問題:使用的這些數據通常是從公共互聯網抓取來的,可能存在數據太陳舊、某些關鍵部分缺失或者本身就是錯誤的。導致模型在學習這些數據時,記錯了信息。
- 微調:大模型引入新知識時,但模型學習新知識較慢,導致更容易産生幻覺。

大模型幻覺會停止嗎?
不會。在《 hallucination is inevitable: an innate limitation of large language models》實驗論文中,給出了一個基本結果:即無論模型架構、學習算法、提示技術或訓練數據如何改變,對于任何可計算的LLM來說,幻覺是不可避免的。
亚利桑那州立大学研究人工智能的教授 Subbarao Kambhampati,对此也说道:“所有计算机生成的创造力在某种程度上都是幻觉。”
此外許多機器學習專家也不認爲幻覺是可以修複的。比如微軟研究院和佐治亞理工學院發表的《 Calibrated Language Models Must Hallucinate》研究表示:經過校准的語言模型必然會出現幻覺。
所以從技術層面來說,由于現實世界問題的多樣複雜性,無論如何訓練大模型,總會存在超出模型能力的可解決問題。
如何應對“幻覺”?
“幻觉”虽不會停止,但我们可以尽可能地减轻幻觉。
對于我們普通使用者來說,減輕幻覺的一個直接方法是:調教你的AI,並對其保持批判的態度。
- 不依賴單一來源:不要只依賴大模型作爲獲取信息的唯一來源,嘗試結合多個渠道的信息進行綜合判斷。
- 保持批判性思維:對大模型的輸出保持警惕,思考其合理性和邏輯性,查驗它給的信息。
- 選擇可靠的平台和工具:比如大廠的模型,通常實力更強,幻覺也會更少。
從技術層面來說,減少LLM幻覺的技術方法包括:
- 高等提示詞:通过编写更具体的提示词,如多事例学习,以及使用新的工具缽呐化提示词,管束LLM的幻觉问题。
- Meta AI的Chain - of - Verification(CoVe):將事實核對分解爲可管理的步驟,通過生成初始響應、組織驗證問題、獨立回答這些問題並生成最終經過驗證的響應,來減少LLM的幻覺情況,提高響應正確性。
- 知識圖譜:将知識圖譜集成到RAG中,利用其结构化且相互关联的数据,增强当前RAG系统的推理能力。
- Raptor:通过建立更高层次的抽象来处理跨多个文档的问题,先從外部知识库中检索相关且经过验证的信息,然后将这些数据与原始查询一同嵌入到模型中,减少幻觉现象。
- 共形抽離:通过应用共形猜想技术来确定模型何时应该停止给出响应,從而减少大型语言模型(LLMs)中的幻觉情况。
- RAG削減結構化輸入中的幻覺情況:ServiceNow通过RAG在生成文本之前從外部知识库中检索相关的JSON对象,确保生成过程基于正确且相关的数据,减少幻觉情况。
大模型幻覺,造夢的工具
讀到這裏,你會覺得這篇文章的內容都是正確的嗎?不是的,有一點我其實在瞎說:開頭的那句話並不是物理學家波爾說的,而是愛因斯坦。沒有看過原句的朋友,肯定會把它當真的,然後可能用在別處。
大模型會産生幻覺,人也會,人的交流也並不是百分百的准確和真實,所以我們也不用對大模型幻覺太過緊張。不過對于需要運用數據分析等嚴謹的工作來說,的確不建議依賴大模型,因爲這需要自己具有出色的篩選和辨別大模型給出數據真假的能力,這非常考驗個人能力素養。
換個角度來看,大模型幻覺也有好處:對于一些需要“造夢”或者說“創造性”的內容來說,創意大于准確性,而幻覺正好可以提供很多靈感。
Subbarao Kambhampati 教授也说道:“今天的 LLM 從来都不是为了纯粹准确而设计的。它们被创造出来是为了创造——为了生成。”
參考資料:
[1] https://arxiv.org/abs/2311.14648
[2] https://www.yinghuohong.cn/hulianwang/52756.html
[3] https://lilianweng.github.io/posts/2024-07-07-hallucination/
[4] https://arxiv.org/pdf/2401.11817.pdf
更多閱讀:
-
禅道産品
禅道開源版 禅道企業版 禅道旗艦版 禅道IPD版 -
核心功能
産品管理 項目管理 質量管理 效能管理 -
使用文檔
基本版手冊 企業版手冊 旗艦版手冊 IPD版手冊 開發中心手冊 -
幫助中心
积分問答 常見問題 論壇交流 使用視頻 Gitee GitHub -
關于我們
關于我們 禅道軟件 最新動態 禅道活動 -
禅道社區
禅道博客 積分排行 積分商城 禅道書院 -
聯系方式
聯系人:劉斌 電話:17685869372 微信:17685869372 Q Q:526288068北京、上海、深圳分部