AI語言模型的“幻覺”問題是當前人工智能系統面臨的挑戰之一,可能對高風險任務造成影響。
開發者們正在努力解決這個問題,但目前尚不清楚需要多長時間才能達到足夠的可靠性。
雖然技術的改進可能會有所幫助,但一些專家認爲這個問題在技術與實際需求之間的差異中根本無法解決。
![]()
OpenAI的首席執行官Sam Altman於2023年6月6日星期二在阿拉伯聯合酋長國的阿布扎比發表演講。
與ChatGPT等人工智能聊天機器人相處足夠長的時間,你很快就會發現它們有時會輸出錯誤的信息。
這種現象被形象地描述爲“幻覺”,即機器人做出的捏造或純粹的編造。對於那些試圖讓生成式AI系統編寫文檔並完成工作的企業、組織和高中生來說,這是一個實際問題。有些人甚至正在使用它進行高風險的任務,如心理治療、研究和法律寫作。
Anthropic公司的聯合創始人兼總裁Daniela Amodei說:“我認爲現在沒有任何一種模型能夠完全避免產生一些幻覺。”Anthropic是聊天機器人Claude 2的製造商。
“它們實際上只是設計來預測下一個詞的,”Amodei說,“因此模型肯定會有一定的錯誤率。”
Anthropic、ChatGPT的製造商OpenAI以及其他大型語言模型的AI系統的主要開發者都表示,他們正在努力使這些系統更加真實。
然而,這需要多長時間,以及它們是否能變得足夠好,比如,能安全地提供醫療建議,仍有待觀察。
華盛頓大學計算語言學實驗室的主任、語言學教授Emily Bender說:“這個問題無法完全解決。這是技術與預期用例之間的固有不匹配。”
生成式AI技術的可靠性影響着許多事情。麥肯錫全球研究所預測,它將爲全球經濟增加相當於2.6萬億至4.4萬億美元的價值。聊天機器人只是這種熱潮的一部分,還包括能生成新的圖像、視頻、音樂和計算機代碼的技術。幾乎所有的工具都包含一些語言成分。
谷歌已經向新聞組織推銷一種新聞撰寫AI產品,對於這種產品來說,準確性是至關重要的。美聯社也在探索使用這項技術,作爲與OpenAI合作的一部分,OpenAI正在付費使用美聯社的部分文本檔案來改善其AI系統。
與印度的酒店管理學院合作,計算機科學家Ganesh Bagler多年來一直在努力讓AI系統(包括ChatGPT的前身)爲南亞菜系,如新型的基於米的biryani,發明食譜。一個“幻覺”成分可能就是美味和難喫之間的區別。
當OpenAI的CEO Sam Altman在6月訪問印度時,這位在Indraprastha信息技術學院的教授提出了一些尖銳的問題。
Bagler在擁擠的校園禮堂中,對Altman說:“我猜在ChatGPT中的幻覺仍然可以接受,但當一個食譜出現幻覺時,就變成了一個嚴重的問題。”
他最後問道:“你對此有什麼看法?”
Altman表示他對改善幻覺問題保持樂觀態度,儘管這並非一個明確的承諾。
Altman表示:“我相信我們能夠改善幻覺問題,讓其變得更好。我預計這可能需要一年半或兩年的時間。但到那個時候,我們將不再需要討論這個問題。在創新和準確性之間,需要找到一個平衡,模型需要學習何時需要重視一個或者另一個。”
然而,對於已經研究過這項技術的專家,如華盛頓大學的語言學家Bender來說,這些改進還不夠。
Bender將語言模型描述爲一個“模擬不同詞語形式字符串可能性”的系統,這取決於模型訓練的文本數據。
這就是拼寫檢查器能夠檢測出你打錯單詞的原理。它也幫助提供自動翻譯和轉錄服務,“使輸出看起來更像目標語言的典型文本,”Bender說。許多人在編寫文本信息或電子郵件時使用的“自動完成”功能,就是基於這項技術的一個應用。
如今,最新一批的聊天機器人,如ChatGPT、Claude 2或Google的Bard,試圖將這項技術提升到新的高度,生成全新的文本段落。然而,Bender表示他們仍然只是在一個字符串中反覆選擇最可能的下一個詞。
Bender指出,當用於生成文本時,語言模型“被設計成能編造事情。這就是它們的全部工作。”它們擅長模仿寫作的形式,比如法律合同、電視劇本或十四行詩。
“但由於它們只會編造事情,當它們生成的文本恰好被解釋爲我們認爲正確的信息時,那只是偶然的,”Bender說。“即使它們可以調整爲更加準確,它們仍然會有失敗模式,而這些失敗可能在閱讀文本時難以察覺,因爲它們更爲晦澀。”
對於一些一直向Jasper AI尋求幫助編寫銷售文案的營銷公司來說,這些錯誤並不是一個大問題,該公司的總裁Shane Orlick表示。
Orlick說:“幻覺實際上是一個額外的獎勵。我們有許多客戶告訴我們,它爲他們提供了新的想法,Jasper爲他們創造了他們自己從未想過的故事或觀點。”
這家位於德克薩斯州的初創公司與OpenAI、Anthropic、Google或Facebook的母公司Meta等合作伙伴合作,爲其客戶提供了一系列定製的AI語言模型。對於關注準確性的用戶,公司可能會提供Anthropic的模型,而對於關注他們專有源數據安全的用戶,可能會得到一個不同的模型,Orlick表示。
Orlick承認,解決幻覺問題不會容易。他期望像Google這樣的公司,他說它的搜索引擎必須有“非常高的事實內容標準”,將大量的資源投入到解決這個問題。
Orlick表示:“我認爲他們必須解決這個問題。所以我不知道它是否會變得完美,但我相信隨着時間的推移,它會變得越來越好。”
包括微軟聯合創始人比爾·蓋茨在內的一些技術樂觀主義者,他們一直預測着樂觀的前景。
“我樂觀地認爲,隨着時間的推移,AI模型可以被教會區分事實與虛構,”蓋茨在7月發佈的博客文章中詳細闡述了他對AI社會風險的看法。
他引用了OpenAI在2022年發表的一篇論文,作爲這方面“有希望的工作”的例證。
然而,即使是Altman,在爲各種用途的產品進行市場營銷時,也不依賴這些模型來獲取他自己需要的信息。
“我可能是地球上最不信任ChatGPT所給出回答的人,”Altman在Bagler大學的一次演講中告訴聽衆,引起了一陣笑聲。
更多遊戲資訊請關註:電玩幫遊戲資訊專區
電玩幫圖文攻略 www.vgover.com
