研究揭示AI重大認知偏差:頂尖模型在博弈中普遍高估人類理性

一項最新研究顯示,以GPT-4o和Claude 3.5 Sonnet爲代表的頂尖人工智能模型,在處理需要預測人類對手行爲的戰略博弈時,存在一種系統性缺陷:它們傾向於預設人類具有極高的邏輯性和理性,而這種假設往往與現實世界中人類的非理性行爲嚴重脫節。

這項由俄羅斯國立研究大學高等經濟學院經濟學家進行的研究,發表在了《Journal of Economic Behavior & Organization》上。

研究人員採用經典的“猜數字”遊戲來測試AI。在該博弈中,參與者需選擇一個0到100之間的數字,目標是使其最接近所有人所選數字平均值的一半。

測試發現,儘管這些AI模型能夠根據對對手的描述來調整策略,但它們普遍預設人類對手會進行非常深層的、近乎完美的邏輯推演。

然而在實際中,人類決策往往基於直覺、經驗或僅進行一、兩層思考,行爲中充滿了非理性成分。這種認知偏差導致AI“想得太多太複雜”,使其在預測真實人類行爲時頻繁出錯,平均準確率可能僅維持在69%左右。

當前最先進的AI在理解和模擬人類複雜的、非完全理性的決策過程方面,仍存在根本性短板。如果直接將這類AI模型不加校準地應用於經濟預測等領域,可能會因其對現實的錯誤假設而產生顯著風險或誤判。

更多遊戲資訊請關註:電玩幫遊戲資訊專區

電玩幫圖文攻略 www.vgover.com