一项最新研究显示,以GPT-4o和Claude 3.5 Sonnet为代表的顶尖人工智能模型,在处理需要预测人类对手行为的战略博弈时,存在一种系统性缺陷:它们倾向于预设人类具有极高的逻辑性和理性,而这种假设往往与现实世界中人类的非理性行为严重脱节。
![]()
这项由俄罗斯国立研究大学高等经济学院经济学家进行的研究,发表在了《Journal of Economic Behavior & Organization》上。
研究人员采用经典的“猜数字”游戏来测试AI。在该博弈中,参与者需选择一个0到100之间的数字,目标是使其最接近所有人所选数字平均值的一半。
![]()
测试发现,尽管这些AI模型能够根据对对手的描述来调整策略,但它们普遍预设人类对手会进行非常深层的、近乎完美的逻辑推演。
然而在实际中,人类决策往往基于直觉、经验或仅进行一、两层思考,行为中充满了非理性成分。这种认知偏差导致AI“想得太多太复杂”,使其在预测真实人类行为时频繁出错,平均准确率可能仅维持在69%左右。
![]()
当前最先进的AI在理解和模拟人类复杂的、非完全理性的决策过程方面,仍存在根本性短板。如果直接将这类AI模型不加校准地应用于经济预测等领域,可能会因其对现实的错误假设而产生显著风险或误判。
更多游戏资讯请关注:电玩帮游戏资讯专区
电玩帮图文攻略 www.vgover.com

