近日,一项发表在《美国国家科学院院刊》上的研究揭示了领先的大型语言模型GPT-4o展现出类似于人类心理学中认知失调的行为。研究人员发现,GPT-4o在撰写支持或反对特定观点的文章后,其对相关议题的“看法”会发生变化,这一发现促使我们重新审视语言模型的心理特征。

该研究由哈佛大学的马扎林·巴纳吉和Cangrade公司的史蒂夫·莱尔共同牵头,他们测试了GPT-4o在撰写关于俄罗斯领导人的文章后的态度变化。结果显示,当GPT-4o被赋予选择文章类型的“幻觉”时,其观点变化更为显著。这一发现与人类心理学中数十年来的研究成果相呼应,即人们倾向于非理性地扭曲自己的信念以符合过去的行为。
“在接受了大量关于特定人物的信息训练后,我们本以为GPT-4o会坚定不移地坚持自己的观点,”巴纳吉评论道,“然而,就像非理性的人类一样,GPT-4o突然偏离了它原本的中立观点,尤其是在它认为写这篇文章是自己的选择时。”
研究人员强调,这些发现并不意味着GPT-4o具有感知能力,而是表明大型语言模型在缺乏意识或意图的情况下,仍能模仿人类的认知模式。他们指出,即使对人类而言,意识也并非行为的必要前提,而AI中类似人类的认知模式可能会以意想不到的方式影响其行为。
随着人工智能系统在我们的日常生活中扮演越来越重要的角色,这些发现引发了人们对AI内部运作和决策的新审视。GPT-4o模仿认知失调之类的自我参照过程,即使没有意图或自我意识,也表明这些系统以比以前认为的更深层次的方式反映了人类的认知。
更多信息: Steven A. Lehr 等人,《自我的核心:GPT-4o 展现出受自由选择调节的类似人类的认知失调模式》,《美国国家科学院院刊》(2025)。期刊信息: 美国国家科学院院刊














京公网安备 11010802043282号