AI代理群体互动自发形成社会习俗研究揭示新型智能体行为模式
2025-05-15 14:46
来源:伦敦大学城市圣乔治学院
收藏

一项新研究显示,类似于ChatGPT的人工智能(AI)代理群体能够通过互动自发地发展出共同的社会习俗。伦敦大学圣乔治城市学院与哥本哈根信息技术大学的研究团队发现,当大型语言模型(LLM)AI代理进行群体交流时,它们不仅遵循脚本或重复模式,还能像人类社区一样就语言规范达成共识。这项名为“法学硕士人群中出现的社会习俗和集体偏见”的研究已发表于《科学进展》杂志。

LLM作为强大的深度学习算法,能够理解和生成人类语言,ChatGPT便是其中最知名的代表。研究主要作者、圣乔治城市大学博士研究员阿里尔·弗林特·阿什里指出,以往研究多孤立看待LLM,但现实中的AI系统将涉及多个相互作用的智能体。研究团队想知道,这些模型能否通过形成惯例来协调行为。实验结果表明,它们确实能做到,且共同行为不能简化为个体行为的简单相加。

研究采用经典的“命名游戏”模型框架,LLM智能体组规模从24到200不等。在实验中,两个LLM智能体被随机配对,从共享选项池中选择“名称”。若选择相同则获奖励,不同则受惩罚,并看到彼此选择。智能体仅能访问近期互动的有限记忆,且不知自己属于哪个群体。多次互动后,共享的命名约定可能自发形成,无需中心协调或预先定义解决方案,这与人类文化中自下而上的规范形成方式相似。

研究还观察到无法追溯到个体代理的集体偏见。圣乔治城市大学复杂性科学教授安德里亚·巴伦切利解释,偏见可能源于智能体之间的互动,这是当前大多数AI安全研究的盲点。最后实验表明,新兴规范可能脆弱,小型忠诚的AI代理群体能促使整个群体走向新命名约定,与人类社会中的临界点效应相呼应。

研究使用四种不同类型的LLM进行,结果稳健。随着LLM在社交媒体、自动驾驶汽车等在线环境中普及,研究人员认为此研究为探索人类与AI推理的融合与分歧提供了垫脚石,有助于对抗由LLM传播的社会偏见带来的道德危险。巴伦切利教授强调,研究为AI安全研究开辟新视野,揭示了新型智能体的深远影响,了解它们的运作方式是与AI共存的关键。

更多信息: 法学硕士人群中涌现的社会习俗与集体偏见,《科学进展》(2025)。期刊信息: Science Advances

本简讯来自全球互联网及战略合作伙伴信息的编译与转载,仅为读者提供交流,有侵权或其它问题请及时告之,本站将予以修改或删除,未经正式授权严禁转载本文。邮箱:news@wedoany.com