美国加州大学洛杉矶分校研究揭示人工智能系统缺乏内部具身化机制
2026-04-02 17:14
来源:加利福尼亚大学洛杉矶分校
收藏

美国加州大学洛杉矶分校(UCLA Health)的研究人员在《Neuron》期刊发表论文,指出当前人工智能系统缺乏人类认知中的基本属性——内部具身化,这可能影响系统的安全性和可靠性。

large language models

论文第一作者、博士后研究员Akila Kadambi表示:“虽然当前世界建模的重点在于外部具身化,比如我们与世界的向外互动,但内部动态或我们所说的‘内部具身化’受到的关注少得多。在人类中,身体作为我们世界的经验调节器,是一种内置的安全系统。”她补充道:“如果你不确定、如果你疲惫、如果某些事情与你的生存冲突,你的身体会记录这一点。当前的人工智能系统没有等效机制。”

该研究聚焦于多模态大型语言模型,如驱动ChatGPT和Google Gemini的技术。研究人员通过点光显示测试发现,人工智能系统在识别简单人形图像时失败,而人类不会失败,因为人类感知基于身体经验。这种内部具身化的缺失意味着人工智能系统无法像人类一样监测自身状态,如疲劳或不确定性。

论文区分了两种具身化:外部具身化涉及与物理世界的互动,而内部具身化指持续监测内部状态。资深作者Marco Iacoboni博士指出:“相比之下,当前的人工智能系统没有等效机制。它们处理输入并生成输出,没有任何持久的内部状态来调节它们随时间的行为。这不仅是性能限制,也是安全限制。”

研究人员提出了“双重具身化框架”,建议在人工智能系统中模拟内部状态,并开发新的测试基准来评估内部具身化。Iacoboni说:“这项工作的作用是直接将这种见解应用于人工智能开发。如果我们想要人工智能系统真正与人类行为一致——不仅仅是表面流畅——我们可能需要赋予它们脆弱性和检查机制,这些机制像内部自我调节器一样运作。”这项研究强调了内部具身化对人工智能安全的重要性。

出版详情:作者:University of California, Los Angeles;标题:《AI systems lack a fundamental property of human cognition: Understanding this gap may matter for safety》;发表于:《Neuron》(2026)。

本简讯来自全球互联网及战略合作伙伴信息的编译与转载,仅为读者提供交流,有侵权或其它问题请及时告之,本站将予以修改或删除,未经正式授权严禁转载本文。邮箱:news@wedoany.com