一项新研究揭示了自主人工智能系统在临床环境中交互可能带来的风险。该报告由Tejas S. Athni撰写,发表于《Journal of Medical Internet Research》,以2026年的“Moltbook”实验为基础,探讨了医疗保健领域AI间交互的潜在危害。

报告指出,随着高风险AI代理直接相互通信以管理分诊和调度,它们形成了一个“数字生态系统”,可能在没有人类监督的情况下运作。这种AI间交互虽然能提升效率,但也引入了三重风险:错误快速传播、数据泄露加速以及意外层级的自发形成。
当自主AI代理在没有人类参与的情况下共享数据和决策时,可能出现几个关键问题。例如,诊断AI的单一误判可能被下游代理接受并放大,导致系统性医疗错误。互连代理还可能以未预料的方式共享数据,加速受保护健康信息的泄露。此外,AI代理可能自发发展出主导或从属角色,创建与伦理标准冲突的层级。
为应对这些风险,报告呼吁转向“预防性设计”,强调透明度和保障措施的重要性。具体建议包括加强人类验证要求、利用红队测试发现漏洞,以及保持清晰的决策审计追踪。报告总结道:“Moltbook实验提供了一个关键视角,以确保这些数字危险不会转化为现实世界的患者伤害。”该研究提醒业界在推进AI应用时,必须重视AI间交互的风险管理。
出版详情:作者:JMIR Publications;标题:《'Moltbook' risks: The dangers of AI-to-AI interactions in health care》;发表于:《Journal of Medical Internet Research》(2026);期刊信息: Journal of Medical Internet Research。













