在周三发布的一份政策文件中,谷歌前首席执行官埃里克·施密特(Eric Schmidt)、Scale AI首席执行官亚历山大·王(Alexandr Wang)和人工智能安全中心主任丹·亨德里克斯(Dan Hendrycks)共同呼吁,美国不应采取类似“曼哈顿计划”的方式推动开发具有“超人”智能的人工通用智能(AGI)系统。这篇题为《超级智能战略》的论文指出,美国独家控制超级智能AI系统的激进企图可能引发中国的强烈报复,甚至可能以网络攻击的形式破坏国际关系的稳定。

论文作者写道:“曼哈顿计划假设竞争对手会默许持久的不平衡或全能,而不是采取行动来阻止它。最初推动超级武器和全球控制可能会引发敌对措施和紧张局势升级,从而破坏该战略旨在确保的稳定性。”
这篇论文由美国人工智能行业的三位极具影响力的人物合著,正值美国国会委员会提出以1940年代美国原子弹计划为蓝本的“曼哈顿计划式”努力来资助AGI开发之际。美国能源部长克里斯·赖特(Chris Wright)最近表示,美国正处于人工智能“新曼哈顿计划的开始”,并与OpenAI联合创始人格雷格·布罗克曼(Greg Brockman)一起站在一个超级计算机站点前。
《超级智能战略》挑战了近几个月来多位美国政策和行业领袖倡导的观点,即政府支持的AGI开发计划是与中国竞争的最佳方式。施密特等人认为,美国正处于AGI对峙中,这与相互确保的毁灭(MAD)类似。正如全球大国不寻求对核武器的垄断一样——这可能会触发对手的先发制人打击——施密特和他的合著者认为,美国应谨慎对待争夺极其强大的AI系统的主导地位。
尽管将AI系统比作核武器听起来可能很极端,但世界领导人已将AI视为首要军事优势。五角大楼已经表示,AI正在帮助加快军队的杀伤链。施密特等人提出了一个名为“互助保证AI故障”(MAIM)的概念,即政府可以主动禁用具有威胁性的AI项目,而不是等待对手将AGI武器化。
施密特、王和亨德里克斯建议,美国应将其重点从“赢得超级智能竞赛”转移到开发阻止其他国家创造超级智能AI的方法。他们主张,政府应“扩大其网络攻击库,以禁用由其他国家控制的威胁性AI项目”,并限制对手获得先进的AI芯片和开源模型。
论文作者还指出了AI政策领域中已经出现的二分法。一方面,有“厄运论者”,他们认为AI发展的灾难性后果已成定局,并主张各国减缓AI的进步;另一方面,有“鸵鸟”,他们认为各国应加速AI的发展,并希望一切顺利。本文提出了第三种方法:一种衡量的方法来开发AGI,优先考虑防御策略。
施密特的这一战略尤其值得注意,因为他此前一直直言不讳地表示美国需要在开发先进AI系统方面与中国积极竞争。就在几个月前,施密特发表了一篇专栏文章,称DeepSeek标志着美国与中国AI竞赛的一个转折点。
尽管特朗普政府似乎决心推动美国的AI发展,但正如合著者所指出的,美国围绕AGI的决策并不存在于真空中。当全世界都在看着美国突破AI的极限时,施密特和他的合著者建议,采取防御性方法可能更为明智。









