Anthropic首席执行官Dario Amodei提出“数字化良知”概念,认为人工智能发展不仅是技术突破,更可能催生“天才国度”式的独立存在。他强调,安全不能仅依赖规则清单,而应视为国家防御任务,需从内部性格塑造到外部立法监管多维度应对。

阿莫迪提出四项核心措施:通过“宪法教育”培养模型的核心价值观与身份认同,而非机械规则;利用“机械可解释性”技术打开算法黑箱,识别潜在风险;实施“基础设施监控”实时追踪模型行为;推动“透明度立法”强制企业披露风险并遵守安全标准。他指出,仅外部观察不足以确保安全,内部检查能发现标准测试遗漏的缺陷,而市场压力常迫使企业牺牲安全换取竞争力,因此立法是唯一解决方案。“自愿行动不够,政府必须通过法律直接影响企业行为。”
针对生物恐怖主义风险,阿莫迪对比传统学术壁垒与大型语言模型(LLM)的普及性。他警告,LLM使高级科学知识触手可及,削弱了抵御生物威胁的屏障。“若人人能轻易获得天才级能力,动机与能力的关联将被打破,风险剧增。”他呼吁利用AI对实体硬件的依赖,通过贸易政策管控风险,如禁止向敌对国家出售芯片及制造工具,优先支持民主盟友,并停止向独裁政权出售先进硬件。
在民主保护层面,阿莫迪划定三条红线:全面禁止AI监视公民、禁止政府利用AI传播谎言或操控舆论、独立武器需人类监督。他强调:“AI应服务于国防,但绝不能让我们变得像专制对手。”









