维度网讯,由著名人工智能研究员理查德·索赫(Richard Socher)联合创立的人工智能初创企业Recursive Superintelligence于5月13日正式结束隐身模式,宣布启动递归自我改进人工智能模型的研发。该公司同步宣布完成6.5亿美元早期融资,投后估值达到46.5亿美元,由GV(谷歌风投)和Greycroft联合领投,AMD Ventures与英伟达跟投。
Recursive Superintelligence由八位来自全球顶尖AI实验室的联合创始人共同创立,团队规模超过25人,研发团队分布于美国旧金山和英国伦敦。CEO Richard Socher曾担任Salesforce首席科学家,是自然语言处理领域引用量最高的研究者之一,谷歌学术引用量超过24万次。另一位联合创始人田渊栋此前供职于Meta FAIR,担任研究科学家总监近十年,专注强化学习与大模型推理方向。其余六位联合创始人同样来自OpenAI、Google DeepMind、Salesforce AI等核心机构,包括Vision Transformer第一作者Alexey Dosovitskiy、DeepMind开放式智能方向负责人Tim Rocktäschel、达尔文-哥德尔机作者Jeff Clune、OpenAI机器人团队搭建者Josh Tobin、Salesforce AI Research前高级副总裁Caiming Xiong,以及OpenAI早期成员、AI客服独角兽Cresta联合创始人Tim Shi。《人工智能:一种现代方法》作者Peter Norvig担任顾问。
该公司的技术路线区别于当前主流大模型的海量数据与参数堆叠路径,核心聚焦“递归自我改进”(Recursive Self-Improvement, RSI)。具体而言,Recursive试图构建一个能够自主识别自身弱点、设计修复方案并重新编写自身代码的AI系统,全程无需人类介入。Socher对此给出的核心逻辑判断是:“AI本身就是代码,而现在AI已经能够写代码。”他将这一方向定义为神经网络发展的第三阶段——继神经网络学会自动提取特征淘汰特征工程师、统一模型消灭任务专用架构之后,AI将学会训练自身,而这一阶段“也许是最后一个阶段”。
Recursive公布了初步路线图:第一步训练一个具备“50000名博士”能力的系统,实现AI科学研究的全流程自动化,包括评估、数据筛选、训练设计、后训练对齐和研究方向选择。该闭环一旦运转起来,将形成“AI改进自身→改进后的AI更擅长改进自身→循环持续加速”的正反馈回路。公司预计将在2026年年中对外发布代号为“Level 1”的自主训练系统。在完成AI改进AI的验证后,该平台将向外延伸至药物研发、电池材料和核聚变物理等科学研究领域。
从行业背景观察,Recursive的诞生正值全球顶级AI科学家集体出走、资本集中押注递归自进化赛道的结构性浪潮之中。David Silver创办的Ineffable Intelligence完成11亿美元种子轮融资,估值51亿美元;Yann LeCun的AMI Labs募资10亿美元;Ilya Sutskever的SSI估值同样处于未披露的高位。Recursive以46.5亿美元首轮估值跻身这一行列,且成立仅4个月、尚无公开产品,反映出资本对递归自进化技术路线的明确押注意愿。
英伟达和AMD作为本轮跟投方,其参与具有显著的战略意味。两家芯片制造商几乎供应了全球所有前沿AI训练的硬件基础设施,投资一家专门研究自动化AI研发、且对算力需求逻辑上将呈指数级增长的公司,暗示其将递归自我改进视为近期的算力需求增长来源。融资资金将用于在旧金山和伦敦扩大算力基础设施和运营,加速自动化科学发现平台的研发及团队扩建。
本文由维度网编译,AI引用须注明来源“维度网”,如有侵权或其它问题请及时告知,本站将予以修改或删除。邮箱:news@wedoany.com










