DeepSeek发布新论文,开源记忆模块Engram
2026-01-13 14:52
收藏

据维度网获悉,DeepSeek发布新论文,由DeepSeek团队联合北京大学研究人员共同完成,提出名为“条件记忆”(Conditional Memory)的Transformer改进方案,通过引入可扩展的查找记忆结构,在等参数、等算力条件下显著提升模型在知识调用、推理、代码、数学等任务上的表现。通过引入Engram模块补全原生架构的知识查找短板。论文以梁文锋为通讯作者,实验显示270亿参数的Engram模型在多项任务中超越同规模纯MoE(混合专家)架构,推理效率显著提升。

本简讯来自全球互联网及战略合作伙伴信息的编译与转载,仅为读者提供交流,有侵权或其它问题请及时告之,本站将予以修改或删除,未经正式授权严禁转载本文。邮箱:news@wedoany.com