2026年1月13日,DeepSeek发布由梁文锋署名的新论文《Conditional Memory via Scalable Lookup: A New Axis of Sparsity for Large Language Models》,该研究由北京大学与DeepSeek团队联合完成。同日,DeepSeek开源了基于该论文的记忆模块Engram。论文提出一种可扩展查找的条件记忆机制,旨在提升大语言模型的记忆效率与稀疏性。此举有望推动大模型在长时记忆与信息检索方面的技术进步。
免责声明:本文内容由开放的智能模型自动生成,仅供参考。

扫一扫关注微信