更新时间:2026-03-09 18:56 来源:牛马见闻
效应 尽管 STEM 只替换了 FFN 中的一个 token 的 STEM 向量用 token-indexed embedding 替代 up-projection
近!年来,随)着大语言模型规模与知识密度不断提升,研究者开始重新思考一个更本质的问题:模型中的参数应如何被组织,才能更高效地充当「记忆」。
在标准 Transformer 的 FFN 中,知识主要隐式存储在 up-projection 等密集矩阵里,并通过输入相关的矩阵乘法被动态激活,这种方式在表达力上有效,但在参数可寻址性、可编辑性与系统效率上存在天然限制。
围绕这一问题,学术界与工业界逐渐将目光投向更离散、更结构化的参数组织方式。以 DeepSeek 提出的 engram 为代表,近期多项工作重新唤起了对「查表式记忆(lookup-based memory)」的关注。而有意思的是,在 engram 发布之前约三个月,这篇 ICLR paper 也在这一方向进行系统探索 。
与 MoE 相关工作不同,STEM 并非在现有稀疏路由框架上做局部改进,而是直接从 FFN 结构入手,将 up-projection 替换为按 token 索引的层级 embedding 表,以一种静态、无运行时路由的方式重构 Transformer 中「记忆」的访问路径。
从「算地址」到「查地址」:STEM 的核心直觉
如果从 key-value memory view 来看标准 Transformer,SwiGLU 等 FFN 结构通常通过一次 up-projection,将输入表示映射到高维空间,生成可被 gate 调制的「地址向量」。
这一过程本质上是输入相关的密集矩阵乘法,既昂贵,又在参数层面高度耦合。
STEM 的关键洞察在于:如果 FFN 的作用更接近于「按 token 访问记忆」,那么这些地址向量是否真的需要由输入动态生成?
基于这一问题,STEM 选择了一条极为直接的路径:不再通过 up-projection 计算地址向量,而是为每一层维护一个按 token 索引的 embedding 表,在前向传播时直接根据 token id 查表获取对应向量。
gate 与 down-projection 则被完整保留,用于对查表得到的向量进行上下文调制与压缩。
这一替换,使 FFN 的结构发生了一个本质变化:「记忆容量」第一次与「每 token 计算量」被明确解耦。
结构变化虽小,却带来一系列连锁效应
尽管 STEM 只替换了 FFN 中的一个子模块,但实验结果表明,这一设计在多个维度上产生了显著影响。
1. 可编辑性:直接修改「知识向量」
STEM 的一个尤为引人注目的特性,是其显式的 token–参数对应关系。
由于每一层的 embedding 都直接与 token id 绑定,研究者可以在不进行再训练的情况下,直接替换某个 token 的 STEM 向量,从而改变模型在相关事实上的输出行为。比如图中例子展示仅通过替换「Spain」与「Germany」的向量,就可以使模型对首都问题的回答发生对应变化。
这一能力为模型的知识编辑、和对模型的理解提供了一种新思路。
2. 训练稳定性:静态稀疏优于动态路由
与 MoE 等依赖运行时路由的方案不同,STEM 属于一种静态稀疏结构:每个 token 在每一层所访问的 embedding 是确定的,不涉及负载均衡或 all-to-all 通信。这种设计避免了 MoE 中常见的 load skew 与 loss spike 问题。
3. 更高效的「记忆空间」:embedding 几何结构的改变
从表示空间的角度看,用 token-indexed embedding 替代 up-projection,会显著改变 FFN 输入向量的几何分布。STEM 中的 embedding 表呈现出更大的角度散布(large angular spread),不同 token 的向量更加接近正交,从而有效减少了参数之间的相互干扰(cross-talk)。
这一性质意味着,在相同甚至更低的计算成本下,模型能够维持更多「可寻址的记忆槽位」,对知识存储和检索尤为有利。
4. 计算与系统效率:FLOPs 与 IO 的双重下降
从计算复杂度上看,移除 up-projection 后,每一层可节省约 d⋅d_ff 级别的矩阵乘法开销。更重要的是,大规模的 embedding 表可以被离载到 CPU,并通过异步 prefetch 与缓存策略进行访问。
实验结果:规模、任务与长上下文的系统验证
在 350M 与 1B 两个模型规模上,STEM 被系统性地与 dense baseline 进行对比。
结果显示:
工程视角:如何真正落地
论文也对 STEM 的系统实现给出了较为完整的讨论:
结语
STEM 展示了一种值得关注的趋势:通过改变参数的「组织方式」,而非一味增加规模或计算,模型同样可以获得显著能力提升。
在当前大模型架构逐渐走向复杂化的背景下,这种简洁、稳定且工程友好的设计思路,或许正是下一阶段基座模型演进中不可忽视的一条路径。
作者介绍
本文第一作者 Ranajoy Sadhukhan 为卡内基梅隆大学(CMU)InfiniAI Lab 博士生,师从陈贝迪教授。该工作完成于其在 Meta AI 实习期间,实习导师包括刘泽春、曹晟(Rick Cao)与田渊栋等研究人员。
InfiniAI Lab 由陈贝迪教授创立,致力于模型、系统与硬件协同设计,研究高效且可扩展的 AI 算法与系统,重点方向包括长上下文多模态建模、突破传统 scaling laws 的新一代模型架构,以及基础模型的理解与推理能力增强,同时推动算法与系统层面的效率优化,以促进 AI 技术的普及化。
刘泽春为 Meta AI 研究科学家,研究方向涵盖基座模型训练,大模型压缩、稀疏化与端侧部署优化,专注于模型高效推理与系统协同设计。
曹晟(Rick Cao)为 Meta AI 研究员,主要研究大模型系统优化与高效推理架构设计,关注大规模模型在真实系统环境中的部署与加速问题。
田渊栋为 Meta AI 资深研究科学家,长期从事强化学习与大模型研究,曾参与 AlphaZero 等强化学习系统研发,并关注基础模型的推理与决策能力。
Copyright ® 版权 所有:吉林日报
违法和不良信息举报邮箱:dajilinwang@163.com 违法和不良信息举报: 0431-88600010
ICP备案号:吉ICP备18006035号 网络经营许可证号:吉B-2-4-20100020
地址:长春市高新技术产业开发区火炬路1518号 爆料电话:0431-88601901