
读:绍兴pvc管道管件胶
从论文出发,逐层剖析 CSA / HCA 混注意力、mHC 残差连接与 Muon 优化器——这三项核心创新如何让开源模型次真正"用得起"百万 token 上下文
为什么百万 Token 是个大问题
注意力机制(Attention)是 Transformer 的核心,但它有个致命的数学诅咒:计复杂度随序列长度呈二次增长。当上下文长度从 128K 扩展到 1M 时,原始注意力所需的 KV Cache 和计量暴增近 60 倍。
这不只是内存问题。在 Agentic AI 场景中,模型需要持续保持数十万 token 的工作记忆——分析整个代码仓库、跨越数百页的文档理、或者在长达数小时的多轮工具调用中维持连贯的思维链。没有原生的长上下文支持,这些能力只是数字游戏。
核心矛盾
测试时计扩展(Test-Time Scaling)是 2025 年重要的进展向,但它本质上要求模型在理时展开长的思维链——而传统注意力机制的二次复杂度让这条路越走越贵。DeepSeek V4 的核心命题是:破这个率天花板。
论文给出了组震撼的数据:在 1M token 上下文场景下,DeepSeek-V4-Pro 所需的单 token 理 FLOPs 仅为 DeepSeek-V3.2 的 27,KV Cache 仅为 10;而小的 Flash 版本是降至 FLOPs 的 10、KV Cache 的 7。
27 V4-Pro 理 FLOPs(vs V3.2,1M 上下文)
奥力斯 泡沫板橡塑板专用胶报价 联系人:王经理 手机:18232851235(微信同号) 地址:河北省任丘市北辛庄乡南代河工业区
10 V4-Pro KV Cache(vs V3.2,1M 上下文)
10 V4-Flash 理 FLOPsvs V3.2,1M 上下文)
7 V4-Flash KV Cache vs V3.2,1M 上下文)
核心创新:CSA + HCA 混注意力
这是 V4 重要、底层的架构创新。论文提出了两种全新的注意力机制,并将它们交织使用,形成套多尺度感知系统。
1.1 压缩稀疏注意力(CSA):模式
CSA 的设计哲学是"压缩后再选择"——先把 KV 序列压缩短,再只看重要的部分。它分三步走:
关键参数:在 V4-Pro 中,m=4(4:1 压缩),top-k=1024。这意味着对于个 1M token 序列,实际压缩后约有 250K 个条目,然后每个 Query 只与相关的 1024 个发生注意力计。两步压缩叠加,果为显著。
工程细节
CSA 采用了种重叠压缩(overlapped compression)策略。计 i 个压缩条目时,同时使用当前窗口的 m 个 token(称为 C^a)以及前窗口的后 m 个 token(称为 C^b)。这个设计让每个条目能看到 2m 个 token 的信息,有缓解了边界信息丢失的问题。
1.2 重度压缩注意力(HCA):全局视野模式
HCA 走向另个端:不做稀疏选择,改做度压缩。每 m'=128 个 token 才压缩为 1 个条目,序列长度缩短 128 倍,然后对这短的序列做全密集注意力。
HCA 的计量低,但它给了模型张整个上下文的"低分辨率全景图"——在需要从长文档中定位关键段落、维持宏观叙事致时,这种全局感知至关重要。
1.3 为什么要混交织,而不能二选?
论文做了消融实验,结论很清楚:单用 CSA 或单用 HCA 都法达到论文报告的率数字。关键在于两种注意力的互补:
V4-Flash 的前两层使用纯滑动窗口注意力(初始化稳定),后续层交替使用 CSA 和 HCA。V4-Pro 的前两层使用 HCA,后续层同样交替。
1.4 精度优化叠加——率的后公里
论文在注意力机制上还叠加了多项精度优化,进步降低显存和计:
存储格式混
KV Cache 的 RoPE 维度用 BF16 存储(位置编码需要精度),其余维度用 FP8 存储,综下来 KV Cache 大小接近纯 BF16 案的半。
LIGHTNING INDEXER 的 FP4 计
索引器(负责评分并选出 top-k KV 条目)的 QK 矩阵乘法在 FP4 精度下完成,并将 index score 从 FP32 量化到 BF16,实现 top-k 选择 2× 加速,且召回率保持在 99.7。
数量对比
以 BF16 GQA(head_dim=128)为基线,在 1M token 场景下,DeepSeek-V4 系列的 KV Cache 大小可压缩至基线的约2。
核心创新二:流形约束连接(mHC)
如果说 CSA/HCA 解决的是理率问题,mHC 解决的是训练稳定问题——尤其是当模型堆叠到(61 层 Transformer Block)时。
2.1 传统残差连接的局限
标准残差连接(x_{l+1} = x_l + F_l(x_l))已经是度网络的标配,但它有个隐患:信号沿层传播时,梯度可能爆炸或消失,且各层之间存在强耦。Hyper-Connections(HC)曾尝试通过扩展残差流宽度(引入 n_hc × d 的扩展维度)来解耦,但论文指出在多层堆叠时会出现严重的数值不稳定。
2.2 mHC 的核心思路:把残差映射约束到双随机矩阵流形
mHC 的关键创新在于将残差变换矩阵 B_l 约束到双随机矩阵(Doubly Stochastic Matrix)集,即 Birkhoff 多胞形 M:每行每列之和均为 1,且所有元素非负。
为什么双随机矩阵有
双随机矩阵的谱范数 ‖B_l‖₂ 被保证 ≤ 1,这意味着残差变换是非扩张的(non-expansive)——信号经过任意多层变换后不会爆炸。重要的是,双随机矩阵集在乘法下是封闭的,从数学上保证了层堆叠后的稳定。
2.3 Sinkhorn-Knopp 法实现约束
要将任意矩阵投影到双随机矩阵流形,mHC 使用了经典的 Sinkhorn-Knopp 法:先对原始参数取指数保证正,再交替做行归化和列归化,迭代 t_max=20 次即可收敛。这个过程可以实现为个 fused kernel。
mHC 约束应用(概念伪代码)
# 生成原始未约束参数
B_raw = alpha_res * (X_flat @ W_res) + S_res
# Sinkhorn-Knopp 投影到双随机矩阵流形
M = exp(B_raw) # 保证正
for t in range(20):
# 残差流新(扩展宽度 n_hc=4)绍兴pvc管道管件胶
X_{l+1} = B_l @ X_l + C_l * F_l(A_l @ X_l)
工程层面,mHC 引入的额外 wall-time 开销仅为 overlapped 1F1B pipeline stage 的 6.7——代价小,收益是全局训练稳定的显著提升。
核心创新三:Muon 优化器
DeepSeek V4 放弃了几乎所有 LLM 都在用的 AdamW,转而采用 Muon(Momentum + Orthogonalization) 优化器作为大多数模块的主优化器。这是个相当大胆的工程选择。
3.1 Newton-Schulz 正交化新
Muon 的核心思路:在做权重新之前,先用 Newton-Schulz 迭代将梯度矩阵正交化(约近到 UV^T,即 SVD 的旋转部分),再以此作为新向。
正交化新的物理意义在于:每个参数向上的新幅度接近均匀,pvc管道管件胶避了 AdamW 中因为梯度差差异大致的部分参数新过度/不足的问题。这带来快的收敛速度和好的训练稳定。
HYBRID NEWTON-SCHULZ 迭代
V4 使用了两阶段混策略:前 8 次迭代用系数
(a,b,c)=(3.4445,−4.7750,2.0315)
快速驱动奇异值趋近 1;后 2 次切换为(2,−1.5,0.5)
精确稳定到 1。总共 10 次迭代,在精度和计开销之间取得优平衡。
3.2 与 ZeRO 的兼容工程
Muon 的大挑战在于:它需要完整的梯度矩阵才能正交化,但 ZeRO 优化会将参数切分到不同 rank 上。两者本质上冲突。
DeepSeek 的解决案是为 Muon 设计了套混 ZeRO bucket 分配策略:用背包法(Knapsack)将完整参数矩阵分配到不同 rank,保证每个 rank 管理整矩阵而非切片;当数据并行度过限制时,部分 rank 冗余计 Muon 新(以计换内存),并在 MoE 参数上特别优化,对所有 Expert 做批量 Newton-Schulz 迭代提升硬件利用率。
另个工程细节:将 MoE 梯度在数据并行 rank 间同步时,以随机舍入式量化到 BF16,将通信量减半,并用 two-phase all-to-all(而非 tree/ring reduce-scatter)保证数值鲁棒。
训练稳定:两个关键 Trick
训练 1.6 万亿参数模型时,论文团队遭遇了严重的训练不稳定问题,终找到了两个有解法,并在论文中坦诚承认其背后机理尚未理解。
Anticipatory Routing(预期路由)
核心思路:将骨干网络的参数新与路由网络的参数新在时间上解耦。在步骤 t 计特征时,路由 index 使用历史参数 θ_{t-Δt} 预先计好。这破了路由决策和特征计之间的恶循环,显著减少了 loss spike 的发生频率。
工程实现上,额外的 wall-time 开销约为 20,且系统会自动检测 loss spike 后才激活 Anticipatory Routing,正常训练时不开启——几乎成本。
SwiGLU Clamping(激活函数值域截断)
对 SwiGLU 的线分量截断到 [-10, 10],门控分量上界截断到 10。这是个其简单但据论文反映为有的法——直接消除了 MoE 层中的异常大值,从源头抑制训练不稳定。
类似法在 Gemma 2 等论文中也有出现,V4 将其应用到了 SwiGLU 这个具体激活函数上。
后训练范式转移:On-Policy Distillation 替代混 RL
V4 的后训练管道相比 V3.2 有个根本变化:放弃了混 RL 阶段,转而使用 On-Policy Distillation(OPD)进行能力融。
OPD 的技术创新在于使用全词汇表(full-vocabulary)logit 蒸馏而非 token 别的 KL 估计。Token 别的法虽然节省显存,但梯度估计差大、训练不稳定。全词汇表蒸馏提供了准确的梯度信号,代价是存储所有教师模型后层的 hidden states 并 on-the-fly 通过 prediction head 重建 logits。
工程挑战
10+ 个万亿参数的教师模型同时训练,显存压力大。解决案:所有教师权重 offload 到分布式存储,按需加载并 ZeRO-like 分片;按教师 index 排序 mini-batch,确保任意时刻多 1 个教师的 prediction head 在 GPU 显存中。
能评估:真实对比,不粉饰
论文的评估部分难得地给出了非常坦诚的定位。以下是对主要基准的解读:
编程竞赛(Codeforces Rating)
在编程竞赛上,这是历史上次开源模型匹敌闭源顶模型。V4-Pro-Max 当前在 Codeforces 人类参与者中排名 23 位。
SWE-Verified(代码工程 Agent
SimpleQA-Verified(事实知识)
在事实知识面,V4 先所有其他开源模型,但与 Gemini-3.1-Pro 仍有明显差距。论文对此直言不讳。
百万 Token 上下文(MRCR 检索)
在长上下文检索面,V4 越了 Gemini-3.1-Pro,但仍落后于 Claude Opus 4.6。考虑到 V4 是个原生支持 1M 上下文的开源模型,这个成绩非常值得肯定。
论文明确指出:在理能力上,V4-Pro-Max 过 GPT-5.2 和 Gemini-3.0-Pro,但落后于 GPT-5.4 和 Gemini-3.1-Pro,开发轨迹上大约落后前沿闭源模型 3~6 个月。这种坦诚度在技术报告中颇为罕见。
不可忽视的基础设施创新
V4 的论文有将近三分之篇幅在讲基础设施,这在 LLM 论文中非常罕见,但也能体现工程度。
1.92× 理论加速比的通信计重叠
将 MoE 层的 Expert 分批(wave)处理,当前 wave 的 Expert 在计时,下 wave 的 token 传输和上 wave 的结果发送同时进行。相比 Comet 案(1.42× 加速),V4 的细粒度 wave 调度实现了 1.92× 的理论加速,已开源为 DeepGEMM 的部分(MegaMoE)。
形式化整数分析驱动的 kernel 开发
TileLang 是 DeepSeek 基于 TVM 自研的域特定语言,用于开发 fused kernel。V4 在其中集成了 Z3 SMT solver,对 tensor index 术进行形式化分析,将每次 kernel 调用的 CPU 端验证开销从数百微秒降至亚微秒别,并解锁了激进的向量化、内存优化。
共享前缀场景的理复用
对于 CSA/HCA 的压缩 KV 条目,直接持久化存盘并在命中前缀时复用(跳过重新 prefill)。对于 SWA 的未压缩 KV(体积约是压缩 KV 的 8 倍),提供三种策略:Full Caching(计冗余但存储密集)、Periodic Checkpointing(可调节存储/计权衡)、Zero SWA Caching(纯计复现、存储)。
这意味着什么
DeepSeek V4 不是次参数规模的扩展,而是次系统的架构重设计。CSA/HCA 混注意力解决了百万上下文的率瓶颈;mHC 解决了网络的训练稳定;Muon 优化器提升了收敛速度;OPD 替代混 RL 实现了平滑的多能力融。
重要的是,这些创新是开源的。模型权重在 HuggingFace 以 MIT 协议开放,技术细节在论文中详细披露,CSA 的参考实现也已开源。整个社区都可以在这个基础上继续迭代。
真正值得关注的信号不是某个 benchmark 的分数,而是:百万 token 上下文正在从"技术噱头"变成可以日常部署的工程现实。这将刻改变 Agentic AI、长文档分析、代码库理解等场景的产品边界。
相关词条:不锈钢保温施工 塑料管材生产线 钢绞线厂家 玻璃棉板 泡沫板橡塑板专用胶1.本网站以及本平台支持关于《新广告法》实施的“极限词“用语属“违词”的规定,并在网站的各个栏目、产品主图、详情页等描述中规避“违禁词”。
2.本店欢迎所有用户指出有“违禁词”“广告法”出现的地方,并积极配合修改。
3.凡用户访问本网页,均表示默认详情页的描述绍兴pvc管道管件胶,不支持任何以极限化“违禁词”“广告法”为借口理由投诉违反《新广告法》,以此来变相勒索商家索要赔偿的违法恶意行为。
