DeepSeek V4的真正价值,不在参数里

文 | 世界模型工场

DeepSeek V4,又一次让全中国震动了。

参数规模、上下文长度、基准分数……这些技术指标已经被各种报道反复对比。

但如果只停留在表面数据,就错过了这次发布最具战略意义的核心。

过去三年,中国大模型始终困在一个尴尬的现实里:训练靠英伟达,推理也靠英伟达,国产芯片只算备份选项。

英伟达一断供,整个中国模型圈都要为之焦虑。

但今天,DeepSeek V4用实力证明:

一个前沿的万亿参数级大模型,也可以在国产算力上稳定高效地跑起来。

这件事的意义,已经超过了模型技术指标本身。

国产化的突围

要真正理解这次国产化适配的难度,就得先明白英伟达的芯片帝国。

英伟达拥有的不只是芯片,而是一个高度闭环的完整生态:

硬件上,有GPU芯片家族,加上NVLink、NVSwitch实现芯片间互联的高速网络;

软件上,CUDA是英伟达十几年精心打造的AI操作系统。

它像一座高度优化的工厂,从最底层的算子(模型计算的基本单元),到并行计算、内存管理、分布式通信,全链路都为英伟达GPU量身定制。

换句话说,英伟达不只卖发动机,它还把道路、加油站、维修厂、导航系统都修好了。

全球顶级大模型几乎都生长在这片生态上。

切换到国产算力,面临的却是完全不同的情形。

硬件架构不同、互联方式不同、软件栈成熟度不同、工具生态仍在快速追赶。

DeepSeek想要适配国产芯片,根本不是简单的换个引擎,而是给一辆已经在高速公路上高速行驶的赛车,切换到一条仍在铺设中的山路。

稍有不慎,就会出现抖动、失速,甚至整车无法前行。

这一次,DeepSeek V4没有选择只沿着CUDA路径继续优化,而是开始同时进入国产算力的软件栈适配链路。

从公开信息看,V4在基于国产推理芯片已实现了突破,深度适配华为昇腾950芯片,寒武纪在模型发布当日也可稳定运行,真正实现Day 0适配。

这意味着,前沿模型开始具备在国产芯片体系内落地的可能性。

DeepSeek V4是如何做到的?

第一步,发生在模型架构层。

V4没有选择让国产芯片硬扛1M上下文,而是先把模型自身变得更省。

官方技术报告里最关键的设计,是CSA + HCA混合注意力机制,以及KV Cache压缩等长上下文优化。

简单说,传统的长上下文推理,是让模型每次回答问题,都把一整座图书馆摊开来翻,显存、带宽和算力都会被迅速吃满。

V4的做法,是先把图书馆里的资料重新索引、压缩和筛选,只把最关键的信息送进计算链路。

这样一来,1M上下文不再完全依赖硬件蛮力,而是先通过算法把计算账和显存账做小。

这对国产芯片非常关键。

如果模型仍然高度依赖显存带宽和成熟CUDA库,国产芯片即使能跑,也很难跑得便宜、跑得稳。

V4先降低推理负担,本质上是在给国产算力减压。

第二步,发生在MoE架构和激活参数层。

V4-Pro虽然总参数达到1.6万亿,但每次推理只激活约490亿参数;V4-Flash总参数2840亿,每次激活约130亿参数。

这意味着它不是每次调用都把全部参数拉出来计算,而是像一个大型专家团队,任务来了只叫相关专家上场。

对国产芯片来说,这同样重要。

它减少了每次推理必须承受的计算压力,也让长上下文和Agent场景更容易被推理卡承接。

第三步,是算子和Kernel层的适配。

CUDA生态最强的地方,是大量底层计算已经被英伟达打磨成熟,很多高性能计算可以直接调用。

V4的意义在于,它部分关键计算从英伟达黑盒里抽出来,变成更可迁移、可适配的自定义计算路径。

通俗一点说,V4像是把发动机里最关键的零件拆开,让华为昇腾、寒武纪等厂商可以按自己的芯片结构重新调校。

第四步,是推理框架和服务层。

国产芯片适配如果只停留在“跑Demo”,产业意义并不大。真正值得关注的,是它能否进入可调用、可计费的服务体系。

据内部测试,在昇腾950PR上,V4 推理速度较早期版本获得显著提升,能耗也有明显下降,单卡性能在特定低精度场景下达到英伟达特供H20的2倍以上。

DeepSeek官方提到,当前V4-Pro受限于高端算力,服务吞吐有限,预计下半年昇腾950超节点批量上市后,价格会大幅下调。

这表明,随着昇腾等国产硬件批量量产,V4未来吞吐量和性价比还将进一步优化。

但值得注意的是,V4并没有全面替代英伟达的GPU和CUDA。模型训练可能还离不开英伟达,但推理已经可以逐步国产化。

这其实是非常现实的商业路径。

训练是阶段性投入,训练一次、调一次、迭代一次。推理是持续性成本,每天千万、亿级用户调用,每次都要花算力。

模型公司真正烧钱的大头,长期会越来越偏向推理。谁能更便宜、更稳定地承接推理需求,谁就能在产业应用里获得真实优势。

DeepSeek V4第一次让中国前沿模型的推理部署,出现了一条不以英伟达CUDA为默认前提的路线。

这一步已经足够有分量。

V4对产业应用的冲击

如果说国产芯片适配回答的是能不能跑起来,那么价格回答的就是另一个更现实的问题:

企业用不用得起?

过去DeepSeek最厉害的地方,正是它能把接近前沿模型的能力,压到极低价格。

V3、R1时代如此,V4依然如此。

区别在于,这一次它不是在普通上下文窗口里打价格战,而是在1M上下文+Agent能力的前提下继续压价。

按照DeepSeek官方价格:

V4-Flash的缓存命中输入0.2元/百万tokens,缓存未命中输入1元/百万tokens,输出2元/百万tokens;

V4-Pro的缓存命中输入1元/百万tokens,缓存未命中输入12元/百万tokens,输出24元/百万tokens。

把它放进同类国产模型里看:

与阿里Qwen3.6-Plus在256K-1M档位相比,V4-Pro输出价约为其一半,V4-Flash更低。

与小米MiMo Pro Series在256K-1M档位相比,V4-Flash和V4-Pro都明显更便宜。

Kimi K2.6的上下文为256K,相比之下,V4-Pro上下文更长、价格更低;V4-Flash 则直接把高频调用成本压到另一个量级。

这对企业应用意义极大。

因为1M上下文,意味着模型可以一次读完整代码仓、厚厚的合同包、几百页招股书、长期会议纪要,或者一个Agent连续执行任务时积累下来的历史状态。

过去很多企业应用卡在这里,模型能力够,但上下文不够;上下文够,价格又太贵;价格能接受,模型能力又不够稳。

比如,一个企业做投研Agent,要让模型同时读公司年报、财报电话会、行业报告、竞品新闻和内部纪要。

上下文只有128K或256K时,系统往往要不断切片、检索、摘要,信息在多次压缩中丢失。

1M上下文可以让模型保留更多原始材料,减少看漏和断片。

再比如代码Agent。

它不是一次性写几行代码,而是要读仓库、理解依赖、修改文件、运行测试、根据报错再修复。这个过程会反复消耗tokens。

如果每一步都很贵,Agent就只能做演示,但如果tokens足够便宜,它才可能进入真实研发流程。

这也是V4的产业价值。

它未必是最强模型,但可能成为企业最高频的模型。

DeepSeek再次让AI从少数大厂的专属玩具,变成千行百业都能规模化部署的生产力工具。

V4的真正价值

当1M上下文以极低价格走向产业一线时,DeepSeek V4的真正分量才显露出来。

这一切,是建立在国产算力尚不成熟的底座之上。

面对国产芯片生态的系统性差距,DeepSeek团队没有选择等生态成熟再上线。

他们把发布窗口一再推迟,投入数月时间,与华为等伙伴展开深度联合调试,这样的工程难度,远超外界想象。

正因如此,V4在国产算力上实现接近顶级闭源模型的推理与Agent能力,才显得格外不易。

V4用自身证明,即使面对硬件生态的阶段性差距,中国团队依然可以通过极致的工程投入和软硬件协同创新,跑出有竞争力的性能。

当然,距离完全成熟仍有差距。

昇腾平台的工具链完善度、超大规模集群的稳定性、以及更多垂直场景的深度优化,都需要产业各方继续共同努力。

但V4的成功,已为后续模型铺设了一条可借鉴的路径。

它为整个AI供应链的自主可控,注入了一剂强心针。

在外部环境充满不确定性的当下,这份在限制中仍能突破的韧性,比单纯的参数指标更值得尊重。

“不诱于誉,不恐于诽,率道而行,端然正己”。

这句来自DeepSeek官方的文字,正是它最好的注脚。