就在不久前的一期访谈节目中,NVIDIA CEO黄仁勋坦言:“如果DeepSeek的新模型选择在华为平台上首发,那对美国而言,将是‘可怕的一天’。”
他进一步解释,这意味着AI大模型将被深度优化以适配中国AI硬件(如华为昇腾),从而在性能、效率和生态兼容性上优先服务于国产算力平台;一旦这类模型走向全球,就可能加速中国AI技术标准的国际化进程,动摇当前以CUDA生态为主导的技术格局。
此前,业内曾有传闻称DeepSeek V4将“仅支持华为昇腾平台”,甚至有报道暗示其将放弃对NVIDIA GPU的支持。但这一猜测已被事实证伪——今天正式发布的DeepSeek V4明确宣布:**同时支持华为昇腾NPU与NVIDIA GPU双平台**,且为**首发同步支持**。
更值得注意的是,DeepSeek官方在技术文档中指出,其创新的“细粒度专家并行”(Expert Parallelism, EP)方案,已在英伟达GPU和华为昇腾NPU上完成完整验证与性能调优。这标志着V4并非“单边押注”,而是在两大主流AI算力体系上实现了真正意义上的并行演进。换言之,黄仁勋所担忧的“模型彻底脱钩CUDA生态、倒逼全球转向中国技术标准”的情形,并未发生。
当然,DeepSeek此次将华为昇腾平台纳入首发支持阵营,仍具标志性意义。去年类似动作曾引发市场对NVIDIA生态主导地位的短期担忧,一度波及股价。因此,今晚投资者目光自然聚焦于NVIDIA股价表现——若走势稳健,或许意味着老黄可以暂时松一口气了。
此外,DeepSeek V4 Pro的定价策略也引发广泛关注。相较前代V3.2,V4 Pro的API价格大幅上调,涨幅达6–8倍:
– 百万Token输出(未命中缓存):12元;
– 百万Token输出(缓存命中):1元;
– 百万Token完整输出(含推理全流程):24元。
横向对比,该定价高于Kimi 2.6、GLM-5.1等部分国产大模型,已不再延续早期“极致性价比”的路线。官方解释称,这与其超大规模参数量(1.6万亿)直接相关——模型体积庞大、计算密度高,叠加当前高端算力资源紧张,导致单位推理成本显著上升。官网API页面亦坦承:“受限于高端算力供给,V4 Pro当前服务吞吐能力仍处于爬坡阶段。”
不过,DeepSeek也释放了明确的降本信号:随着今年下半年华为昇腾950“超节点”进入批量交付阶段,算力供给瓶颈有望缓解,V4 Pro的API价格预计将实现**大幅下调**。真正的“惊喜”,或许要等到那时才能揭晓。
文章来自互联网,只做分享使用。发布者:,转转请注明出处:https://www.pqqc.com/cheku/29626.html