一年狂赚 5300 亿!黄仁勋:要感谢 DeepSeek
来源:笔记侠整理
今天早上英伟达交出了整个AI界都在期盼的最新成绩单。
英伟达2025财年第四季度财报显示:第四财季总营收达到393.31亿美元,同比增长78%;净利润为220.66亿美元,同比增长72%。
全年来看,英伟达全年实现营收1304.97亿美元,同比增长114%;净利润达728.80亿美元(约合人民币5292亿元),同比增长145%。
今年1月底DeepSeek的横空出世,一度对英伟达造成了冲击,股价蒸发近6000亿美元。投资者质疑DeepSeek的崛起是否会对美国科技巨头的算力支出产生实质性影响,从而动摇AI行业的发展预期。
但一个多月之后,英伟达交出的这份连创三大纪录的财报无疑打消了华尔街投资者的种种顾虑。截止目前英伟达已经收复了大部分失地,年内至今股价仅下跌3%。
那么,面对全球反垄断的“围剿”和DeepSeek的“突袭”,英伟达的底气从何而来?
老黄又是怎样评价DeepSeek的呢?
今天,我们就来一起探究这些问题,希望今天的分享,对你有所启发。
01
DeepSeek
英伟达的“神助攻”
当DeepSeek爆火之时,美国AI相关公司股价大跌,英伟达股价曾一度暴跌17%,6000亿美元灰飞烟灭。
后来大家开始意识到,DeepSeek的低成本创新路线,将推动AI应用爆发,从而带动算力需求的增长。
虽然短期压力仍在,但英伟达股价有所回升。
英伟达CEO黄仁勋在上周三接受采访时谈到了对DeepSeek的看法。
黄仁勋说:“DeepSeek很棒,因为它开源了一个世界级的推理模型。”
黄仁勋指出,从根本上说,DeepSeek-R1的发布对AI市场是有利的,它不仅不会减少对计算资源的需求,反而会加速AI的采用。
黄仁勋认为,因为新的推理方法会让AI"一步步地思考怎样更好地回答问题",所以它的计算消耗是过去的100倍,而下一代AI会比现在的大模型多几百万倍的计算量。
随着DeepSeek-R1本地化部署的爆火,英伟达亲自下场,开源了首个在Blackwell架构上优化的DeepSeek-R1。
近期,英伟达公布了自家B200和DeepSeek大模型结合后的成果:在Blackwell架构芯片上引入DeepSeek-R1优化后,与四周前的H100相比,DeepSeek-R1的推理吞吐量提升了25倍,每个token的成本降低了2000%。
曾参与构建OpenAI首个GPU集群的Vinayak昨天发表的评论则揭示了一个深层逻辑——DeepSeek开源的优化方案实质上巩固了英伟达的技术壁垒:
“毫无疑问,这将进一步巩固英伟达的领先地位。换句话说,如果你想要像DeepSeek这样的专家团队为你优化功能,那就选择英伟达。英伟达很可能会在接下来的Blackwell和Rubin迭代中引入这些改进(如果他们在未来几个月内这么做了,我一点也不会感到意外)。”
这也意味着,DeepSeek的优化能力的确很强,同时,最强算力和顶尖模型的联合,会让大模型推理的效率大幅上升。
02
Blackwell芯片
英伟达的王牌
在发布财报后的电话会议上,“出镜率”最高的当数Blackwell。
在第四季度,英伟达已经从Blackwell相关产品中获得110亿美元收入,占公司整体数据中心收入的50%。
现在的英伟达正经历最关键的产品转型——从销售单个芯片转为销售完整的AI计算系统,就是Blackwell这个全新芯片架构。
黄仁勋表示:“我们正处于推理AI和推理时间扩展的起步阶段,但我们才刚刚进入AI时代。多模态AI、企业AI、自主AI和物理AI即将到来,我们将在2025年实现强劲增长。”
黄仁勋认为,未来AI模型将有多个扩展维度:预训练、训练后(如强化学习、微调)和推理时间扩展。
推理需求将大幅增长,特别是长思考推理AI模型,其计算需求可能比预训练高出几个数量级。
黄仁勋在电话会议中强调,Blackwell架构为推理AI设计,推理性能比Hopper提升25倍,成本降低20倍。英伟达的架构通用性强,能够灵活适应不同的AI工作负载,从预训练到推理都能高效运行。
黄仁勋强调,英伟达在打造Blackwell的时候就考虑了这一点,不管是前期训练还是后期推理,Blackwell都能满足。这种通用性和兼容性,就意味着英伟达囊括了最大的算力市场,和专用芯片的固定性不能比,回应了市场上对于GPU和专用芯片,到底谁更强的问题。
“Blackwell的需求非常惊人,推理AI增加了另一个扩展定律——增加训练计算能力使模型更智能,增加长时间思考的计算能力使答案更智能,”黄仁勋在一份声明中表示。“我们已经成功扩大了Blackwell AI超级计算机的大规模生产,在第一季度实现了数十亿美元的销售额。AI正在以光速发展,代理AI和物理AI为下一波AI革命奠定了基础,将彻底改变最大的行业。”
黄仁勋在财报电话会议上说:“Blackwell涵盖了从预训练、训练后到推理的整个AI市场,从云端到本地,再到企业级应用。CUDA的可编程架构加速了每一个AI模型以及超过4400个应用,确保了在快速发展的市场中对大型基础设施投资的保护,使其免受过时的影响。我们的性能和创新速度无与伦比。”
在财报会上,黄仁勋进一步强调对需求的乐观估计。在被问到Blackwell在早期生产过程中遇到的一些问题时,他说:“这可能浪费了我们几个月的时间,但公司正在以光速恢复。而从中获得的经验教训,也将助力下一代产品Blackwell Ultra。”
他认为,由于芯片架构相同,因此向Blackwell Ultra的过渡将更加顺利。
英伟达将在3月17号举行的GTC公布下一代产品Blackwell Ultra,还有下一代架构Rubin。目前英伟达已经在和各个客户沟通,保证他们能够提前做好准备,迎接下一个更新换代。
黄仁勋表示: “随着数据中心将成为人工智能工厂,2025年我们将实现强劲增长。 ”
03
H20芯片卖爆
英伟达“卖铲人”地位
岿然不动
据英国路透社援引市场人士消息称,自从DeepSeek上月成为全球焦点以来,腾讯、阿里巴巴和字节跳动对H20芯片的订单量“显著增加”。
H20是英伟达在2023年底针对中国市场推出的一款人工智能芯片,也是目前中国买家能在合法渠道上买到的用于大模型训练的最先进的英伟达芯片。
去年一季度开卖的时候,一台H20八卡服务器的售价高达140万元人民币,但是它的算力和价格相当的H100相比,只有后者的15%。
这种极低的性价比导致H20一度在市场上不受欢迎,大家对H20的认知就是“鸡肋产品”,仅有少数大公司进行大批量采购。
但是DeepSeek的突然出现,让H20变成了“香饽饽”。
目前H20成了市场上需求最大的芯片之一。价格涨上去了,一台部署8卡H20的DeepSeek满血版一体机售价100万-110万元,价格已经接近同等级英伟达H100产品。而且拿货还要等待1-2个月。
据某资深产品专家说,H20是能合规买到的最强英伟达AI芯片,Deepseek-R1“满血版”(DeepSeek推出的R1模型中的最强版本,具备671B参数,性能表现最好,对硬件资源的要求也最高)用H20的八卡模组就能跑起来,对于想要部署满血版DeepSeek大模型的用户,以及正在推DeepSeek大模型一体机的厂商而言,H20是个很好的选择。
我们不禁要思考一个问题:国产芯片也先后宣布完成了对Deepseek的适配,为什么还是英伟达H20最先接住了需求?
其实,“能跑”与“跑得好”是两回事。用打游戏来比喻,就是你的电脑可能会带得动“黑神话·悟空”,但是玩起来动作不够流畅,画面细节显示不出来。
国产芯片目前主要是完成了对Deepseek的适配,实现了“能跑”,离“跑得好”还需要一段时间。
另外,DeepSeek及其他AI大模型的落地带来的算力基础设施增长还只是开始,整个市场对芯片的需求整体还在上升。
在国内,大手笔投入的首先是阿里、字节跳动、百度、腾讯、华为各大云与AI服务提供商。阿里巴巴集团CEO吴泳铭在2月24日宣布,未来三年,阿里将投入超过3800亿元,用于建设云和AI硬件基础设施,总额超过去十年总和。
在国外,Meta预计在2025年的资本支出将达到600亿至650亿美元,其中绝大部分将用于人工智能基础设施建设;亚马逊计划在2025年投入约1000亿美元,重点用于AWS的AI基础设施建设。
黄仁勋认为,AI已经成为主流技术,从长期来看,AI将渗透到更多行业,推动全球经济增长。而这背后蕴藏了比现在多百万倍的算力需求。
这可能就是英伟达和黄仁勋的底气所在。
参考资料:
1.《英伟达狂揽393亿美元,三大谜题未解》,21世纪经济报道
2.《英伟达再次超预期,为何盘后下跌?》,美投讲美股
3.《英伟达电话会:黄仁勋称DeepSeek R1点燃全球热情》,依次努科技
4.《中国大厂,疯狂扫货英伟达H20》,半导体产业洞察
5.《黄仁勋:感谢DeepSeek!英伟达财报破纪录,Blackwell开卖血赚800亿老黄笑疯》,新智元
6.《英伟达稳住了,黄仁勋最该感谢的,就是梁文锋》,直面AI
7.《英伟达,凌晨突袭》,中国企业家杂志
8.《涨价、供不应求,Deepseek带英伟达特供中国算力芯片翻红》,财经杂志
THE END
扫描二维码推送至手机访问。
版权声明:本文由0538资讯网整理发布,内容均来自互联网,如有侵权联系8641340@qq.com删除。