这几年AI圈有个默认的“分工”
英伟达专心卖“铲子”
而OpenAI、谷歌、Meta这些公司负责挖“金矿”
甭管谁挖到了金子
卖铲子的黄仁勋
绝对是稳赚不赔的那一个
但是,就在这两天,黄仁勋突然宣布了一个大消息,直接把整个AI圈给炸懵了:英伟达不仅要把铲子卖到底,还要亲自下场挖矿了!而且一出手就是个大招——推出了号称“最强开源模型”的Nemotron3Super,并且豪掷260亿美元,打算在未来五年全力搞研发。
很多人可能想问,英伟达不好好卖它的显卡,凑这个热闹干嘛?今天咱们就用人话来聊聊,这个被外媒称为“怪兽”级别的模型,到底是个什么来头?
说起大模型,咱们普通人的第一反应就是看参数。这次英伟达拿出来的Nemotron3Super,拥有1200亿参数,但它牛的地方不在于这个数字,而在于它的“架构”。
以前的大模型就像是一个全能但有点笨重的“大力士”,无论你是让它算1+1还是解微积分,它都要调动全身的力气,这就导致运行成本极高,反应也慢。
而英伟达这次的模型,采用了一种叫混合专家(MoE)和Mamba架构的黑科技。你可以把它理解成一个高效的“专家团”:平时只需要激活“专家团”里的一小部分人(120亿参数)来干活,但需要处理复杂任务时,又能随时调动全员智慧。
这种设计的最大好处是:不仅跑得快,而且吃得少。官方数据显示,它的推理吞吐量比上一代提升了5倍,准确率翻倍。这就好比以前你要拉一车货需要一辆油耗巨高的重型卡车,现在换成了一辆灵活又省油的混动皮卡,活儿没少干,成本却降下来了。
这次Nemotron3Super发布,还有一个很有意思的背景——现在全球科技圈最火的概念叫“AI智能体”,也就是大家俗称的“龙虾”(OpenClaw)。
这玩意儿是干嘛的?简单说,以前的AI是聊天机器人,你问它答;现在的AI智能体是能直接帮你干活的“数字打工人”。比如帮你订机票、写代码、整理几千页的财务报表。
但这就带来两个头疼的问题:“上下文爆炸”和“思考税”。
啥意思?比如你让AI去处理一份超长的合同,以前的模型看着看着就忘了前面写了啥,或者因为要记的东西太多,直接把显卡内存撑爆了。
英伟达这次直接把模型的“记忆力”拉满,支持100万token的上下文窗口。这意味着什么?像《三体》三部曲那样的长篇巨著,它能一次性全记在脑子里,边看边分析,再也不会“看了后面忘前面”。在OpenClaw的任务成功率测试中,它拿下了85.6%的高分,性能直逼那些最顶尖的闭源模型。
看到这里,你可能会觉得英伟达真良心,不仅硬件强,还白送这么强的模型。但老黄毕竟是个商人,这背后其实藏着一个更大的“阳谋”。
过去英伟达担心什么?担心别的芯片厂(比如AMD)或者大厂自研的芯片(比如谷歌的TPU)抢走它的生意。但如果未来的大模型不再依赖英伟达的显卡优化,那它的护城河就变浅了。
现在不一样了。Nemotron3Super有一个独门绝技:它原生支持一种叫NVFP4的数据格式,而这种格式只有英伟达最新的Blackwell显卡才能跑得最溜。
这就相当于老黄不仅给你提供了一桌满汉全席的菜(开源模型),还悄悄告诉你:这菜必须用我家特制的锅(Blackwell显卡)炒才好吃,用别家的锅味道就不对。这种从硬件到软件的深度绑定,让竞争对手想模仿都难。
英伟达这次的操作,可以说是既当裁判员,又当运动员。它不再满足于做AI世界的“军火商”,而是要成为那个制定游戏规则的“帝国建造者”。
对于我们普通用户和打工人来说,这其实是个好消息。巨头们打得越凶,我们能用上的工具就越强、越便宜。也许在不久的将来,每个人都会拥有一个不仅会聊天,还能真正帮我们搞定繁琐工作的“超级智能体”。
毕竟,谁不想拥有一只既能干又能省的“龙虾”呢?