当地时间 4 月 2 日,谷歌 DeepMind 正式发布 Gemma 4,这是一个全新的开放权重模型系列。谷歌还做出了一个关键决定:采用 Apache 2.0 许可证,彻底放弃了之前备受争议的限制性条款。作为外部人士的 Hugging Face 联合创始人兼 CEO Clément Delangue 评价称:“Gemma 4 以 Apache 2.0 许可证发布是一个重要的里程碑。”
这意味着企业可以自由部署、修改和商用,不用担心谷歌哪天改规则。在谷歌迄今为止所有的模型中,Gemma 4 是目前最强大的开放权重模型系列,继承了前沿多模态、长上下文和高级推理能力,被谷歌官方称之为是“在逐字节比较下性能最强的”开放模型(Byte for byte, the most capable open models),填补了本地前沿智能的空白,与追求极致性能的 Gemini 云端模型共同构成了完整生态。
(来源:谷歌)
Gemma 4 一口气发布了四个版本,覆盖了从手机到工作站的全部场景。
工作站这边有两个大模型:一个是 310 亿参数的稠密模型,追求最高输出质量;另一个是 260 亿参数的混合专家模型,它里面有 128 个小型专家,每次推理只激活其中一小部分,实际只跑 38 亿参数,跑起来时速度更快,适合对于速度要求较高的场景。两个大模型都支持图像输入,上下文窗口达到 25.6 万 tokens,可以一次性处理一整份长文档或一个代码仓库。
边缘设备这边有两个小模型,叫 E2B 和 E4B。E2B 实际上有 51 亿参数,但是通过一种叫做每层嵌入的技术,在运行时只发挥 23 亿参数的计算量,效率和速度跟小模型一样,但其智能水平远超同尺寸模型;E4B 同理,80 亿参数能够跑出 45 亿参数的效果。这两个小模型还特别增加了音频输入能力,可以直接做语音识别和翻译,全部在设备本地运行,不需要联网。
(来源:谷歌)
所有四个模型都原生支持函数调用和结构化输出。这意味着开发者可以让模型自己决定调用哪个 API、执行哪个工具,非常适合搭建那些能够自动完成任务的智能体。Gemma 4 的代码生成能力也很强,把模型装在自己的电脑上,它就能变成一个本地化的 AI 编程助手,不需要把代码传到云端,兼具速度和安全。
在视觉能力上,Gemma 4 比上一代有着明显进步。它支持可变分辨率的图像输入,你可以根据任务需求来调整图像到底要被切分为多少个小块,块数从 70 到 1120 个不等。做简单分类任务的话,使用小块就够了;做 OCR 识别或者文档解析,就可以使用大块。它还支持多图输入和视频输入,可以一次性分析多张截图,也能分析一整个视频的帧序列。
谷歌还公布了详细的跑分数据。310 亿参数的稠密模型在 AIME 2026 数学测试中得分 89.2%,在 LiveCodeBench 编程测试中得分 80.0%,在 Codeforces ELO 算法竞赛编程测试达到了 2150 分。
混合专家模型紧随其后,分别拿下 88.3% 和 77.1%。这两个分数放在几年前已经是闭源顶级模型的水平。边缘小模型也不遑让,E4B 在同样的测试中拿到了 42.5% 和 52.0%,比上一代 270 亿参数的 Gemma 3 还强。有网友给出了“这么小,这么牛”的评价。
(来源:谷歌)
这次许可证的变更可能是 Gemma 4 最重要的决策。之前的 Gemma 模型虽然性能不错,但用的是谷歌自己的许可证,里面有使用限制,条款还可以随时修改。很多大公司用户在法律审查这一步就被卡住了。
Apache 2.0 是开源社区最常用的许可证之一,安卓系统用的就是它,阿里的 Qwen、法国的 Mistral 也都用这个。现在谷歌终于跟上,这让企业可以放心地微调模型,然后把微调后的模型拿去商用,不用担心法律风险。谷歌对此表示:“(这是因为)我们认真倾听了创新者的需求。”
谷歌还强调,Gemma 4 与 Gemini 系列共享同一条技术生产线。换言之,谷歌把最前沿的模型研究成果,以开放权重的方式交给了开发者。
你可以把模型下载到自己的电脑上,只需使用消费级显卡就能跑起来,数据全程在本地处理。260 亿的混合专家模型经过 4 位量化后,可以装进一张 24GB 的显卡里,使用 llama.cpp 或 Ollama 这类工具就能跑。310 亿的稠密模型未量化版本需要一张 80GB 的 H100,但量化后也能在消费级显卡上运行。
谷歌还同步推出了量化感知训练检查点,确保模型在降低精度后依然能够保持高质量。目前,模型已经在 Hugging Face、Kaggle、Ollama 等平台上线,vLLM、SGLang、llama.cpp 等主流推理框架已经提供支持。
在业界合作上,谷歌已经和高通以及联发科合作,针对小模型做了硬件级优化,确保在手机上跑得又快又省电。安卓开发者现在就可以在 AICore 开发者预览版里试用 Gemma 4 的智能体工作流,未来将和 Gemini Nano 4 无缝兼容。
回顾 Gemma 系列的发展历程,从 Gemma 1 到 Gemma 3,开发者下载量超过 4 亿次,社区衍生出 10 万多个变种。而 Gemma 4 的目标很明确,那就是让开发者在自己的硬件上就能跑出接近前沿闭源模型的智能水平,把选择权完全交还给了开发者。
参考资料:
https://ai.google.dev/gemma/terms
https://blog.google/innovation-and-ai/technology/developers-tools/gemma-4/
https://www.theregister.com/2026/04/02/googles_gemma_4_open_weights/
https://www.theverge.com/ai-artificial-intelligence/906062/googles-gemma-4-open-ai-model
https://venturebeat.com/technology/google-releases-gemma-4-under-apache-2-0-and-that-license-change-may-matter
排版:胡巍巍