Gemma 4:同等规模下最强大的开源模型

4/2/2026, 5:53:18 PM

📌 一句话摘要

Google DeepMind 推出了 Gemma 4,这是一个包含 2B 到 31B 参数的开源模型系列,在 Apache 2.0 许可下针对高级推理、智能体工作流和多模态任务进行了优化。

📝 详细摘要

Gemma 4 是 Google 最新一代开源模型,旨在提供业界领先的“参数智能比”。该系列包含四个变体:适用于移动设备和物联网的 Effective 2B (E2B) 和 4B (E4B)、用于低延迟推理的 26B 混合专家模型 (MoE),以及追求极致质量的 31B 稠密模型。主要功能包括高级多步推理、对智能体工作流(函数调用、JSON 输出)的原生支持、多模态处理(视觉和音频),以及扩展至 256K 的上下文窗口。Gemma 4 以 Apache 2.0 许可发布,针对从消费级 GPU 到移动设备的各种硬件进行了优化。

💡 主要观点

  1. 前所未有的参数智能比效率。 Gemma 4 31B 模型在 Arena AI 排行榜上排名第三,性能超越了比其规模大得多的模型,使得在较小硬件上也能实现前沿水平的能力。
  2. 对智能体和多模态工作流的原生支持。 模型内置了对函数调用、结构化 JSON 输出以及视频、图像和音频(在边缘模型中)原生处理的支持,从而赋能自主智能体。
  3. 从移动端到数据中心的硬件特定优化。 该系列专为不同环境量身定制:E2B/E4B 可在移动设备/物联网上实现近乎零延迟的响应,而 26B/31B 则可在消费级和企业级 GPU 上实现高效的本地执行。
  4. 转向宽松的 Apache 2.0 许可。 为了响应社区反馈,Google 采用了 Apache 2.0 许可,为开发者在商业使用中提供最大的灵活性和数字主权。

💬 文章金句

📊 文章信息

AI 评分:93
精选文章:
来源:Google DeepMind Blog
作者:Clement Farabet
分类:人工智能
语言:英文
阅读时间:6 分钟
字数:1258
标签: Gemma 4, 开源模型, LLM, Google DeepMind, 混合专家模型
阅读完整文章

阅读原文 QR Code 返回目录