东吴证券:发布Gemma 4 模型能力跃迁催化终端硬件升级周期

发布时间:2026-04-07 11:16

  东吴证券发布研报称,发布Gemma 4系列开源模型,支持Agent推理、多模态、长上下文及多语言能力。技术聚焦内存效率优化,降低端侧部署门槛,扩大设备覆盖范围。Apache 2.0协议放开商用,结合Android生态落地,有望驱动端侧硬件升级与新一轮换机周期。

  东吴证券主要观点如下:

  4月3日,Google发布新一代开源语言模型Gemma 4,包括E2B、E4B、26B及31B四个版本。Gemma4全系模型支持以下能力:Agent和复杂推理:支持多步骤推理与复杂逻辑规划,具备面向Agent场景的自主工作流执行能力,可调用多种工具与API。多模态:所有模型原生支持图像与处理,并在OCR与图表理解等任务中表现突出,其中E2B/E4B版本额外支持原生音频输入。离线代码生成:支持本地环境下代码生成。长上下文:小模型支持128K上下文窗口,大模型最高支持256K上下文,显著提升长文档与复杂任务处理能力。多语言能力:已在超过140种语言上进行原生训练。

  从技术演进路径来看,Gemma 4的迭代围绕内存、交互能力等端侧部署的核心瓶颈进行优化。具体来看,1)在模型架构层面延续Per-Layer Embeddings机制,以E2B为例,总参数约5B,但实际推理仅需加载约2B核心权重,其余通过CPU按需调用,这一变化降低终端硬件的使用门槛,使模型可在当前存量中端设备上运行,扩展了端侧AI的可触达设备基数。2)在长上下文能力上,通过“交替式滑动窗口+全局注意力”以及Shared KVCache设计,大幅优化内存使用效率:多数层仅处理局部token,少数层负责全局建模,同时复用缓存避免重复计算,使KV缓存需求较传统全注意力机制下降74%。在端侧内存受限的背景下,这一优化直接决定模型是否具备处理长文档、多轮对话等真实工作负载的能力,是端侧AI走向生产力工具的关键。3)在能力边界上,Gemma 4将

  从生态角度看,Gemma系列前几代版本使用Google自定义许可证,对商用场景存在一定限制。本次Gemma 4切换至Apache 2.0协议,在无强制使用政策约束的前提下提供完全商业自由,显著降低企业采用门槛,有望吸引更多开发者与商业客户回流。另一方面,Gemma 4将作为Gemini Nano 4的基础模型,并计划于年内落地新一代旗舰Android设备,承担下一代端侧模型基座角色。据官方披露,自首代发布以来Gemma累计下载量已超过4亿次,拥有超过10万个衍生模型,初步形成Gemmaverse开发者生态。该行认为在开源协议放宽与Android体系导入的双重驱动下,Gemma 4所代表的端侧模型能力升级有望显著拓展端侧AI能力边界,并进一步催化终端硬件性能升级与新形态产品创新,带动新一轮换机周期与品类突破。

  技术创新不及预期风险,终端需求不足风险,宏观环境风险。

排行

精选