关键要点:
- 微软专有的 MAI 系列专注于通过 Azure 提供企业云服务,推出了用于转录、语音和图像生成的新模型。
- 谷歌的开源 Gemma 4 模型针对从 GPU 到移动设备的硬件本地执行进行了优化,采用宽松的 Apache 2.0 许可。
- 此次双重发布加剧了 AI 平台之争,将微软的集成云方案与谷歌加速开源采用的战略推向对立。
关键要点:

微软和谷歌在周四升级了人工智能领域的竞争,宣布了两个截然不同的 AI 模型系列,这凸显了该技术在部署方式上的战略分歧。微软正通过其 Azure 云独家发布三个全新的专有“世界级”MAI 模型,而谷歌则通过推出四个旨在各种设备上本地运行的 Gemma 4 模型,进一步推向开源。
“我们正在迅速部署这些顶级模型,以支持我们自己的消费级和商业产品,”微软在一份声明中表示。相比之下,谷歌强调了其对开源社区的承诺。“Gemma 4 是当今你可以在本地硬件上运行的最强大的模型系列,”谷歌表示,并将其定位为对其更大型专有 Gemini 模型的补充。
微软通过其 Azure Foundry 平台提供的新阵容包括 MAI-Transcribe-1,这是一款支持 25 种语言的语音转文本模型,速度比现有解决方案快 2.5 倍。它还推出了 MAI-Voice-1,仅需一秒钟的样本即可生成 60 秒的音频,以及速度更快的文本转图像模型 MAI-Image-2,该模型正被集成到 Copilot、Bing 和 PowerPoint 中。
谷歌的 Gemma 4 系列通过采用宽松的 Apache 2.0 许可标志着重大转变,摆脱了以前的定制许可。该系列包括适用于消费级 GPU 的 26B 和 31B 参数版本,为编码助手和代理工作流程提供支持。更轻量级的 E2B 和 E4B 版本则针对移动和物联网设备(包括 Raspberry Pi)上的低延迟、离线使用进行了优化。这些模型已在 Hugging Face、Kaggle 和 Ollama 上提供。
这种战略分歧对 AI 市场具有重大意义,预计该市场在十年内的收入将超过 1 万亿美元。微软正在加固其企业护城河,利用独家、高性能模型吸引更多客户进入其 Azure 生态系统,并增强 Copilot 等产品。这直接挑战了亚马逊云服务(AWS)和其他企业软件供应商。
相反,谷歌采用宽松许可的开源战略可能会加速封闭系统之外的 AI 开发,潜在地使某些 AI 功能商品化,并建立一个忠于其工具的广泛开发者生态系统。此举通过使强大的模型能够在更广泛的消费级设备上运行,对英伟达在硬件领域的主导地位构成了压力,并挑战了 OpenAI 等竞争对手的封闭模型方法。对于投资者而言,这一分野在微软集成的、高利润云服务与谷歌成为开放、去中心化 AI 景观基础层的长期布局之间提供了选择。
本文仅供参考,不构成投资建议。