| 天人地 |
2025-12-07 13:10 |
新智元报道 编辑:犀牛 【新智元导读】随着Gemini 3模型与第七代TPU的强势发布,谷歌终于打破了OpenAI与英伟达主导的市场叙事,宣告这一「沉睡的巨人」已凭借硬核实力完全醒来。 ChatGPT一转眼已发布三年了。 过去三年,全球科技界都沉浸在一个由两位「双子星」所主导的叙事中——
英伟达负责「卖铲子」,提供高达80%毛利的GPU硬件基石;
OpenAI则负责「挖金矿」,坚信Scaling Law(扩展法则),定义模型的前沿。
所有人都以为,谷歌这家一度被分析师认为在AI竞赛中「落后」的巨头,只能扮演一个追赶者的角色。 然而,现在一切都已不同。 上个月,当谷歌推出其Gemini 3系列模型和第七代TPU Ironwood时,市场的震撼达到了前所未有的程度。 这种震撼不是因为谷歌「追平」了对手,而是因为它直接重塑了游戏规则。 作为新智元ASI产业图谱11月号文章,本文将深入分析谷歌是如何利用独有的「全栈AI」战略,构建起对手难以复制的护城河并重回巅峰的。 「沉睡的巨人」已完全醒来 Gemini 3发布后,就连奥特曼都罕见发声,承认在某些关键维度上确实「落后」了。 更加戏剧性的是,英伟达股价也应声下挫,过去一个月跌幅约15%。 如此大的跌幅逼得公司不得不发表声明,强调其GPU的通用性和CUDA生态的不可替代性。 与此同时,谷歌母公司Alphabet的股价却一路飙升,正迈向4万亿美元的市值。 这一切都指向了同一个事实:谷歌这个「沉睡的巨人」,现在已经完全醒来。 而这背后的力量源泉,正是其对AI技术栈的彻底垂直整合——「全栈AI」战略。 正如谷歌CEO Sundar Pichai在Gemini 3发布时所言—— 也正因为我们在AI创新上有一套与众不同的全栈做法——从领先的基础设施,到世界一流的研究、模型和工具,再到触达全球数十亿人的产品——我们才能以前所未有的速度,把先进的能力带给全世界。
性能巅峰:Gemini 3 和Nano Banana的非线性突破 与Gemini 2.5 Pro相比,Gemini 3的进步并不体现在「参数翻倍」上,而是在推理能力与多模态架构上完成了一次显著跃迁。 它被谷歌定位为一款基于最先进推理能力的原生多模态模型:能在同一个模型里同时处理文本、图像、音频和视频,在统一的内部表示中做跨模态推理,并在多项主流基准测试中取得顶尖成绩。 在LMArena竞技场排行榜中,Gemini 3 Pro在所有项目中目前都排名第一。 在更强调综合智能的Artificial Analysis Intelligence Index排行榜中,Gemini 3同样以73分位居榜首。 如果说Gemini 3是智力的巅峰,那么Nano Banana Pro就是实用性和创造力的狂欢。 Nano Banana Pro一经发布,便迅速引发了一场「社交狂欢」,用户仅需通过极其简单的提示词,就能生成高质量的战力排行榜、知识绘本和各种表情包等。 谷歌CEO Sundar Pichai也提到,Nano Banana Pro在信息图表的生成上取得了突破。 这种强大的应用属性,让普通用户的创造力得以释放。 正如互联网让更多人成为创作者一样,AI工具正让更多人以脑海中的方式来表达自我。 Nano Banana Pro生成的信息图 「全栈AI」的垂直整合 模型能力的突破可能仅仅是冰山一角。 要理解谷歌的强大,则必须深入到其底层的战略本质——全栈垂直整合。 如果将AI的进步视为一次登月计划,那么竞争对手可能只拥有最先进的火箭(模型)或者最有力的燃料(GPU)。 而谷歌,则建造了一座集成了燃料制造厂、火箭设计院和发射台的全套「航天中心」。 这套「全栈AI」从底层基础设施、世界级研究(模型和工具),一直延伸到面向用户的产品和平台。 换句话说,从Nano Banana这样的应用,到背后的模型,再到最底层的芯片,谷歌几乎都握在自己手里。 TPU的诞生与进化 谷歌的全栈故事,要从一场看似迫不得已的「自救」行动讲起。 2015年,谷歌内部部署了TPU v1,迅速在各部门获得热烈反响。 这并非出于炫技,而是被逼入了一个「不自研将难以支撑未来业务规模」的现实。 当时,深度学习开始广泛渗透谷歌的搜索、广告等核心业务,这让谷歌工程团队意识到一个关键问题:如果全面采用深度学习模型,谷歌全球数据中心的功耗将暴涨到难以承受的程度。 当时的GPU虽然更适合训练大规模网络,但其能效并非针对实时在线推理设计的。 这让谷歌的高层意识到,继续依赖CPU和GPU的现有路线不可持续。 于是,谷歌决定自己造一块专用芯片(ASIC)——TPU,把目标定得非常简单粗暴:只干一件事,把训练和运行AI模型需要的那些矩阵、向量运算做到极致高效。 到了2017年,那篇著名的Transformer论文发表后,谷歌立即意识到,这个新架构的计算模式高度规则、矩阵密度极高、并行度极高,简直是为TPU量身定做的。 于是,他们自己把软件架构、编译器、芯片架构、网络拓扑、散热系统都握在手里,形成全栈闭环。 TPU由此升级为谷歌AI基础设施的底座和支柱。 如今,TPU已发展到了第七代Ironwood(铁木)。 如果说TPU v4/v5p是兼顾训练和推理的多面手,那么Ironwood就是在继续强化训练能力的前提下,把推理放到设计核心的一代——一个为大规模推理优先、又能承担巨型模型训练的定制利器。 相较第六代TPU Trillium(v6e),Ironwood在训练与推理工作负载上的单芯片性能提升超过4倍;与TPU v5p相比,峰值算力最高可达10倍。 它也是谷歌迄今性能最强、能效最高的TPU。 Ironwood单个superpod可容纳9,216颗TPU,依托9.6 Tb/s级别的芯片间互联和约1.77 PB的共享高带宽内存,大幅缓解了大模型训练和推理中的通信瓶颈,使复杂AI模型在超大规模集群上运行得更快、更稳定。 它的出现,意味着谷歌正式把资源和架构重心从「训练」转向「训练+大规模推理一体化」,并公开把「age of inference」(推理时代)定义为下一阶段AI基础设施的主战场。 通过Ironwood+AI Hypercomputer这套系统级组合拳,谷歌同时在单芯片性能和整机房级算力密度两条战线对标英伟达,争夺下一代AI基础设施的话语权。 Ironwood超级机柜的一部分,直接在一个单一域内连接了9,216个Ironwood TPU 模型与硬件的深度契合 谷歌的AI全栈战略在软硬件一体化这点上看得最清楚。 靠着这套从芯片、数据中心到模型架构都自己打通的体系,谷歌把过去层层割裂的环节拧成了一根绳,性能和效率一起往上抬。 以Ironwood为例,它就是研究人员影响硬件设计、硬件反过来加速研究成果的持续闭环产物。 当谷歌DeepMind团队需要为其顶尖模型实现特定架构突破或者优化时,他们可以直接与TPU工程师团队紧密协同创新。 这种内部协作确保了模型架构的设计始终是基于最新代际的TPU进行训练,从而相对于前代硬件实现显著的性能提升和加速。 Jupiter数据中心网络能够将多个Ironwood超级荚连接成包含数十万个TPU的集群 现在,谷歌的创新循环更进了一步,达到了「AI设计AI」的境界。 他们用一种名为AlphaChip的AI技术来设计下一代芯片的布局方案。 AlphaChip利用强化学习来生成更优化的芯片布局。 目前,这一方法已经成功应用于包括Ironwood在内的连续三代TPU的设计中。 这大大降低了谷歌对外部半导体设计工具和供应商的依赖。 通过这种自研芯片+内部优化,谷歌在算力成本上形成了天然优势,从而避免了昂贵的「CUDA税」。 巨头们的「投怀送抱」 谷歌内部实测数据显示,Ironwood在同等负载下的推理成本较GPU旗舰系统低30%-40%。 有分析指出,谷歌提供同等推理服务时的底层成本可能仅为对手的两成。 在推理时代,这样的成本差异足以改变大客户的架构选择:对每年在推理上投入数千万甚至上亿美元的企业来说,压缩三到五成支出,足以改写财报。 在这一层意义上,TPU正在变成许多公司重构推理基础设施时优先考虑的算力引擎。 谷歌自己也正在将TPU从「内部黑科技」打造为市场上的「生态可选项」,进而吸引像Anthropic、Meta这样的大客户。 仅Anthropic一家就计划接入高达100万个TPU。 谷歌还顺势启动了TPU@Premises计划,将TPU直接部署在企业的数据中心,使得客户可以在本地以极低的延迟使用推理能力。 近期还有市场传闻称,Meta正评估在2027年把TPU引入自家数据中心,并最早从明年起通过谷歌云租用部分算力——无论最终如何落地,这类讨论本身就说明TPU已经进入一线互联网公司的选项集。 回到更可量化的层面:根据谷歌第三季度财报,谷歌云新增客户数量同比增长近34%,超过10亿美元的大单规模已超过前两年的总和,超过70%的客户正在使用谷歌云的AI产品。 这些变化,在很大程度上都与谷歌在算力成本和产品形态上的优势紧密相关。
|
|