切换到宽版
  • 6阅读
  • 1回复

[智能应用]全栈AI之王 [复制链接]

上一主题 下一主题
在线天人地

UID: 1627269

精华: 2
级别: 上清仙尊
 

发帖
295171
金币
19291
道行
40006
原创
108
奖券
147
斑龄
0
道券
30
获奖
0
座驾
设备
摄影级
在线时间: 36532(小时)
注册时间: 2012-09-03
最后登录: 2025-12-07
只看楼主 倒序阅读 使用道具 楼主  发表于: 6小时前

新智元报道
编辑:犀牛
【新智元导读】随着Gemini 3模型与第七代TPU的强势发布,谷歌终于打破了OpenAI与英伟达主导的市场叙事,宣告这一「沉睡的巨人」已凭借硬核实力完全醒来。
ChatGPT一转眼已发布三年了。
过去三年,全球科技界都沉浸在一个由两位「双子星」所主导的叙事中——



  • 英伟达负责「卖铲子」,提供高达80%毛利的GPU硬件基石;


  • OpenAI则负责「挖金矿」,坚信Scaling Law(扩展法则),定义模型的前沿。

所有人都以为,谷歌这家一度被分析师认为在AI竞赛中「落后」的巨头,只能扮演一个追赶者的角色。
然而,现在一切都已不同。
上个月,当谷歌推出其Gemini 3系列模型和第七代TPU Ironwood时,市场的震撼达到了前所未有的程度。
这种震撼不是因为谷歌「追平」了对手,而是因为它直接重塑了游戏规则
作为新智元ASI产业图谱11月号文章,本文将深入分析谷歌是如何利用独有的「全栈AI」战略,构建起对手难以复制的护城河并重回巅峰的。

「沉睡的巨人」已完全醒来
Gemini 3发布后,就连奥特曼都罕见发声,承认在某些关键维度上确实「落后」了。
更加戏剧性的是,英伟达股价也应声下挫,过去一个月跌幅约15%。
如此大的跌幅逼得公司不得不发表声明,强调其GPU的通用性和CUDA生态的不可替代性。
与此同时,谷歌母公司Alphabet的股价却一路飙升,正迈向4万亿美元的市值。

这一切都指向了同一个事实:谷歌这个「沉睡的巨人」,现在已经完全醒来。
而这背后的力量源泉,正是其对AI技术栈的彻底垂直整合——全栈AI」战略
正如谷歌CEO Sundar Pichai在Gemini 3发布时所言——
也正因为我们在AI创新上有一套与众不同的全栈做法——从领先的基础设施,到世界一流的研究、模型和工具,再到触达全球数十亿人的产品——我们才能以前所未有的速度,把先进的能力带给全世界。




性能巅峰:Gemini 3
和Nano Banana的非线性突破
与Gemini 2.5 Pro相比,Gemini 3的进步并不体现在「参数翻倍」上,而是在推理能力与多模态架构上完成了一次显著跃迁。
它被谷歌定位为一款基于最先进推理能力的原生多模态模型:能在同一个模型里同时处理文本、图像、音频和视频,在统一的内部表示中做跨模态推理,并在多项主流基准测试中取得顶尖成绩。
在LMArena竞技场排行榜中,Gemini 3 Pro在所有项目中目前都排名第一。
在更强调综合智能的Artificial Analysis Intelligence Index排行榜中,Gemini 3同样以73分位居榜首。


如果说Gemini 3是智力的巅峰,那么Nano Banana Pro就是实用性和创造力的狂欢。
Nano Banana Pro一经发布,便迅速引发了一场「社交狂欢」,用户仅需通过极其简单的提示词,就能生成高质量的战力排行榜、知识绘本和各种表情包等。

谷歌CEO Sundar Pichai也提到,Nano Banana Pro在信息图表的生成上取得了突破。
这种强大的应用属性,让普通用户的创造力得以释放。
正如互联网让更多人成为创作者一样,AI工具正让更多人以脑海中的方式来表达自我。

Nano Banana Pro生成的信息图
「全栈AI」的垂直整合
模型能力的突破可能仅仅是冰山一角。
要理解谷歌的强大,则必须深入到其底层的战略本质——全栈垂直整合
如果将AI的进步视为一次登月计划,那么竞争对手可能只拥有最先进的火箭(模型)或者最有力的燃料(GPU)。
而谷歌,则建造了一座集成了燃料制造厂、火箭设计院和发射台的全套「航天中心」。
这套「全栈AI」从底层基础设施、世界级研究(模型和工具),一直延伸到面向用户的产品和平台。
换句话说,从Nano Banana这样的应用,到背后的模型,再到最底层的芯片,谷歌几乎都握在自己手里。
TPU的诞生与进化
谷歌的全栈故事,要从一场看似迫不得已的「自救」行动讲起。
2015年,谷歌内部部署了TPU v1,迅速在各部门获得热烈反响。
这并非出于炫技,而是被逼入了一个「不自研将难以支撑未来业务规模」的现实。

当时,深度学习开始广泛渗透谷歌的搜索、广告等核心业务,这让谷歌工程团队意识到一个关键问题:如果全面采用深度学习模型,谷歌全球数据中心的功耗将暴涨到难以承受的程度
当时的GPU虽然更适合训练大规模网络,但其能效并非针对实时在线推理设计的。
这让谷歌的高层意识到,继续依赖CPU和GPU的现有路线不可持续。
于是,谷歌决定自己造一块专用芯片(ASIC)——TPU,把目标定得非常简单粗暴:只干一件事,把训练和运行AI模型需要的那些矩阵、向量运算做到极致高效
到了2017年,那篇著名的Transformer论文发表后,谷歌立即意识到,这个新架构的计算模式高度规则矩阵密度极高并行度极高,简直是为TPU量身定做的。
于是,他们自己把软件架构、编译器、芯片架构、网络拓扑、散热系统都握在手里,形成全栈闭环。
TPU由此升级为谷歌AI基础设施的底座支柱

如今,TPU已发展到了第七代Ironwood(铁木)。
如果说TPU v4/v5p是兼顾训练和推理的多面手,那么Ironwood就是在继续强化训练能力的前提下,把推理放到设计核心的一代——一个为大规模推理优先、又能承担巨型模型训练的定制利器
相较第六代TPU Trillium(v6e),Ironwood在训练与推理工作负载上的单芯片性能提升超过4倍;与TPU v5p相比,峰值算力最高可达10倍。
它也是谷歌迄今性能最强、能效最高的TPU。
Ironwood单个superpod可容纳9,216颗TPU,依托9.6 Tb/s级别的芯片间互联和约1.77 PB的共享高带宽内存,大幅缓解了大模型训练和推理中的通信瓶颈,使复杂AI模型在超大规模集群上运行得更快、更稳定。
它的出现,意味着谷歌正式把资源和架构重心从「训练」转向「训练+大规模推理一体化」,并公开把「age of inference」(推理时代)定义为下一阶段AI基础设施的主战场。
通过Ironwood+AI Hypercomputer这套系统级组合拳,谷歌同时在单芯片性能和整机房级算力密度两条战线对标英伟达,争夺下一代AI基础设施的话语权。

Ironwood超级机柜的一部分,直接在一个单一域内连接了9,216个Ironwood TPU
模型与硬件的深度契合
谷歌的AI全栈战略在软硬件一体化这点上看得最清楚。
靠着这套从芯片、数据中心到模型架构都自己打通的体系,谷歌把过去层层割裂的环节拧成了一根绳,性能和效率一起往上抬。
以Ironwood为例,它就是研究人员影响硬件设计、硬件反过来加速研究成果的持续闭环产物。
当谷歌DeepMind团队需要为其顶尖模型实现特定架构突破或者优化时,他们可以直接与TPU工程师团队紧密协同创新。
这种内部协作确保了模型架构的设计始终是基于最新代际的TPU进行训练,从而相对于前代硬件实现显著的性能提升和加速。

Jupiter数据中心网络能够将多个Ironwood超级荚连接成包含数十万个TPU的集群
现在,谷歌的创新循环更进了一步,达到了「AI设计AI」的境界。
他们用一种名为AlphaChip的AI技术来设计下一代芯片的布局方案。
AlphaChip利用强化学习来生成更优化的芯片布局。
目前,这一方法已经成功应用于包括Ironwood在内的连续三代TPU的设计中。
这大大降低了谷歌对外部半导体设计工具和供应商的依赖。
通过这种自研芯片+内部优化,谷歌在算力成本上形成了天然优势,从而避免了昂贵的「CUDA税」。
巨头们的「投怀送抱」
谷歌内部实测数据显示,Ironwood在同等负载下的推理成本较GPU旗舰系统低30%-40%。
有分析指出,谷歌提供同等推理服务时的底层成本可能仅为对手的两成
在推理时代,这样的成本差异足以改变大客户的架构选择:对每年在推理上投入数千万甚至上亿美元的企业来说,压缩三到五成支出,足以改写财报。
在这一层意义上,TPU正在变成许多公司重构推理基础设施时优先考虑的算力引擎
谷歌自己也正在将TPU从「内部黑科技」打造为市场上的「生态可选项」,进而吸引像Anthropic、Meta这样的大客户。
仅Anthropic一家就计划接入高达100万个TPU。
谷歌还顺势启动了TPU@Premises计划,将TPU直接部署在企业的数据中心,使得客户可以在本地以极低的延迟使用推理能力。
近期还有市场传闻称,Meta正评估在2027年把TPU引入自家数据中心,并最早从明年起通过谷歌云租用部分算力——无论最终如何落地,这类讨论本身就说明TPU已经进入一线互联网公司的选项集。
回到更可量化的层面:根据谷歌第三季度财报,谷歌云新增客户数量同比增长近34%,超过10亿美元的大单规模已超过前两年的总和,超过70%的客户正在使用谷歌云的AI产品。
这些变化,在很大程度上都与谷歌在算力成本和产品形态上的优势紧密相关。
山庄提示: 道行不够,道券不够?---☆点此充值☆
 
天人地
在线天人地

UID: 1627269

精华: 2
级别: 上清仙尊

发帖
295171
金币
19291
道行
40006
原创
108
奖券
147
斑龄
0
道券
30
获奖
0
座驾
设备
摄影级
在线时间: 36532(小时)
注册时间: 2012-09-03
最后登录: 2025-12-07
只看该作者 沙发  发表于: 6小时前
“全栈AI之王”的问题,需先明确全栈AI的核心定义:覆盖从底层基础设施(芯片、算力)、中间层模型(算法、大模型)到上层应用(行业解决方案、终端产品)的全链条能力,实现“基础设施-模型-应用”的端到端闭环。以下是当前全球/国内在“全栈AI”领域具备领先优势的玩家及布局,按技术整合深度、落地能力、行业影响力排序:

一、谷歌:从“沉睡巨人”到“全栈AI规则重塑者”
谷歌的全栈AI战略以垂直整合为核心,覆盖“芯片-模型-应用”全链条,打破了OpenAI(模型)与英伟达(算力)的传统主导格局:

底层基础设施:第七代TPU芯片(Ironwood),针对AI训练/推理优化,单芯片性能较上一代提升4倍,支持9216颗芯片组成的超级集群,解决大模型通信瓶颈;
中间层模型:Gemini3大模型,采用多模态架构(文本、图像、音频、视频),在推理能力、跨模态交互上实现跃迁,登顶LMArena、Artificial Analysis Intelligence Index等权威榜单;
上层应用:NanoBanana Pro工具,通过简单提示词生成高质量信息图、表情包等,释放普通用户创造力;同时,谷歌将AI能力嵌入搜索、广告等核心产品,触达全球数十亿用户。
谷歌的全栈优势在于从芯片到产品的完全自主可控,通过“基础设施-模型-应用”的闭环,实现了AI能力的快速落地与规模化输出。

二、英伟达:从“算力龙头”到“全栈计算平台提供商”
英伟达的全栈AI布局以系统级优化为核心,将芯片、系统、网络、软件栈乃至AI模型视为整体设计,目标成为“从AI训练推理到传统科学计算的全栈平台”:

底层芯片:VeraRubin超级芯片,整合CPU与GPU,采用HBM4高带宽显存,兼顾AI算力与高精度科学计算;
系统级优化:提出“极限协同设计”哲学,优化芯片、网络、软件栈的协同效率,构建短期内难以超越的技术壁垒;
全栈平台:不再仅提供AI算力,而是输出“可规模化生产的通用计算能力”,覆盖AI训练/推理、传统科学计算(如超算)、未来量子混合计算等场景。
英伟达的优势在于将算力升级为“全栈计算服务”,通过系统级优化提升效率,满足从AI到科学计算的多元化需求。

三、百度智能云:“云智一体”的全栈AI闭环
百度智能云的全栈AI以**“云+AI”闭环**为核心,覆盖“算力-算法-应用”三层,连续六年位居中国AI公有云市场第一:

底层算力:自研芯片(如昆仑芯片)与GPU算力集群,支撑万卡级集群稳定运行;
中间层模型:文心大模型,作为基础模型,通过千帆平台对接第三方模型(如DeepSeek),为企业提供多元选择;
上层应用:渗透金融、能源、制造、政务等关键行业,与65%央企、80%系统重要性银行、95%主流车企合作,实现大模型的深度落地。
百度智能云的优势在于**“云智一体”的长期战略**,将AI能力与云计算结合,解决企业“从算力到应用”的落地痛点。

四、汉王科技:“多模态+终端”的全栈AI践行者
汉王科技的全栈AI以**“多模态+行业/终端”**为核心,覆盖文字、语音、图像、视频等多模态,从大模型到终端产品实现闭环:

底层技术:积累文字识别、语音识别、生物特征识别、视频智能分析等全栈技术;
中间层模型:天地大模型,采用多模态路线(文本、语音、图像、视频),具备深度专业化、知识实时化等特点,通过二次预训练形成古汉语、办公、教育等行业大模型;
上层应用:赋能国家级图书馆(古籍保护)、国有银行(智能风控)等B端客户,同时推出AI电纸本、柯氏音血压计、扫描王App等C端终端,提升用户体验。
汉王科技的优势在于**“多模态全栈+终端落地”**,将AI技术从实验室带入日常生活与行业场景。

五、瓦特曼智能:“工业AI+机器人”的全栈解决方案
瓦特曼智能的全栈AI以**“工业场景”为核心**,覆盖“机器视觉-三维感知-数字孪生-机器人控制”全链条,助力工业智能化升级:

底层感知:机器视觉(图像信号转换与特征提取)、三维感知(多传感器融合),实现工业环境的精准感知;
中间层算法:图像及AI算法、运动轨迹规划、数字孪生(物理实体与虚拟空间实时映射),支持预测性维护与仿真推演;
上层应用:工业智能机器人(如热修机械臂、打磨机器人)、全无人化智能装备、数字工厂系统平台,应用于钢铁、有色金属、能源电力等基础工业领域。
如何不发帖就快速得到金币道行
 
天人地
快速回复
限120 字节
认真回复加分,灌水扣分~
 
上一个 下一个