新闻资讯
新闻资讯

谷歌:全栈人工智能之王

新智慧报道编辑:Rhino 【新智慧介绍】随着Gemini 3机型和第七代TPU的强势发布,谷歌终于打破了OpenAi和Nvidia掌控的市场叙事,揭示了“沉睡的巨人”已经全面苏醒,展现出顽强的力量。 Chatgpt 发布已经三年了。过去三年,全球科技界一直沉浸在两个“双星”主导的叙事中——NVIDIA负责“卖铲子”,提供高达80%毛利的GPU硬件基石; OpenAI 负责“开采金矿”,坚信缩放定律(膨胀定律)来定义模型的边界。大家都认为,谷歌这个曾经被分析师认为是AI竞争中“落后者”的巨头,只能扮演捕手的角色。然而,今天一切都不同了。上个月,谷歌推出 Gemini 3 系列机型和第七代 TPU Iro 时nwood,市场震动达到了前所未有的程度。这种震撼并不是因为“谷歌与对手绑在一起”,而是因为它直接恢复了游戏规则。作为ASI行业地图11月号的一篇文章,本文将深入剖析谷歌如何利用其独特的“全栈AI”战略,构筑一条竞争对手难以复制的护城河,重回巅峰。 “沉睡的巨人”已经完全苏醒。 《双子座3》上映后,就连奥特曼也很少发声,承认确实在一些关键维度上“堕落”。更引人注目的是,英伟达股价也随之下跌,环比下跌近15%。如此大的影响迫使该公司发表声明,强调 GPU 的多功能性和 CUDA 生态系统的不可替代性。与此同时,谷歌母公司Alphabet的股价节节攀升,市值直逼4万亿美元。所有这些点同样的事实:谷歌这个“沉睡的巨人”现在已经完全苏醒了。这背后的动力源泉是AI技术栈的完整垂直整合——“全栈AI”方式。正如谷歌首席执行官 Sundar Pichai 在 Gemini 3 发布时所说的那样——正是因为我们在人工智能创新的全栈方面拥有独特的方法——从领先的基础设施,到全球研究、模型和工具,再到惠及全球数十亿人的产品——我们才能以前所未有的速度将这些先进的能力带到世界各地。巅峰性能:Gemini 3及非线性突破 Gemini 3和Nano Banana相比Gemini 2.5 Pro,Gemini 3的发展并不是体现在“参数翻倍”,而是推理能力和多模态架构的显着飞跃。它被谷歌定位为基于最先进推理能力的原生多模态模型:它可以在同一环境中同时处理文本、图像、音频和视频。我的模型,在统一的内部表示上执行跨模态推理,并在许多关键基准测试中取得最佳结果。在Lmarena Arena排名中,Gemini 3 Pro目前在多个项目中排名第一。在更加注重综合智能的人工智能指数排名中,Gemini 3也以73分的成绩名列榜首。如果说Gemini 3是智能的缩影,那么Nano Banana Pro就是实用性与创造力的狂欢。 Nano Banana Pro一经发布,迅速引发了一场“社交狂欢”。用户可以用简单的文字生成高质量的战力排行榜、知识绘本、各种表情包。谷歌首席执行官Sundar Pichai也提到Nano Banana Pro在信息图表的生成方面取得了突破。该应用程序的强大特性允许普通用户释放他们的创造力。正如互联网让更多人成为创造者一样,人工智能工具让更多人成为创造者以一种来自他们内心的方式压迫自己。我们的 Nano Banana Pro 开发的集成“全栈 AI”信息图建模功能的突破可能只是冰山一角。要了解谷歌的力量,你必须审视其潜在的战略本质——全栈垂直整合。如果将人工智能的进步视为登月计划,那么竞争对手可能只有最先进的火箭(模型)或最强大的燃料(GPU)。而谷歌则建造了一个完整的“太空中心”,包括燃料制造厂、火箭设计院和发射台。这种“全栈人工智能”从底层基础设施、全球研究(模型和工具)延伸到面向用户的产品和平台。换句话说,从Nano Banana这样的应用程序,到其背后的模型,再到最低的安塔斯芯片,谷歌几乎把一切都掌握在自己手里。谷歌整个TPU故事的诞生和演变始于一场看似被迫的“自我救赎”2015年,谷歌内部发送了TPU V1,很快得到了各部门的热烈响应。这并不是为了展示技能,而是被迫接受一个事实:“如果不自研,很难支撑未来的业务规模。”当时深度学习开始广泛渗透谷歌的搜索、广告等核心业务,这让谷歌工程团队认识到一个重大问题:如果全面采用深度学习模型,谷歌全球数据的功耗将虽然当时的GPU更适合训练大型网络,但它的能效并不是为实时在线识别而设计的,这让谷歌高管意识到继续依赖CPU和GPU的现有路线是不可持续的,因此谷歌决定开发自己的专用芯片(ASIC)——TPU,并设定了一个非常简单粗暴的目标:只做一件事,执行训练和运行人工智能模型所需的矩阵和向量运算。到了 2017 年,著名的 Transformer 论文发表后,Google 立即意识到这种新架构的计算模型非常规则,矩阵密度非常高,并行度非常高。它是为TPU量身定制的。因此,他们把软件架构、编译器、芯片架构、网络拓扑、散热系统都掌握在自己手里,形成了全栈闭环。 TPU由此升级为谷歌AI基础设施的基础和骨干。如今,TPU 已内置于第七代 Ironwood 中。如果说TPU V4/V5P是兼顾训练和推理的全能型,那么Ironwood就是将推理作为设计核心同时不断强化训练能力的一代——一款欣赏大规模推理、能处理巨型模型练习的定制工具。与第六代TPU trillium(V6E),Ironwood的单芯片在训练和识别工作负载上的性能提升了4倍以上;相比TPU V5P,峰值算力提升达10倍。这也是谷歌迄今为止最强大、最高效的能源。单个铁木超级吊舱可容纳 9,216 个 TPU。依托9.6TB/S级的片间互连和约1.77PB的高带宽共享内存,极大缓解大规模训练和推理的通信瓶颈,让复杂的AI模型在超大规模集群上运行得更快、更稳健。它的出现意味着谷歌正式将资源和架构的重点从“训练”转向“训练+识别大规模融合”,并公开确定“智能时代”为下一阶段AI基础设施的主战场。通过 Ironwood + AI 超级计算机的系统级组合,Google 在两个方面同时对标 NVIDIA:计算层面的单芯片和计算机级计算性能,争夺下一代AI基础设施的话语权。作为 Ironwood 超级机柜的一部分,9,216 个 Ironwood TPU 模型直接连接到单个域。该硬件与谷歌全栈AI方法的深度契合体现在软硬件的集成上。依靠这套从芯片、数据中心到模型架构一体化的系统,谷歌将之前分离的各个环节拧成了一根绳子,一起提升了性能和效率。以铁木为例,它是研究人员影响硬件设计、硬件加速研究成果的连续闭环的产物。当Google DeepMind团队需要为其领先模型实现特定的架构或优化突破时,他们可以直接与TPU工程团队互动并密切合作进行创新。内部协作确保设计模型架构始终基于最新一代的TPU进行训练,从而相对于上一代硬件实现显着的性能提升和加速。 Jupiter 数据中心网络可以将许多 Ironwood 超级 Pod 连接成包含数十万个 TPU 的集群。现在,谷歌的创新周期又向前迈进了一步,进入了“人工智能设计人工智能”的领域。他们使用一种名为Alphachip的人工智能技术来设计下一代芯片的布局规划。 Alphachip 使用强化学习来生成更优化的芯片布局。 Head 过去,这种方法已成功应用于包括 Ironwood 在内的连续三代 TPU 的设计中。这大大减少了谷歌对外部半导体设计工具和供应商的依赖。通过这种内置自研芯片+内部优化,谷歌在算力成本上形成了天然优势,从而避免了昂贵的“CUDA谷歌内部实测数据显示,Ironwood在相同负载下的推理成本比旗舰GPU系统低30%-40%。有分析师指出,谷歌提供同等推理服务的底层成本可能只有竞争对手的20%。事后看来,这种成本差异足以改变大客户的架构选择:对于每年在推理上投入数千万甚至数亿美元的公司来说,减少30到10%的NG支出。从这个意义上来说,TPU 成为很多公司重建推理基础设施时优先考虑的计算引擎,谷歌本身也将 TPU 从“内部黑科技”变成了市场上的“生态选项”,从而吸引了 Anthropic 和 Meta 等大客户。直接接入企业数据中心,让客户能够以超低延迟使用本地推理能力。最近市场有传言称,Meta 正在考虑在 2027 年在自己的数据中心引入 TPU,并在明年提前通过谷歌云租用部分算力。不管最终如何落地,这种讨论本身就表明TPU已经进入了一线互联网公司的行列。回到更冷静的角度:根据谷歌第三季度报告,谷歌云新客户数量同比增长近34%。 10亿美元以上大订单规模超过前两年的总和。超过 70% 的客户使用 Google Cloud 的 AI 产品。这些变化与谷歌在计算能力和产品形态成本方面的优势密切相关。 C端:终极全栈AI引擎。正如谷歌CEO皮查伊上面所说,谷歌的全栈AI战略是一个全面的涵盖人工智能基础设施、全球研究(包括模型和工具)以及将人工智能带给全球用户的产品和平台的系统。 C端产品,尤其是搜索、地图等核心业务,以及Gemini App、Nano Banana Pro等AI新应用,不仅是战略的最终输出,也是驱动整个全栈AI生态向前发展的主引擎,是实现技术验证、数据分析和业务闭环的关键。谷歌无与伦比的用户规模和数据广度为定制硬件和领先模型提供了无与伦比的“炼金炉”和“试验场”。这些数据源包括Google搜索、Android、YouTube等。Google通常自己使用这些数据。像Gemini系列这样的机型被认为是贯穿所有Google产品的主线。 2025 年第三季度,Google 的第一方模型 tulGemini 广告仅通过直接客户端 API 每分钟处理约 70 亿个代币。如果新增搜索、YouTube、Android等所有接口,该模型每月挖掘的代币数量超过1.3万亿个,一年内增长了20多倍。这些数据都体现了C端产品作为AI能力载体的巨大规模。他们还让Gemini应用上线后月活跃用户数迅速突破6.5亿,形成了驱动AI发展的数据飞轮。以谷歌AI模式为例。自推出以来,它在美国实现了强劲且持续的每周增长,查询量在一个季度内翻了一番。截至第三季度,其日活跃用户超过7500万,并在全球以40种语言进行推广。最重要的是,AI模式给搜索带来了查询量整体增长的提升。 12月2日,谷歌宣布将整合AI搜索模式,为搜索用户提供类似ChATGPT的聊天体验。这款C端proPipeline已成功将AI技术转化为现实的业务增长,进一步确立了谷歌在关键领域的竞争优势。简而言之,谷歌的C端产品(如搜索)是整个AI战略的需求源、数据场和业务风口。这些C端产品一方面创造了真实的流量和使用压力,另一方面不断反馈给谷歌的TPU和Gemini,让他们在高频迭代中更省钱、更高效。全栈人工智能:重述科技文明的基础。在当今“推理优先”的AI时代,谷歌率先将竞争从单一的冲刺模式转变为全栈系统马拉松。此时,真正的护城河不是谁拥有更多的芯片、更先进的型号,而是谁掌握了“基础设施-科研-产品-数据”的闭环。展望未来,如果过去的互联网解决了“如何查找信息”,那么 Full-Stack AI将回答“如何再次修复世界”。如果以谷歌为代表的科技公司能够将AI闭环转化为公平的教育、更好的科学研究、更可持续的产业,将在很大程度上决定下一代科技文明的形态——好吧,我们甚至不想谈论AI,因为它将成为文明的默认背景。参考资料:https://cloud.google.com/blog/products/compute/ironwood-pus-and-new-axion-based-vms-for-your-ai-workloads https://cloud.google.com/transform/ai-specialized-chips-pu-history-gen-ai?utm_source=chatgpt.comchat assa 秒搞定,一键连三个链接⭐轻星锁定新智元快推! 特别声明:以上内容(如有则包括照片或视频)由自媒体平台“网易号”用户上传发布。本平台仅提供信息存储服务。 注:以上内容(含即时年龄和视频(如有)由网易HAO用户上传并发布,网易HAO是一个社交媒体平台,仅提供信息存储服务。
上一篇:评论上官 下一篇:没有了