
—— 当OpenAI还在赌模型,谷歌已"全栈"反击夺回AI主导权。
“我猜,谷歌一定会赢。”
2025年12月初,AI教父 Geoffrey Hinton(杰弗里·辛顿)在接受采访时脱口而出。
更扎心的是下一句:
“我觉得更让人意外的是,Google居然花了这么久才超越OpenAI。”
这句话,像一枚深水炸弹,瞬间引爆全球科技圈。
要知道,三年前,是OpenAI用ChatGPT拉响了谷歌内部的“红色警报”;
而今天,轮到奥特曼在全员备忘录中大喊:“全员进入红色警戒状态!”
短短三年,攻守之势,已然逆转。
而Hinton的预言之所以可信,不是因为他曾是Google Brain的创始科学家,而是他看透了一个正在被多数人忽略的事实:
AI的下半场,不再比谁模型更大,而是比谁“全栈”更硬。
01
OpenAI的困局:模型王者,生态孤岛
OpenAI严重依赖英伟达GPU和微软Azure云。
这意味着:
反观谷歌,自研TPU已到第七代(Ironwood),单芯片性能较上一代提升4倍以上,
推理成本比GPU低30%–40%,
甚至已向Meta、Anthropic等竞争对手开放算力——
TPU正从“内部黑科技”变成“行业基础设施”。
OpenAI的核心产品仍是ChatGPT。
尽管用户量庞大(周活近10亿),但用户停留时长短、使用场景窄、商业化路径模糊。
更致命的是,当Gemini 3在文档理解、视频推理、屏幕操作等多模态任务上全面领先,
连Salesforce CEO马克·贝尼奥夫都直言:
“用了两小时Gemini 3,我立刻卸载了用了三年的ChatGPT。”
OpenAI已承诺投入数千亿美元建设AI基础设施,
但2025年营收仅130亿美元,分析师预测到2029年可能累计亏损1400亿美元。
而谷歌仅靠搜索广告,每季度就能创造300亿美元利润,足以支撑长期投入。
02
谷歌的反击:全栈AI,打造“AI航天中心”
Hinton所说的“谷歌早该赢”,正是基于这套垂直整合的全栈战略。
2015年,谷歌预见到AI将吞噬数据中心功耗,
果断启动TPU项目——自研专用AI芯片。
如今第七代TPU Ironwood,已实现:
更惊人的是,谷歌用AI(AlphaChip)设计AI芯片,
连续三代TPU均由强化学习自动生成布局,
大幅降低对外部EDA工具的依赖。
Gemini 3 Pro被谷歌称为“迄今最强大的多模态模型”,
其突破不在参数,而在认知跃迁:
文档理解:能将18世纪手写商人日志转为结构化表格;
空间推理:通过像素坐标理解物理世界,支持机器人垃圾分类;
屏幕理解:看懂手机界面,自动完成操作(未来或替代豆包手机助手);
视频理解:10FPS高帧率捕捉动作细节,甚至能总结成可执行应用。
在CharXiv基准测试中,它以80.5%的准确率超越人类基线。
在LMArena排行榜,全项第一。
谷歌的真正护城河,不是技术,而是用户飞轮:
用户用得越多,模型越强;模型越强,用户越离不开——
这才是OpenAI最难复制的飞轮。
03
AI下半场的胜负手:不是模型,是系统
Hinton的预言,本质上是对AI发展范式的判断。
过去五年,我们信奉“大力出奇迹”——
喂更多数据、堆更多算力、做更大模型。
但正如Ilya Sutskever所言:
“ Scaling时代正在结束。有些至关重要的东西,仍是缺失的。”
缺失的,正是“系统性整合能力”。

谷歌的全栈优势,让它能在训练、推理、产品、数据四者间形成正循环:
TPU让训练更高效 → Gemini让产品更智能 → 产品吸引用户产生数据 → 数据反哺模型形成闭环。
这才是扛住AI寒冬的真正底气。
04
效率鸿沟:OpenAI的“隐形危机”
就在谷歌全力推进全栈整合时,OpenAI最新《企业AI现状报告》却意外揭示了一个残酷现实:
AI正在制造“精英-普通”新阶层。
但前5%的“前沿员工”(Frontier Workers)效率提升高达16倍,消息量是中位数员工的6倍;
19%的活跃用户甚至从未尝试过“数据分析”功能。
更令人警觉的是:
这说明:
AI不是普惠工具,而是放大器——放大有准备者的领先优势。
OpenAI自己也承认:
“企业AI已从试水期进入深水区,深度使用者正在拉开代际差距。”
而这种“使用鸿沟”,恰恰暴露了OpenAI的短板:
它提供了强大的模型,却缺乏引导企业构建深度AI工作流的系统能力。
反观谷歌,
TPU+Gemini+Workspace+Android 的闭环,正在系统性降低深度使用的门槛。
05
对人才的警示:CS学位依然“真香”
就在AI焦虑弥漫全球之际,78岁的Hinton在生日当天给出了一剂清醒剂:
“现在绝不是放弃CS学位的时候。”
他指出:
真正不会被取代的,是数学、统计、概率论——这些底层认知能力。
这番话,既是对年轻学生的鼓励,也是对行业方向的点拨:
AI下半场,不是“会不会用AI”的问题,而是“能不能理解AI系统”的问题。
而谷歌的全栈架构,恰恰为这类人才提供了最肥沃的土壤——从芯片设计到模型训练,从操作系统到行业应用,每一个环节都需要“懂AI也懂系统”的复合型人才。
06
对中国AI的启示:全栈,才是出海的船票
当全球AI竞争进入“系统战”阶段,
中国AI企业也面临转型压力。
而Hinton的判断,恰恰戳中了中国AI的软肋:
单点模型突破,无法对抗全栈生态的系统性优势。
真正的出海船票,不是参数规模,也不是API调用量,而是可自主可控、可全球部署、可行业嵌入的全栈能力:
全栈能力 = 国产芯片 × 行业模型 × 操作系统 × 全球场景。
缺一环,便是“无根浮萍”;四者齐备,方能穿越周期。
那么,在当前格局中,谁最接近“中国版谷歌”?
全栈不是选择题,而是生存题。
当谷歌用TPU训练Gemini、用Android分发AI、用Workspace沉淀企业数据时,中国AI的“系统建造者”也正站在历史的门槛上——
他们的出现,或许将决定我们能否在下一代产业生态中赢得一席之地;
否则,我们或许能赢得几场模型评测的掌声,却注定输掉下一代产业生态的主导权。
Hinton说“谷歌早该赢了”,
不是赞美,而是提醒。
AI的上半场,属于“模型突破者”;
AI的下半场,属于“系统建造者”。
OpenAI点燃了火种,但谷歌正在建造一座能穿越周期的文明。
技术浪潮从不等待犹豫者。
当别人还在争论“GPT还是Gemini更强”,
真正的赢家,早已把芯片、模型、产品、数据拧成一股绳。
而这场全栈AI的军备竞赛,
才刚刚进入高潮。
欢迎转发、点赞、在看——让更多人看见“创造”的新可能。
下一站预告
#AI+产品创新峰会· 2026上海站