准作赃 儿一 天空球来几和朱云(下) 处目 十总年址 2025 年11 月27 日15:28 目录 六、房间里的大象 数学 可以解释一切? Al 带飞算力需求 最 新碎钞机 :Al Infra Al 改造 云计算 Al 时代,云巨头 赢面最大 七、云宇宙中谁最强? 过 和角子 啥价格 入手四娃? 八 、Call Back

六 、房间里的大象 Al 是云计算行业中的大 象,而且其鼻子长又 长,对云计算的影响远超以往任何技术更新, 值得 我们仔细观察。 数学 可以解释一切? 自2023 年OpenAl 的大语言 模型ChatGPT 发 布以来,全球科技圈进入到了大模型创新 和 应用的Al 时代。大模型 是怎样工作的呢? 我们先来看一个完形填空问题, 我爱老〈

如果是我旭妇看到了,她肯定会说最后一个词 是“ 姿”;但如果是我母亲看到了, 她可能会说 是“妈”” 书院的朋友们的第 一反应 应该是”唐”。 大家的第一反应之所以不一样,是因为 有不 同的背景信息带来的经验性预测。 大语言模型的工作原理其实也是预测 ,理解 这一点非常 关键! 但大模型的预测靠的是数学函数对人类语 言信息的概率分 布的掌握: 用一个超级复杂 的函数来解释词汇间的分布规律。换 句话说, 这个函数主要吕是来求解不同词汇之间 的关 联 性 的 比 如 你 我 他 这 种 代 词 之 间 有 很 高 的关联性; 价值投资、杠杆、小麦之间有 很低的关联性等等。

介但验资 琶 和 站 小朗 过 而函数对人类信息概率分布的掌握的好坏 一般取决于这个模型学会了多少分布规律。 每一个分布规律就叫做一个参数。人参数越”多, 函数 就越复杂,而函数 越复杂,大模”型 对话 言信息概率分布的掌握就越好。这个就是新闻 中 老听到的Scaling Law( 规律 法则 ,参数量 越大,训练数据越 大,算力越 大 ,模型表现越 好)。比如ChatGPT5 的参数 为3000亿,相当 于大模型在一个3000亿维度的世界中理解人 类语言信息。

那么大模型是如何掌握这种规律的呢? 训练大语言模型首先需要准备极大规模的文 字 人信息,如OpenAl 为 了训练GPT-3, 共计 使用了4990亿tokens, 大致相当于144 万套 哈利波特全集(1-7) 的信息量。 GPT-3 训练数据情况 GPT-3 training datal1:9 Proportion Dataset ##tokens is Common clawjj 410billlon 本间 WebText2 19bmon Books1 iP bijllion Books2 55 billion Wikipedia 3billion 数据来源: 维基百科 .用tokens 而不是用我 们熟悉的单词量来表示信息量是因为单词大 小不一,而计算机只能标准化作业,为 了圳

括 所有单词,需要把最长的单词 (pneumonoultramicroscopicsilicovolc anoconiosis(45 个字母),意为一种由火山 尘埃引起的肺部疾病)作为最小计算单位,这 对整体算力是极大的浪费。因此把单词 拆分 成token, 这样可以实现算力的 经济性。 比如, 把”internationalization” 拆成4 个 token:inter+national+ization + (结尾标记)。 一 般而言,1 token=0.75 words (英文)。 OpenAl 最新的GPT5 模型 没有公开使用的 数据量,据独立Al 研究LifeArchitect.ai 推测 ,使用了114 万亿tokens, 是GPT3 的 200 多倍 ,相当于3.3亿套哈利波特全 集(1-7) 的信息 量 。假设一套哈利波特全集的厚度为 那么3.3亿套哈利波特全集(1-7) 的总厚 度达9.9 万公里,可以红亦道2.5圈。 如此巨大的信息量大模型是如何“学习” 的呢? 有趣的是, 在我看了很多资料 后,脑海 中竟然浮

现出了准备考试时刷题的日” 子。看来刷题的办法 好像在AI 上也 成立? 大模型训练过程与高考生备考对比 强化学 预训练 监督微调 习对齐 amyawaeng, 区 什么 三攻来,纠 加间痢”次,于检来现。 做标准模拟是,老 参加模拟高考,老 在经过上述三个阶段后,大模型公司就会给 他们起一些厉害的名字,然后就发布了。 好 事者就会开始给他们打分 ,比方说比较 知名 的LMArena, 全称为Large

Arena, 是由LMSYS 和加州大学伯克利 分校 SkyLab 共同开发 的开源平台,它的核心目 标是通过实时测试和直接比较 ,评 佑不同大 型语言模型的综合能力。 LMArena 的全球实时大语言模型能力排名 三年 数据来 源 ,LMArena, 链 接https:/Imarena.ailleaderboard 大模型 发布后, 就可以回答我们的问题 了。比 如我们回到刚才的完形填空: 我 爱老 大模型的运算逻辑就是分别计算与我” “爱” \、“” 老”三 个token 相关 性最高的词是什么?

然后再结合三个计算结果来选出最可能的下 一个词是什么,然后 输出。这一过程叫自回归 生成一一也就是大模型的预测 过程。 自回归生成 的步双 步骤 发 生了什么 输入阶段 把你的提示河全部限进 去b 一软人位计算所有位置的注意/ .生成 阶段 和生成 一个新将失主算当肪词对之的所有词的注意) Decode { 不往看 到未 来词) 数据来源,Al 整理 Al 的工作模式很像是 我很喜欢的一部电影 《三 傻大闹宝莱坞》中的Silencer ( 因嘉 欢 放闷屁,被起的外号)。他喜欢 圆回吞束、 死记硬背的学习方法,南管是什么科目,他 只会背诵 ,然后就可以在考试中套用标准答 案而获得 高分。最终经过他的刻苦努力也赢 得了佳人和豪宅。

《三 傻大疝宝莱坞》中的Silencer Al 带飞算力需求 随着大模型技术的迭代发展,Al 回答问题 的准确性和深度肉眼可见的提高,每一次”新 的大模型 的推出,都让笔者怀疑人类是否掌

握了造物 主的技能。近两年,Al 大模型在 to C市 场和to B 市场开始大杀四方。 To cC 方面,根据IDC 的数据,在亚太 地区, 没 使用过Al 的比例为0; 每天都使用的比例接 近30% To B方面,根据天风证券数 据, 年9 月企业对Al 接受 度以达到40%以 上。 生成式Al 普遍融入消费者生活 企业Al 采用率整体已达到40%

企业AI 采用率整体已达到40% Al Adoption Rate (% 加 一一整体一一小型企业”一 一中型企业 大型企业 了2 本 10 AAA 7 从凡凡Ap 人分光Ap 从从放轴他 凡凡人入凡和和和和和和和 Tokens 消费量也处在爆发式增长的状态。目 前定期公开披露tokens ”消费 量的谷歌的 数据显示,相比于去年5 月 ,消费量已 经暴涨 了超130 倍。

图表: 谷歌每月tokens 处理量( 万亿) 年10月 万亿 ?2035 年8 月 万亿 2026 年4 月 480 万亿 今年10月谷歌用户共消耗的1300 万亿tokens 是多大体量呢? 这大约相当于谷歌 跟用户一 个月噶了约9亿套哈利波特全集, 如果排排坐 的话,可以绕地球接近7 图! 最 新碎钞机 :Al Infra

当Al 带来的算力需求爆发后,云巨头很快 发现自己传统数据中心无法高效满足Al 的 工作负载 ,价值上万亿的数据中心不好用了! 1)传统数据中心的计算核心CPU 擅长 串行 任务(按顺序依次计算的方式),而Al ”需要 并行计算( 大量重复的计算同步进行),这导致 计算效率跟不上, 只有GPU 的高并行 计算能 力才能胜任。这就是为啥研发项尖GPU 的英 伟达过去3 年,归母利润涨了16.7倍! GPU 在算力方面 碾压CPU

数据来 源:,Al 整理。名词解释: TFLOPS: 每秒万亿次浮点运算,数值越大,运算速”度 越快,FP16/FP32: 是浮点数的一种格式, 使 用16/32 个位来存储一个带小数的数字。 FP16 的精度 不如FP32,但因其占内存小, 大模型应用的算力利用效率更 好; FP32 适 合精度要求更高的场景 2)GPU 的高功率导致发热严重, 传统数据中 心的风冷散热系统无法应 对,因此需要升级 为 液冷系统; 另外高功率也导致耗电量高增。 这就是咱国家“ 东数西算” 战略的来由, 西部天 气寒冷且发电成本低廉,可以大幅降低数据 中心的散热成本和电力 成本 3) 网络与带宽限制明显。并行计算 带来的 超高量数据需要高效网络传输 。传 统网络 (Ethernet) “带宽低(10-100Gbps),Al 。需高 带宽InfiniBand(400Gbps) 支持分

布 式训练。 因此 ,为 了应对Al 大模型训练及推理需求, 巨头们必须投入重金建设Al 数据 中心(Al Infra)。 数据来 源: AI 整理 另一方面 ,刚刚经历2023 年全球经济疲软带来 的云计算增长趋缓 , 云巨 头的CE0看 到 了AI 可 能会带来的云计算再次高增长的潜力。且这种 潜力慢慢在业绩数据中证实; 四大云营业收入增长率过去4 年呈现先跌后升 的情形。

四大云营业收入同比增长率(%) 和 村 们 37% 末 一37% 的 本本本31% ”7 用 人 国轩时> 国目国 根据国海证券统计的业绩 会信息,显示Al 对云巨头们的增长贡献明显。 CD 网对生|下 人AAzure asansepa 在外部需求 高增时,云巨头的其他主营业务 上 ,Al 的应用也越来越多。

因此, 巨头们做出重金投入新建AI 数据中心 的决策并 不难 四 大云资本开支情况及增长比例 扯靖| [症山中 数据 说明: 2025 年按照前三季度数据线性预 测

从上图可以看到,四大云的资本开支在经历 了两年低谷 后, 2024 年重新进入高增长阶段 那么四大云的资本开文是否谨慎呢?有人在 玩火么?我们来看几组数据。 三大云的剩余履约义务/收入积压 数据说 明; 根据财报解释,剩余履约义务 (PRO) 或收入积压(revenue backlog) 的意思是已经与客户签约,并且客户没有解 约权的预期未来收入,也包括 已经收到现金 流的递延收益部分,另阿里巴巴未披露 该项

可以看到,三大云的订单储备相比于 GPT3.5 发布前的2022 年有了巨大的增长。 我统计了下三大云今年q1-q3 的资本开支 亚马逊 89,900 微软 68,141 谷歌 63,600 数据说 明: 微软数据已调整为自然季度的数 据。 因为数据中心的核心设备GPU 的折旧 年限 一般为3-6 年(最近电影大空头原型人物 Michael “Burry 在吐槽云巨头们人为拉长 折旧时间, 中们下文就按大空头认可的3 年折 日期来计算), 而订单储备一般在2 年内确认一 半的收入(参考三大云年报的备注)。

如果未来三大云的新增资本开支产生的折 上日摊销成本小于订单储备带来的确认收入, 则说明资本开支较为良性,云巨头 还烧的”起。 即: 资本开支/3< 订单储备/4 则: 资本开支/订单 储备〈3/4 也就是说资本开支/订单储备的比例小于0.75 则能保证未来打旧摊销成本小于收入增长。 在今年以来的资本开支/订单储备的比例 来看, 应该还算健康。目前的资本开支,看起来像 是一场需求锁定的高确定 性下注。 算法说 明: 这个算法忽略了已有固定资产/ 无 形资产带来的折旧摊销成本; 也忽略了订单 储备是对新增收 入的不完全预测,其包含一 部分是老客户的持续订疝,这部分不能算作 新增收入;另也忽略了无法预测

的弹性算力需求贡献的新增收入。因此,仅 供参考。 订单储备是云巨头们协议签约金额 ,但并未 落实 到现金流上。我们再来观察下四大云资 本开文与递 延收益(Deferred revenue) 比值。 数据 说明: 递延收益 类似于a 股的合同负债。企 业已经收到客户的现金 ,但 由于还未提供服务, 因此列在负债中的deferred revenue 里。 我 们知道,四大云除了云计算还有其他重 要业务 板块,假设所有的递延收益都由云计算 带来的,

从图中比例 来看,四大云 中,亚马逊 一直保持了高 比例 最为激进,而其他三家也在2024 年显著提高 了比例,微软则是最保守 的。 我们再从四大云资本开文/经营净现金流的角 度看看。 四大云资本开支/经营净现金流 数据来源: 公司财报 上图可以看 出 ,如果考虑了四大云的含非云 业务 带来的现金流,阿里巴巴 是最为激进的, 而谷歌和微软则较为保守。 在上述三个维度可以看出,虽然资本开支的 绝对金额上来说,与四大云的市场占有率匹 配:AWS>Azure>GCP> 阿里云。但资本开

支与其经营数据的比值来 看:亚马逊和阿里 巴巴较为激进; 谷歌 云次之; 微软Azure 的 资本开支最为保守。 为何微软保持较为保守的资本开支呢?根据 最近微软CEO 纳德拉的采访, 在算力布 局上, 云厂商面临着三种不确定性: 1, 英伟达的GPU 更新速度与数据中心建设 应用及5 年折旧的使用周期相比过快, 很可能 数据中心刚建成不 久,GPU 的算力能力就 落后了,这给微软的资本开支的投资回报率 带来不确定性; 卷王英伟达的产品更新节奏

年份 架构/产品 关键特性与进展 Hopper H100 首款支持FP8 精度的AlGPU, 训练 性能较A100 提升9 倍 集成HBM3 内存 ,带宽达 3 TB/s Hopper H200 升级版 ,优化大模型推理效率 支持HBM3e内存,提升带宽与能效比 BlackwelLB1400/B200, 首款Blackwel 架构GPUW._专为万亿参数级Al设计 采用分积也4NP 工艺: 委友HBM3e 内存 GB200 N 是

  • Blackwell 架构的NVLink72系统 级方案 5 支持60 万零部件集 成凡算力圳度提升25 佑 L40S 加速器
  • 基于AdaLovelace 架构的通用人推理加速器
  • 优化图形与模拟应用性能 Blackwell Ultra B100/B200的增强版,HBM3e 容量 提升至288GB 推出DGX Station 单 卡方案 架构(提前) -~ 原计划2026 年发 布,因需求激增提前 至2025下半年 采用HBM4 内存,支持 CoWoS 先进封装 数据来源: Al 梳理 本 人已 2, 这两年大模型能力并非OpenAl 一家独大, 万 性> 4 尺 \主中F 且AGI 的实现路径/时间表也不清晰;

3,Al 推理应用需求长期性和稳定性还无 法有 效预测。 为了应对这三种不确定性 ,微软的整体战略 是 1,Al 算力建设的最低要求: 每18 个月为各种 OpenAl 模型提供10倍的训练能 力,同时要 对支持OpenAl 训练 和推理应用需求进行 2, 商业化的速度决定投入进度,且在某些地 区选择租赁外部算 力 ,比如使用GPU 即 服务 模式的算力供应。这就是上一章提到的 Al 云计算公司CoreWeave 的大客户是微 3, 对于每一代GPU 不过分追求大体量的投 入,算力上布局每一代GPU, 同时坚持在推 理应用上支持多个大模型。

对于这种在不断衡量风险后的审慎投入的态 度,有腾讯 的味道。我是非常欣赏的,哈哈 Al 改造 云计算 推动云巨头大兴土木的 ,除了上面聊到的眼 通过 前文我们知道Al 是个基于历史大数据 来进行 预测的工具,这种预测的能力在传统 的云计算中也有用武之地 。比如laaS 业务 中 ,Al 自动 分配算力,预测故障并自动修复, 监督异各流量导致自动安全防护措施等。在 PaaS 中,则提供Al 自动生成代码,自动运 维 等功能 ;SaaS 中 ,比 如帮忙写文档或 PPT 的copilot,智能客服等。 Al 全面优化云计算服务

量化效果(2025 年真实数 云层级 则优化方向【2025 年主演娄法) 代表产品/技术(四 大云) 所 可以说 ,Al 成为算力基础设施的’ 智能大脑’, 帮助云计算服务实现自动化 、预测性和个性 化 。除了改造 旧模式,Al 还催生了两个新物 种:MaaS(Model Service, 大模型 即服务 )和智能体(Agent) 服务。

MaaS 服务是云平台向客户提供多个大模型 API 以提供Al 服务。 Azure 的MaaS服 务: 大模型选择界面 -一 g 一~ 一 国症cr Agent 则让Al 有具备复杂多步骤的生产能力, 自动 化工作流程,大幅提升企业运转效率。 云平台纷纷开始设立自己的Agent 市场, 自己和第三方都可在该平台上提供付费版的 Agent。 Agent 工作原理

吗 |国国 和 从 图片来 源 ,Azure 官网 根据 谷歌云官网介绍,Agent 已 经有客户在

Agent gallery ~一一一-一一一-一-一一了 上述 一整套Al 服务已经成 为目前云巨头们 的重点布局方向。 云巨头们在Al 服务 上的全面布局 AS Amam Beiok(chate。。。 AmamnBook 。ApamnQ_( 代至 Ce (独家GPT-4olol ”Azure Machine 本ee ”VerexAL (Gemini25+ Gemma) Verier AI AutoML 。Google Agentspace DAL (Workepace) 阿里通义咎间roweas系列+ Phi各 林失出, 全TAI助手、罗和

我们来看个实例感受下Al 对云计算的赋能。 阿里云对义马小商品城app 的Al 赋能 2和 思EEC SEN FSC2INN 图片来源: 阿里 云官网 可以看到 ,Al 几乎渗透到了义务小商品城的 设计、运营 、销售等全部环节。 Al 时代,云巨头 赢面最大 大乱斗

目前 我们能看到构建Al 基础设施的不止云 根据10月31 日巴克莱研报,美国目前已规划 的大型数据中心项目总容量超过45 吉瓦 这股建设热潮预计将吸引超 过2.5 万亿美 元的投资。其中占比较高的项 目有: 1,OpenAl 与Stargate 项目: 该项目计划到 年实现10吉瓦、5000 亿美元的投资目标。 目前已承诡约7吉瓦容量,分布在德克陕斯州、 威斯康星 州等地,其合作伙伴包括甲骨文、 软银和数据中心开发商Vantage、Crusoe 等。 FlGURE 1. Stargate commitments: 7 GW | 500 bn by year-end 2,Meta: 正在推进多个“ 泰坦集群, 包括俄亥 俄州的1吉瓦Prometheus 项目和路

易斯安那州计划扩展至5 吉瓦的Hyperion 项 目。3, 亚马逊: 在过去12 个月全球新增了3.8 吉瓦 容量,并预计到2027 年容量将再次翻倍,巴 克莱据此推算其在2026-2027 年间仅在美国 就可能增加约13 吉瓦的容量。 4,微软: 正在威斯康星 州建设一个900 兆瓦的 Al 工厂,并已在美国其他地区规划多个类似 项 目。 5,XAl: 正在田纳西州和孟菲斯市将其数据 中心扩容至1 .4吉 瓦,用于训练其Grok 模型。 从中我们可以看到很多非云玩家 :Meta 为 社交媒体公司; openAl、xAl 都是大模型公 司; 软银科技投资巨头等等。这些新玩家的 入局为未来的Al 算力竞争 格局带来了新的 Al 宇宙 的玩家一览

AI行业产业链及核心公司 条国洒证 问题的关键 是找到关键的问题 但如果我们用长期视角来观察,会发现云计 算是 赢面最大的。 为何? 是典型的资本密集型和技术密集型的产 业,也是典型的成长期的行业,所以其竞争 态势与过去20 年的云计算行业一样,是一场 长 期战争 。如果我们从Al 的基础原理出发就 知道,越大参数的模型往往有越好的 应用表

现,越大参数的模型及越好的 应用表现 都需 要越大的算力支持,越 大的算力基础设施就 需要 越多的资本开文,而越多的资本开文承 也就是说,在Al 领域 ,谁 先实现: 资本开支

  • 算力-模型-应用-资本开支的飞轮 ,谁 就有持 续投入的最长期动力,从而实现规模经济。 资本 开支 规模 应用 算力 经济 大模 型

从实现这一飞轮的视角,算力 、模型、应用 我们来依次分析云巨头在这三大件上的表现; 算力方面 算力我们从算力体量和算力平均成本两个维 度讨论。

  1. 算力体量 在前一章我们已经分析过, 在Al infra 的投资 上,四大云是在有强大经营现金流及订单储 备 的支撑下,进行的大规模 的投入。在体量 上目前唯一能比肩四大云的主要 是Meta 和 OpenAl。 科技巨头资本开文领先全球

我们来分析下表中两位非云选手的情况; 对 于Meta 而言,投资Al infra 是为了训练自 己的Al 大模型Llama, 避免受制于人, 最终优 化自身社交网络广告的精准度和元宇宙沉浸 式体验。Meta 在算力战略上一直 是自建算 力与租用云巨头算力并行,因此对于云巨头 来 说, Meta 更像是一个潜力客户而非竞争对 手。 Meta 的算力策略 时间线

OpenAl 呢? 前 文提到,OpenAl 主导的Stargate 项目 体量计划达到惊人的5000亿美元。据《The Information》报道,软银和OpenAl 分别承 诡投资190亿美元,并将各自持 有合资公司 的股权,而甲骨文和MGX( 阿布扎比政 府背景投资公司)将分别出资70亿美元,其余 资金将来源于有限合伙人和债务融资 ,微软

将在该项目中提供技术文持。近 期 Altman 又表示,未 来8年,OpenAl 将投入 约1.4 万亿美元打造算力基础设施。 如果这一切成为现实 ,那么确实 会对现有AI 算力格局产生重要的影响。我们如何评估其 可能性呢? 先来看看钱从哪来: Stargate 的算力仅限于OpenAl 使用, 此 其未来资本开文也主要 来自于OpenAl 的 收入极其大模型领先地位带来的融资能力。 Sam Altman 近日 发表推文表示,预计今年 底OpenAl 的年化收入将超过200亿美元, 并 预计到2030 年增长至数千亿美元。Sam Altman 认为,基于当前观察到的Al 使 用趋 势及用户需求规模, “OpenAl 面临算力不 足 的风险,远比算力过剩更为严峻 且更可能发生。11 月1日,Sam Altman 和微软CEO 纳德拉在共同接受的访谈中表