📄 报告解读:高盛 — 追踪万亿:塑造 AI 基建规模的关键假设

高盛全球研究院(GSGI)发布了一份场景分析框架,探讨决定 AI 基建总投资规模的四个核心供给端假设。作者:George Lee & Lucas Greenbaum,2026年5月1日。

📊 基准线
• 2026-2031年累计 AI CapEx 约 7.6万亿美元(含芯片、数据中心、电力)
• 2026年年度 7650亿美元 → 2031年增至 1.6万亿美元
• 基准假设:NVIDIA占计算支出75%,芯片基准为VR200 Rubin($80.5K/GPU含节点成本,3000W),PUE 1.2,数据中心$1500万/MW,电力$2500/kW

🔑 四大关键假设

1️⃣ AI芯片经济使用寿命(影响最大)
• 折旧周期4-6年,而数据中心建筑约20年、电力设施约25年
• NVIDIA 每年迭代新架构,每代阶跃式提升(非渐进改良)
• 寿命从4年延至6年→累计支出减少数千亿美元
• 举例:单片$50,000的加速器按5年折旧=每年$10,000,若提前淘汰则资产仍挂在账上却已不产生经济价值
• A100/H100等旧芯片租金仍高,分级部署模式(推理、边缘计算、合成数据等)可能支撑5-6年以上的实际使用寿命

2️⃣ 数据中心成本与复杂度
• 传统超大规模云数据中心约 1000万美元/MW → AI数据中心已达 1500万-2000万美元/MW
• 功率密度飙升要求液冷、系统级协同设计(计算/内存/网络/冷却/电力一体化)
• 两年前设计的「过渡型AI数据中心」可能已无法承载最新AI芯片(如NVIDIA GB300 NVL72单机架72颗处理器)
• 2010年代的云数据中心按15-20年寿命建造,但AI设施可能面对完全不同的折旧曲线

3️⃣ GPU vs ASIC架构选择
• 核心取决于需求弹性:算力变便宜→花更少还是用更多?
• 弹性需求(基准情形):便宜算力催生更大模型,总支出不变,利润从芯片商(NVIDIA毛利率~75%)向云厂商转移
• 非弹性需求:固定算力目标下,更便宜的硅直接降低总资本需求
• 当前仍处弹性区间,ASIC主要改变支出分配而非总量

4️⃣ 建设瓶颈(延长效应)
• 电力并网排队、审批流程、专业劳动力短缺、关键设备(变压器、开关柜、涡轮机、冷却系统)长交期
• 基准情形:延期但不减总量,主要影响时间节奏和波动性
• 压力情形:大规模停滞→市场转向需求端质疑→负反馈导致投资缩减

📌 不改变总规模的变量:训练vs推理占比、内存价格波动、自备电厂vs电网——这些影响回报和波动性,但不改变资本总量

⚠️ 野卡:类似DeepSeek时刻的颠覆性创新(算力效率跃升或架构范式转移)

🔄 悖论:如果基建成功建成、算力成本大幅下降,技术史表明结果不是过剩,而是新一波应用场景的涌现

原文:https://www.goldmansachs.com/insights/articles/tracking-trillions-the-assumptions-shaping-scale-of-the-ai-build-out