📄 报告解读:高盛 — 追踪万亿:塑造 AI 基建规模的关键假设

高盛全球研究院发布了一份场景分析框架,探讨决定 AI 基建总投资规模的四个核心供给端假设。

📊 基准线
• 2026-2031年累计 AI CapEx 约 .6 万亿
• 2026年年度 亿 → 2031年增至 .6 万亿

🔑 四大关键假设

1️⃣ AI芯片经济使用寿命(影响最大)
• 折旧周期4-6年,而数据中心建筑约20年、电力设施约25年
• NVIDIA 每年迭代新架构,每代阶跃式提升
• 寿命从4年延至6年→累计支出减少数千亿美元
• A100/H100等旧芯片租金仍高,分级部署模式可能支撑更长实际寿命

2️⃣ 数据中心成本与复杂度
• 传统云数据中心 ~M/MW → AI数据中心已达 -20M/MW
• 功率密度飙升要求液冷、系统级协同设计
• 两年前设计的「过渡型」数据中心可能已无法承载最新AI芯片

3️⃣ GPU vs ASIC架构选择
• 核心取决于需求弹性:算力变便宜→花更少还是用更多?
• 弹性需求(基准):便宜算力催生更大模型,总支出不变,利润从芯片商(NVIDIA毛利率~75%)向云厂商转移
• 当前仍处弹性区间,ASIC主要改变支出分配而非总量

4️⃣ 建设瓶颈(电力并网/审批/劳动力/设备交期)
• 基准情形:延期但不减总量,主要影响时间和波动
• 压力情形:大规模停滞→市场转向需求端质疑→负反馈导致投资缩减

📌 不改变总规模的变量:训练vs推理占比、内存价格波动、自备电厂vs电网

⚠️ 野卡:类似DeepSeek时刻的颠覆性创新
🔄 悖论:如果基建成功建成、算力成本下降,技术史表明结果不是过剩,而是新一波应用场景

原文:goldmansachs.com/insights/articles/tracking-trillions