IDC 数据显示,2024年 AI 数据中心 IT 能耗(含服务器、存储系统和网络)达到 55.1 太瓦时(TWh),2025 年将增至 77.7 太瓦时,是 2023 年能耗量的两倍。2027 年将增长 至146.2 太瓦时,2022-2027 年五年年复合增长率为 44.8%,五年间实现六倍增长。
2022 年 AI 数据中心占数据中心总能耗 7.6%,2027 将提升到 18%。
Translink Capital 归纳了一组对比,上图是美国本土的数据中心的能耗需求(2024 - 2030),下图是美国本土的电力供应(2010 - 2024)。
很容易看到一个矛盾:未来几年极速增加的电力需求和过去十五年一直增长停滞的电力供应。
#矛盾催生结构性机会
Bain 咨询公司的研究显示,2023 - 2028 美国的电力净增量中,有 44% 来自数据中心的需求。
AI 对基础设施的需求拉动很明显
Synergy Research 预计到 2030 年,全球超级数据中心(Hyperscale)的计算能耗容量会是目前的三倍。但数据中心的每年新增个数则相对稳定。
这意味,单位数据中心讲具有更高的能耗容量,平均 IT 负载会大幅增加。
Mckinsey 预测美国本土的数据中心电力能耗需求到 2030 年将保持 10% 的 CAGR 增速。
从企业需求侧看,主机托管公司会占绝最大的比重。普通垂直行业企业侧的占比会大幅缩小,而超级互联网公司 Hyperscalers 的占比提升也并不多。
高盛预计 2022-2030 年,美国电力年复合增长率 CAGR 可达 2.4%。其中数据中心会贡献 0.9% 是最大增长品类。
住宅、商业、工业产业、交通的增长率预计 0.4~0.6%。
2000~2007 年美国本土的电力消耗的平均年增长率为 1.5% 左右。而过去十年的平均年增幅长幅度为 0%。
生成式 AI 对数据中心电力的需求增在加速体现,高盛预计到 2023 年平均增长率可达 2%。
高盛的研究显示,Google 搜索每次查询到能耗为 0.3 Wh,而 ChatGPT 的每次会话能耗高达 2.9 Wh,是 Google 搜索的 10x 倍。
这就带来一个思考:ChatGPT 服务的货币化率是 Google 搜索的多少倍呢?还是远不及搜索广告 ?
Bloomberg 的研究认为,全球数据中心的电力能耗自 2010 前后起进入加速发展状态。到目前年度电力消耗已经超过了意大利、西班牙、中国台湾、澳大利亚等国家和地区。
Leopold Aschenbrenner 研究认为,如果模型训练 AI 算力的规模每年增长 0.5 个数量级,到 2030 年 AI 将耗费美国 20% 的电力。
从这个角度看,AI 竞争到最后也是能源之争。能量信息融合的趋势可见一斑。