2022Q4 Nvidia 的游戏业务(GPU 显卡)收入是超过数据中心的。随后,游戏业务 GPU 的收入就持续不前,直到 2026Q1 重新又获得提升。
而数据中心侧的收入就不得了了。整个变化过程也就三年时间。
作为代表性的算力关键部件提供商,游戏显卡代表典型的 “终端侧”,而数据中心 GPU 代表典型的“云端侧”。两者体量差别也体现了端侧算力和云端侧算力的差别。
Marvell 披露的一项研究,以 2028 年全球数据中心市场 CAPEX 1.022 万亿美元为例,这其中有 8,250 亿美元用于购买各种设备。
而这些设备中,会包含 4,940 亿美元半导体芯片,其中有 3,490 亿美元是各种计算芯片(比如:GPU)。
围绕 CPU 和 GPU 的目标任务差别,有研究认为,有非常多的 AI 计算需求,并不需要 “实时性”。从后台批处理(Batch Processing)、中度延迟(Mid Latency)、低延迟(Low Latency)接近实时(Near Real time)、实时(Real time),计算任务可以分为很多种。
通过 GPU 和 CPU 的组合,可以提升 GPU 任务执行的经济性。
Bloomberg 绘制了一张图,展示了 AI 芯片的四家关键公司(Nvidia、SK Hynix、TSMC 和 ASML)各自的份额以及在供应链上下游关系。
从 GPU 终端产品供应商 Nvidia 出发,其产生了 76 亿美元给 TSMC,20 亿美元到 SK Hynix。TSMC 和 SK Hynix 分别贡献了 60 亿美元和27 亿美元给光刻机厂商 ASML。
上面四家公司的市场份额,最少的一家也是 80%。
451 Research 在 2024Q4 对北美企业客户的调研显示,围绕未来十二个月的算力支出,78% 的调研对象反馈会增加算力支出。
其中 39% 的反馈认为算力支出会增加 25% 以上。只有 3.3% 的反馈会降低算力支出。
Yole 数据显示,2024 年全球数据中心用的 GPU 市场空间为 880 亿美元,AI AISC 为 250 亿美元。
预计 2029 年 GPU 市场空间会提升到 1720 亿美元,CAGR 29%。AI ASIC 会提升到 560 亿美元,CAGR 30%。
无论是 GPU,还是 AI ASIC 均保持了很高的增长态势。
Crusoe 原本是一家为加密货币 “挖矿” 提供数据中心和云计算的服务商,后来专向 AI。Crusoe 的 GPU 算力价格据说不到 AWS 的 50%,归因于更简化的运营和获得廉价、可持续的电力。
Crusoe 在这个竞争领域的独特卖点是其专注于可持续能源和创新数据中心设计。该公司开发了针对 AI 硬件优化的高密度数据中心外形尺寸。据称,他们的 100MW 数据中心设计由四个 25MW 翼楼组成,可以在单个集成网络结构上托管多达 100,000 个 GPU。
附图是 Crusoe 的设计理念。留意一点,其会将某些闲时的算力能耗用于 “挖矿”。
OMDIA 数据显示,2022 年全球数据中心的 AI 的芯片不到 100 亿美元,都 2024 年市场规模可达 780 亿美元,取到了巨大的增长。
预计到 2029 年市场规模可达 1,510 亿美元,除了 GPU 外,AI ASIC 也会有很大空间。
初创公司 Cerebras 披露的数据显示,以 Meta 开源大模型 Llama3.1-70B 为例,其推理解决方案的速度是基于 Nvidia GPU 的公有云服务商速度的 20x 倍以上。
从披露的信息看,Cerebras 制造的推理芯片尺寸比 GPU 要大得多。
附:Llama3.1 有三种规格,8B 适合在消费者级 GPU 上进行高效部署和开发;70B 适合大规模 AI 原生应用;而 405B 则适用于合成数据等。
从英伟达 Nvidia 2025 财年 Q2 的收入结构看,数据中心贡献了 263 亿美元,而汽车只贡献了 3 亿美元,即便英伟达近年在加强汽车自动化的技术研发。
侧面反映了,数据中心的算力需求是汽车的 88x 倍。汽车首先是一个物理世界的 “实体大件”。汽车的智能化程度,代表了整个物理世界的实际智能化程度。
生成式 AI(Gen AI)在一些语境下被称呼为 AIGC(AI 生成内容)是有原因的。目前访问量大的生成式 AI 应用,基本都是生成某种内容。
2022 - 2023 年期间,舆论非常喜欢把生成式 AI 称为下一轮工业革命。以至于只看公众号文章,感觉