AI的成本困局:基础设施经济学将如何重塑市场下一阶段

来源:International Business Times UK

原文作者:Anastasia Matveeva |

编译整理:Gonka.ai

AI正在以惊人的速度扩张,但其底层经济逻辑远比表面看起来更加脆弱。当三家云巨头掌控全球三分之二的算力,当训练成本奔向10亿美元,当推理账单让创业公司猝不及防——这场算力军备竞赛的真正代价,正在悄然重塑整个AI产业的价值分配。

本文并非讨论谁将构建出最先进的模型。它探讨的是一个更根本的问题:当前AI基础设施的经济模式,在规模化之后是否真正可持续?算力分配机制的变革,又将如何重塑整个市场的价值分布?

一、幕后的智能成本

训练一个前沿大模型,动辄需要数千万乃至数亿美元。Anthropic曾公开表示,训练Claude 3.5 Sonnet的成本为「数千万美元」,而其CEO达里奥·阿莫迪(Dario Amodei)此前预计,下一代模型的训练成本或将逼近10亿美元。据行业媒体报道,GPT-4的训练成本可能已超过1亿美元

然而,训练成本只是冰山一角。真正在结构层面持续施压的,是推理成本——也就是每一次模型被调用时产生的费用。按照OpenAI公开的API定价,推理按百万Token计费。对于高使用量的应用而言,这意味着即便在规模化之前,每日推理成本就可能已达数千美元。

AI常被描述为一种软件。但它的经济本质,越来越像一种资本密集型基础设施——既有高额的前期投入,又有持续不断的运营支出。

这种经济结构的转变,正在悄然改变整个AI产业的竞争格局。能够负担得起算力的,是那些已经建立起大规模基础设施的巨头;而那些试图在夹缝中生存的初创公司,正在被推理账单一点一点地蚕食。

二、资本强度与市场集中

根据Holori 2026年云市场分析,AWS目前占全球云市场约33%的份额,微软Azure约22%,谷歌云约11%。三家合计掌控全球云基础设施约三分之二的份额,而全球绝大多数AI工作负载,正是运行在这三家公司的基础设施之上。

这种集中度的现实意义是:当OpenAI的API出现宕机,数以千计的产品同时受影响;当某家主要云服务商遭遇故障,跨行业、跨地域的服务随之中断。

集中度并没有在收窄,基础设施支出反而在持续扩张。以英伟达为例,其数据中心业务年化营收已突破800亿美元,显示高性能GPU需求持续旺盛。

更值得关注的是一个隐性的结构性不平等。根据SEC文件和市场报告,OpenAI、Anthropic等头部实验室通过多十亿美元的「股权换算力」协议,以最低每小时1.30–1.90美元的近成本价锁定GPU资源。而那些缺乏与英伟达、微软、亚马逊战略合作关系的中小公司,则被迫以超过每小时14美元的零售价采购——溢价高达600%。

这个定价鸿沟,正是由英伟达近期向头部实验室合计400亿美元的战略投资所驱动的。AI基础设施的获取权,越来越多地由资本密集型采购协议决定,而非开放的市场竞争。

在早期采用阶段,这种集中可以看起来「有效率」。但在规模化之后,它带来的是定价风险、供应瓶颈与基础设施依赖——三重脆弱性叠加。

三、被忽视的能源维度

AI基础设施的成本问题,还有一个常被忽视的维度:能源。

根据国际能源署(IEA)的数据,数据中心目前约占全球电力消耗的1–1.5%,而AI驱动的需求增长可能在未来几年显著推高这一比例。

这意味着,算力经济学不仅是一个财务问题,更是一个基础设施与能源挑战。随着AI工作负载的持续扩张,电力供给的地缘政治意义将日益凸显——哪个国家能以最低能源成本提供最稳定的算力,将在AI时代的产业竞争中占据结构性优势。

当黄仁勋在GTC26宣布英伟达订单可见性突破1万亿美元时,他描述的不只是一家公司的商业成功,而是整个文明正在将电力、土地和稀缺矿产转化为智能算力的宏大进程。

四、重新思考基础设施机制

在中心化数据中心持续扩张的同时,另一类探索正在悄然兴起——试图从根本上重新定义算力资源的协调方式。

去中心化推理:一种结构性替代

Gonka协议是这一方向上的代表性实践。这是一个专为AI推理设计的去中心化网络,其核心设计目标是:将网络同步和共识开销压缩到最低,把尽可能多的计算资源导向真实的AI工作负载。

在治理层面,Gonka采用「一算力单元一票」的原则——治理权重由可验证的算力贡献决定,而非资本持股比例。在技术层面,协议采用短周期性能测量区间(称为Sprint),要求参与者通过基于Transformer的工作量证明(PoW)机制实时展示真实的GPU算力。

这一设计的意义在于:近100%的网络算力被导向AI推理工作负载本身,而不是消耗在维持共识、协调通信等基础设施开销上。

分布式算力的经济逻辑

从经济学角度看,去中心化算力网络的价值主张有三个层次。

第一是成本层。中心化云服务商的定价结构,本质上包含了巨额固定资产折旧、数据中心运营成本和股东利润预期。去中心化网络通过将闲置GPU资源货币化,可以将这部分成本显著压缩。以Gonka为例,当前通过其USD计费网关GonkaGate提供的推理服务,定价约为每百万Token 0.0009美元——而Together AI等中心化服务商对同类模型(如DeepSeek-R1)的定价约为1.50美元,差距达千倍以上。

第二是供应弹性层。中心化服务商的算力供给是刚性的,扩容周期以月乃至季度计算。去中心化网络的参与者可以随需求波动弹性加入或退出,理论上能更快速响应需求峰值——正如亚马逊云服务当年因节假日流量峰值需求而诞生一样,AI推理的峰谷波动同样需要弹性基础设施来承接。

第三是主权层。这一维度在主权国家的视角下尤为突出。当一国政府的公共服务深度依赖某家外部云服务商时,算力依赖即是战略脆弱性。去中心化网络提供了一种可能:本地数据中心可以作为节点接入全球分布式网络,在保障数据主权的同时,通过向全球市场提供算力来获得可持续的商业回报。

五、价值分配的重构时刻

回到文章开头的核心问题:当前AI基础设施的经济模式,在规模化之后是否可持续?

答案是:对于头部玩家,可持续;对于其余所有人,越来越不可持续。

AWS、Azure、Google Cloud通过数十年的资本积累建立起护城河,其规模优势在短期内几乎无法撼动。但这种结构性优势同时意味着:定价权、数据访问权和基础设施依赖,都高度集中于少数几个私人实体手中。

历史上,每一次重大技术基础设施的垄断,最终都催生出了替代性的分布式架构——互联网本身就是对电信垄断的反叛,BitTorrent是对内容分发中心化的颠覆,比特币是对货币发行集中化的挑战。

AI基础设施的去中心化,可能不是一种意识形态选择,而是一种经济必然——当集中化的成本高到足以驱动大规模用户迁移时,替代方案的需求就会真实爆发。黄仁勋用「每一次金融危机都将更多人推向比特币」来类比这一逻辑,同样适用于算力市场。

DeepSeek的横空出世已经证明了一件事:在开源模型的能力逼近闭源前沿的世界里,推理成本将成为决定AI应用规模化速度的核心变量。谁能提供最低成本、最高可用性的推理算力,谁就掌握了这场竞争的入场券。

结语:基础设施战争才刚刚开始

AI的下一阶段竞争,不会在模型能力的排行榜上分出胜负,而会在基础设施的经济博弈中见真章。

集中化的算力巨头手握资本和规模优势,但也背负着固定成本结构和定价压力。去中心化网络正在以极低的边际成本切入市场,但需要证明自己在稳定性、易用性和生态规模上能够达到真实的商业门槛。

两种路径将长期并存,并相互施压。中心化和去中心化之间的张力,将是未来五年AI产业最值得持续追踪的结构性主题之一。

这场基础设施战争,才刚刚开始。

免责声明:本文提供的信息不是交易建议。BlockWeeks.com不对根据本文提供的信息所做的任何投资承担责任。我们强烈建议在做出任何投资决策之前进行独立研究或咨询合格的专业人士。

Like (0)
MarsBit的头像MarsBit作者
Previous 3小时前
Next 2小时前

相关推荐

发表回复

Please Login to Comment
SHARE
TOP