“养龙虾”的代价,远比想象中昂贵。近日,第一批尝试OpenClaw开源AI智能体的用户纷纷“踩坑”:有人仅让AI自动发布一条微博,就产生了约40元的费用;更有用户一觉醒来,账户账单已飙升至1.2万元。这款图标为红色龙虾的软件,本是被寄予厚望的“AI员工”——能自主查资料、写报告、改代码,甚至包揽各类电脑办公任务,但隐藏在其便捷背后的,是一场关于算力与电力的隐形博弈。
这里所说的“养龙虾”并不是一道菜,而是一款叫OpenClaw的开源AI智能体软件,图标是一只红色龙虾,安装后可以让它查资料、写报告、改代码,甚至自动处理各种电脑任务,就像一个公司员工。
如果只是简单聊天,AI消耗的Token其实并不多。但当AI开始像人一样完成多步骤的连续任务时,Token消耗就会迅速增加,背后的计算就越多,所需电力消耗也随之急剧攀升。
简单的闲聊式交互,Token消耗微乎其微,但当AI真正像人类员工一样处理多步骤、高复杂度的连续任务时,Token消耗会呈指数级暴涨,电力需求也随之急剧攀升。美国高德纳咨询公司(Gartner)早已预测,到2026年底,全球将有40%的企业应用嵌入任务型AI智能体。这意味着,当AI逐渐渗透到生产生活的各个角落,电力将不再是单纯的能源供给,而是决定经济增长速度、掌控AI竞争主动权的核心变量。这场看不见的算力战争,底层早已演变为电力与能源的较量。
算力逻辑重构:从“拼芯片”到“算电费”
英伟达CEO黄仁勋曾用一个五层蛋糕,精准定义了人工智能的竞争力格局:能源、芯片、基础设施、模型、应用,而能源是整个蛋糕的根基。这一判断,正在被AI产业的发展反复印证——在大模型时代,算力的上限不再由芯片性能单独决定,而是被电力基础设施牢牢约束。再先进的GPU、再强大的芯片,若没有稳定的电力供给,终究只是无法运转的硬件残骸。这种逻辑变革,首先体现在数据中心的衡量标准上。如今,评判一个AI数据中心的规模,早已不再看其计算能力的强弱,而是看其耗电量的大小。用于AI训练和应用的数据中心,耗电量动辄达到1GW,远超传统数据中心。最具代表性的便是英伟达,去年其斥资1000亿美元与OpenAI合作,打造一座规模达10GW的数据中心,粗略测算,这座数据中心一年的耗电量约为876亿度,相当于两千多万户家庭一年的用电量,几乎逼近一个中等国家的居民用电规模。
企业采购算力芯片的逻辑,也随之发生根本性转变。在大模型发展初期,由于高性能芯片稀缺,市场的核心追求是单卡算力峰值(FLOPS),谁的芯片运算速度更快、性能更强,谁就能占据市场主导地位。但当AI进入大规模应用阶段,企业的算盘彻底改变:不再执着于单卡的绝对性能,而是更看重整套系统的能效比——谁更省电、运行更稳定、能处理更多任务,谁才是真正的“性价比之选”。
“客户不再只盯着单卡的绝对算力峰值,而是开始计算每投入一元钱能换取多少吞吐量,每消耗一瓦电能处理多少Token。”一位算力芯片厂商负责人的表述,道出了行业的核心变化。在此背景下,AI时代催生了一个全新的效率指标——“每瓦Token数(tokens per watt)”,用于衡量AI系统每消耗一瓦电能所能产生的“智能输出”。而这一指标的核心影响因素,正是电价。对AI企业而言,每一度电最终都会转化为Token成本的一部分,谁能获得更稳定、更廉价的电力,谁就能在激烈的算力竞争中占据先天优势。
美国困局:AI数据中心“缺电”危机愈演愈烈
当全球AI产业加速扩张时,美国率先陷入了电力供给的困境。今年1月,马斯克在播客中直言,人们严重低估了AI数据中心接入电网的难度,而美国众多科技公司的AI数据中心,正面临着严重的缺电难题。微软在弗吉尼亚州新建的AI数据中心,因当地电网容量不足,被迫延迟投产;加州圣克拉拉两座已建成的数据中心,因电网扩容工程滞后,需等待3年时间,预计2028年才能正式投运。事实上,马斯克自身也遭遇过类似困境——2024年,他旗下的一座数据中心被通知需等待数年才能接入当地电网,无奈之下,他只能紧急部署14台移动式天然气发电机和4台燃气轮机,以应急方式保障电力供应。
在美国,天然气资源丰富且价格相对低廉,因此燃气发电成为AI数据中心新增能源的最大单一来源,过去两年,数据中心对燃气发电的需求激增两倍。但即便如此,电力短缺的问题依然无法得到根本解决,核心症结在于燃气发电所需的燃气轮机设备,已出现严重的供不应求。
通用电气Vernova公司透露,截至2025年底,其燃气轮机订单量已达80吉瓦,交付周期已排至2029年;西门子能源、三菱重工等行业巨头,也面临着类似的订单积压困境。燃气轮机的短缺,直接导致美国无法快速扩大发电能力,难以匹配AI数据中心激增的电力需求。
摩根士丹利近期发布的警告,更是凸显了危机的严重性:到2028年,受AI数据中心大规模耗电影响,美国可能面临高达20%的电力缺口;若无法快速提升电力容量,潜在缺口将达到13至44吉瓦,相当于超过3300万美国家庭的用电量。目前,缺电的苗头已在全美显现,弗吉尼亚州等数据中心高度集中的地区,过去五年电价涨幅高达267%,AI新增的电力需求,已经开始挤压普通居民和工业企业的用电空间。
为了遏制居民电价进一步上涨,特朗普政府不得不出手干预,要求谷歌、微软、Meta、OpenAI等科技巨头签署协议,要求其在不增加消费者电费负担的前提下,解决自身AI数据中心的电力需求。这场AI与民生的用电博弈,正成为美国AI产业发展的巨大桎梏。据统计,2024年全球数据中心用电量已达415太瓦时,占全球总用电量的1.5%,与英国全年用电量相当,而美国数据中心用电增量,已占该国总用电需求增量的近50%,缺电危机或将持续加剧。
中国突围:电力优势,铸就AI算力护城河
与美国的“缺电困境”形成鲜明对比的是,马斯克曾公开表示:“中国具有大规模的发电能力,这是一个比芯片更重要的决定性优势。”他预测,到2026年,中国的电力产量将达到美国的3倍左右,足以支撑耗能巨大的AI数据中心,而这一判断,正被中国能源产业的发展不断验证。

更具战略意义的是,今年中国政府工作报告首次提出“打造智能经济新形态”,明确要“实施超大规模智算集群、算电协同等新基建工程”,将AI与电力的联动发展,上升为国家战略。从“东数西算”搭建算力空间框架,到新型电力系统筑牢能源底座,再到算电协同的顶层设计,一套覆盖规划、建设、调度、市场化的全链条体系已然成型,让算力跟着绿电走、电力围着算力配,实现“以电强算、以算促电”的良性循环。
稳定的供电之外,中国的电价优势同样凸显。美银美林的数据显示,2026年1月,中国代理购电价格同比下跌10%,每千瓦时下降4分人民币。从全球工业电价对比来看,中国全国工业电价均价为0.48-0.61元/度,西部算力枢纽的绿电合约价更是低至0.13-0.3元/度,而美国工业电价均价为0.8-1.2元/度,欧洲更是高达1-1.5元/度,中国的电价优势,直接转化为AI算力的成本优势。
这种优势,已直观体现在全球大模型的调用数据中。OpenRouter的数据显示,2月9日至2月15日,中国大模型的调用量达4.12万亿Token,首次超过同期美国模型的2.94万亿Token;随后一周,中国模型调用量进一步攀升至5.16万亿Token,而美国模型则下滑至2.7万亿Token,差距持续拉大。
Token价格的差距更为惊人:美国GPT-5.4的输出价格为15美元/百万Token,而中国MiniMax M2.5的输出价格仅约1.1美元/百万Token,两者差距超过10倍。换算下来,使用中国大模型,可将开发者的Token成本降低约93%。有调研显示,80%的美国AI初创企业首选中国模型,核心原因就是一年能节省500万美元的研发成本——海外开发者并非偏爱中国技术,而是算清了电力支撑下的成本账。
马斯克对此直言,尽管美国一直试图通过限制先进半导体出口,遏制中国AI产业发展,但随着时间推移,这些限制的影响力将逐渐减弱。因为中国终究会“搞定芯片”,而中国已经拥有的大规模、稳定、廉价的电力优势,才是AI算力竞争中最不可撼动的底气。
说到底,AI时代的算力争霸,从来不是单一的芯片比拼,而是底层能源实力的较量。当美国被缺电困境束缚手脚时,中国正凭借强大的电力系统、清晰的战略布局和显著的成本优势,构建起AI算力的核心护城河,在全球智能经济的竞争中,抢占先机、领跑未来。
本文来自微信公众号: 环球零碳 ,编辑:小澜,作者:环球零碳研究中心
