
如果说人工智能(AI)是时下最"吃电"的新生儿,那美国电网大概就是毫无防备进入"中年危机"的那一位。
前不久,TikTok 在美国新设立的运营实体突然"卡壳",原因不是算法"罢工",也不是服务器过热,而是最基本、最尴尬的问题——断电。

断电造成数百万用户一度无法发视频、刷内容、看点赞和评论。短短几个小时,美国网友集体体验了一把"没有电的数字世界"。这也暴露出一个窘迫的现实:当下美国把人工智能视为全球科技竞争的重中之重,但在最基础的能源供应层面,电是真不够用。
数据中心可以理解为现代互联网的"仓库 + 大脑"。云计算、电子邮件、短视频、流媒体、人工智能模型训练和推理,统统塞在这里。对人们每日都在使用的短视频平台来说,数据中心一停,业务就直接"休克"。过去几年,随着人工智能大模型的迅猛发展,数据中心建设速度也开启"狂飙模式",但美国遇到的问题是,服务器可以连夜上架,电网却没法一键升级。
美国经济对数据中心的依赖高到什么程度?按照哈佛大学经济学家贾森 · 富尔曼的说法,2025 年上半年美国国内生产总值的增长,几乎全部来自数据中心和信息技术领域。如果把这部分剔除,美国经济增长率只剩下 0.1%。难怪德意志银行等机构警告:一旦美国在人工智能数据中心上的投资放缓,经济可能会直接滑向衰退。
问题在于,支撑这一切的电力系统压根没做好准备。一个大型数据中心园区,像谷歌、微软或亚马逊建设的那种,耗电量往往相当于一座几十万人口的中型城市全部家庭用电的总和。美国皮尤研究中心的数据显示,2024 年美国数据中心的用电量约为 183 太瓦时,占全国电力总消费的 4% 以上。到 2030 年,这一数字预计将暴涨 133%,达到 426 太瓦时。

数据中心越建的越多,电网就越"喘"。升级输电线路、变电站和配电系统的成本很难由科技巨头一方承担,而得靠居民和企业分担。眼下,美国部分地区的数据中心集中布局,已经开始推高当地电力需求,电价随之上涨。皮尤研究中心预计,到 2030 年,美国平均电费可能上涨近 8%,而数据中心扎堆的弗吉尼亚州涨幅可能更高。
照这样下去,上涨的电费账单很可能比解锁人工智能最新功能的"说明书"更早送到美国老百姓的信箱中。
从更宏观的角度看,美国电力系统正遭遇一场"历史级错位"。过去二十多年,美国国内生产总值持续增长,用电量却基本原地踏步。这意味着,美国电力行业从未经历过如此规模的需求爆发。2026 年 1 月,美国能源信息署在《短期能源展望》中给出截至 2027 年的用电量预测:2026 年美国用电量将增长 1%,2027 年将增长 3%,而推动这一变化的核心动力正是数据中心持续增长的用电需求。
业内人士警告,美国正经历现代史上最严重的能源短缺阶段之一。有人测算过,ChatGPT 进行一次查询的耗电量大约是谷歌进行一次搜索的 10 倍。美国能源研究学会估算,OpenAI 的" Orion "模型完成一次训练的耗电量高达约 110 亿千瓦时,相当于上百万美国家庭一整年的用电量。真可谓"模型越是聪明,电表转得越快"。

微软首席执行官萨提亚 · 纳德拉在一次播客节目中道出当下美国人工智能产业的尴尬现状。他说,微软不缺芯片,缺的是电力供应和现成的数据中心,导致大量芯片只能"躺着睡觉"。
为了堵住缺口,美国开始加速建设天然气发电站,并重新打起核能的主意。然而,问题又来了:电即便发得出,也未必送得到。数据中心用电必须经过发电、输电、配电的完整流程,而长期以来美国输电网建设缓慢,审批复杂,加之土地高度私有化,协调一个项目往往比训练一个模型还慢。
更尴尬的是,数据中心的建设周期通常短于电站和输电线路。结果就是,新服务器已经上线,电还在路上。如今,美国电网系统连吸纳新的发电站都吃力,更别说大规模并网新的数据中心了。未来几年,美国一些地区出现阶段性用电紧张、新兴产业发展先被电力"卡脖子"很可能是大概率事件。
在这种背景下,OpenAI、谷歌等人工智能头部实验室集体走上了一条过去难以想象的道路:绕过公共电网,在数据中心园区里自建燃气发电厂。专家普遍认为,这种局部的"自救式发电"解决不了整体的系统性问题。
归根结底,美国并非真的缺电,而是现有电网系统老化、扩建进程缓慢,完全跟不上人工智能指数级增长的算力所需电能。当算力成为新一代基础设施,电力正从公共资源变成人工智能公司必须自主掌控的核心能力。
(图片来源:网络)
七煌配资,新手炒股配资平台,658配资提示:文章来自网络,不代表本站观点。