当前位置: 爱股网 > 股票新闻 > 正文

比特狂奔,瓦特乏力:AI算力危机与储能的“供血”革命

时间:2025年10月27日 19:58

倒计时22天

2025(第十五届)高工锂电年会

暨十五周年庆典&高工金球奖颁奖典礼

主办单位:高工锂电、高工产研(GGII)

协办单位:卡洛维德

 总冠名:海目星激光

年会特别赞助:大族锂电

专场冠名:杉杉科技、英联复合集流体、逸飞激光、华视集团、欧科工业空调、宇电自动化

金球奖全程特约赞助:思客琦

时间&地点:2025年11月18-20日 深圳前海华侨城JW万豪酒店

会议合作:陈女士 13560731836(微信同号)

AI时代的下一个战场,或许不在于比特,而在于瓦特。

在10月13-16日举行的OCP全球峰会上,英伟达发布了800 V直流架构白皮书,明确了下一代配电方案和AIDC配储的必要性:为确保高密度AI数据中心的电网稳定性和电能质量,必须在电气架构的两端战略性部署储能系统。

AI越是智能,就越是耗能。传统云计算产生的电力波动很小,随着AI大模型训练规模急剧扩张至数万GPU集群,功耗的剧烈波动会造成数据中心电力负荷的剧烈波动,这就必须由储能来解决。

近年来,AI芯片算力的指数级增长,单芯片功耗将突破2千瓦甚至向5千瓦迈进,机架功率也从传统的8千瓦提升到100千瓦乃至500千瓦(如华为超节点),这意味着,一个AI机柜的耗电量,堪比一个小型社区或一座摩天大楼。

然而,正当AI算力狂奔时,为其供血的电网基础设施却缓慢前行。美国电网平均年龄超40年,审批一座新变电站需耗时数年;欧洲同样面临电网老化和审批复杂的挑战。

这种算力“指数级”飙升与电力供给“线性级”增长之间的结构性脱节,构成了AI时代最大的矛盾。

这些现象指向一个结论:未来算力的竞争,本质是获取稳定、大规模电力的能力。

高盛在近期发布的报告《Powering the AI Era》中一针见血地指出,AI发展的最大瓶颈,并非算法模型或数据规模,而是电力。

在这场全球算力竞赛中,储能的价值被提升到前所未有的高度,不仅仅是作为备用电源应对突发断电,而是演变为支撑AI数据中心稳定、经济、绿色运行的电力架构核心调度中枢。

储能成为800VDC架构“稳定之锚”

AI算力的跃进,直接表现为芯片与机架功耗的爆发式增长。

据了解,一次ChatGPT查询的耗电量,约是一次Google搜索的10倍。到2027年,AI服务器机架的功耗,将是5年前云服务器的50倍。

2020年,英伟达的A100问世,功耗高达400瓦,2024年发布的Blackwell GPU功耗高达1200瓦,由一颗Grace CPU和两颗Blackwell GPU组成的超级芯片GB200功耗达到2700W,机架功率密度跃升到120kW。

在今年三季度量产出货的GB300机柜已开始标配BBU(后备电池)和超级电容以应对GPU负载的剧烈波动、确保供电的连续性。

根据英伟达的产品规划,2026-2027年将上线的Rubin Ultra机柜功率达到600kW以上,下一代Rubin平台将推动单机架功率突破1MW。

针对百kW-MW级的高功率机柜带来的电流、效率、散热等问题,英伟达、谷歌均认为,传统的交流(AC)配电将转向高压直流(DC)配电,800 VDC已成为下一代配电系统的最优架构,这就相当于为AI数据中心建立了“电力高速公路”。

如果说800VDC架构解决了电力输送的规模效率问题,那么AI工作负载越来越大的波动性必须由储能系统来解决。这正是英伟达在白皮书中强调“储能必须被视为电源架构中必不可少的、活跃的组件,而不仅仅是备用系统”的核心原因。

根据英伟达的规划,未来分布式数据中心将无缝整合为庞大的“AI超级工厂”,实现跨城市、跨国乃至跨洲的数据中心同步运行,不过,这也会导致数据中心电力负荷的瞬时波动更加剧烈。

近期,微软、OpenAI和英伟达联合发布的一项研究显示,随着AI大模型训练规模急剧扩张至数万GPU集群,其功耗的剧烈波动正对数据中心基础设施构成前所未有的挑战。

研究发现,单个训练任务的功率波动可达数十兆瓦级别,这种大规模同步负载变化不仅威胁数据中心供电稳定,更可能对整个电网系统造成潜在风险。

例如在训练大语言模型时,数千张GPU会近乎完美地同步执行计算,导致机架的功耗在几毫秒内从约30%的“空闲”状态飙升至100%,再迅速回落。

这种剧烈波动不仅会对机柜级配电造成巨大压力,当AI数据中心的整体规模足够大,意味着数亿瓦的功率在几秒钟内急剧变化,对公用电网的稳定性构成了直接威胁。

由此,数据中心电力基础设施需求出现了巨大变革——需要更高效灵活、能够应对极端动态AI负载的储能系统,作为最理想的长期解决方案。

具体来看,英伟达800VDC架构创新性提出采用双层储能策略:机房内采用超级电容/电解电容,响应时间<400μs,以平抑GPU计算峰值;机房外采用大型锂电池储能,实现10秒-1小时级能量缓冲,满足电网对负荷波动率<2%的严苛要求。

算力狂奔“决战”电力瓶颈

AI大模型的训练不仅会带来巨大的负载波动,也导致巨大的电力消耗。

除了芯片本身的巨大功耗,冷却系统也是另一个能耗大户。随着AI芯片功耗提升,传统的风冷技术将彻底失效,整个行业已开始全面转向液冷。

根据高工产研储能研究所(GGII)预测,到2030年全球数据中心耗电量将达到1500TWh。

然而,电力基础设施的建设速度,远远跟不上算力扩张的步伐。

高盛在《Powering the AI Era》报告中明确指出:“AI发展的最大瓶颈不是算法、数据,而是电力。”

报告显示,全球数据中心空置率已降至3%的历史低点,热门市场更是接近零空置,而新建的大规模稳定电力供应或许要到2028年后才能逐步落地,电力供不应求已成为常态。

该机构预测,到2030年,全球数据中心电力需求将飙升160%,而美国数据中心的电力供需缺口将达到10.4GW。

电力,这个最基础的工业要素,已成为制约AI发展的硬约束,使得储能从可选项变成了必选项。

其需求逻辑在于,一方面,欧洲、美国等地区的老旧电网,难以承受AIDC骤然增加的集中性、高密度负荷;另一方面,风电、光伏等可再生能源虽然能够很大程度上填补巨大的电力缺口,但风电、光伏具有天然的间歇性与波动性,其大规模并网加剧了电网的稳定性挑战。

此外,随着美国可再生能源补贴的退坡,核电“远水难救近火”,基荷电力不足的问题将进一步凸显。

全球AI竞赛的下半场,不再是算法竞赛,而是电力竞赛。谁能率先突破新能源、储能、电网智能化,谁就能突破AI发展的极限。正如高盛所分析,电力和能源基础设施,也将是中国在AI领域实现赶超的关键抓手。

短期来看,美国在先进制程芯片上仍占据技术高地,但其电网瓶颈和制造业回流成本,使其面临更大压力。

而中国正凭借其在光伏、风电、储能和特高压电网领域的绝对优势,探索出一条“绿电+储能+数据中心”的换道超车路径,以能源基础设施优势弥补算力效率差距。

中国的“东数西算”工程,本质就是将算力需求导向能源富集地区,并配套建设大规模储能设施,以构建总成本(TCO)更具竞争力的庞大算力网络。

今年以来,中国在政策层面大力推动数据中心使用绿电并配置储能,希望构建“风光储一体化”的零碳数据中心园区。

储能已不再是电力系统的配角,而是AI时代数据中心的电力稳定“中枢”,不仅是解决风光波动性、电网老化等外部挑战,更是支撑高密度算力稳定运行的核心系统。

目前,宁德时代、华为、阳光电源比亚迪、双登股份、南都电源、亿纬储能、海辰储能、精控能源等储能企业正成为AIDC储能的“主力军”,率先抢占市场。

当AI的能耗挑战遇上电池的技术瓶颈,一场双向赋能正在发生。AI不仅是用电大户,更是驱动电池产业跨越式发展的核心引擎。

在此背景下,2025(第十五届)高工锂电年会将于11月18-20日在深圳前海华侨城JW万豪酒店盛大启幕。

在专场五“AI驱动电池产业变革”,我们将深入探讨:AI如何颠覆传统研发范式,从“试错”走向“预测”,加速全固态电池等前沿技术的量产;如何赋能“设计-制造-运营” 全链条,实现极致的质量控制和全生命周期价值最大化。

这不仅是技术升级,更是产业逻辑的重塑。AI正成为电池技术突破的“新反应物”,解锁储能增长的“技术内核”

年会期间还将举行十五周年庆典&高工金球奖颁奖典礼、发布蓝皮书、设行业关切主题专场,敬请期待!

查看更多董秘问答>>

热门新闻

>>>查看更多:股市要闻 内参消息 实时内参 财经日历