Discuz! Board

 找回密码
 立即注册
查看: 332|回复: 0

高盛:电力的超级周期要来了

[复制链接]
发表于 2025-10-23 16:51:57 | 显示全部楼层 |阅读模式
你可能没想到,决定AI发展的真正瓶颈不是算力,也不是芯片,而是电。
高盛最新报告显示,到2030年,全球数据中心(包括AI和非AI)用电量将比2023年暴涨175%
这是什么概念?相当于在地球上,再多出一个前十大耗电大国。
一、AI正在吃掉全世界的电
高盛最新研究显示,AI的爆发正在让全球电网吃不消。目前,全球AI数据中心的用电量,已经超过法国和英国的总和
到2027年,AI服务器的耗电量将是五年前云服务器的50倍
到2030年,全球数据中心的用电需求预计将暴涨160%,耗电量超过整个俄罗斯,几乎追上印度全年用电
在美国,这种变化已经非常明显。
根据高盛的数据,现在美国的电力需求增速已经达到2.6%,这是自1990年代以来从未见过的水平。
换句话说,AI正在吃掉全世界的电,让电网系统接近极限。
所以现在电网早就吃不消了。结果就是:现在数据中心的空置率跌到只有3%,热门地区更是接近零,而新的数据中心电力接入最早要等到2028年,电力供不应求,成了常态。
AI的算力越强,全球电网的压力就越大。在这场AI革命中,电力,正在成为最稀缺的资源。

二、决定AI电力未来的六个关键
高盛提出了一个有意思的模型,叫6P框架,用来分析AI数据中心用电的六个驱动因素:
1. Pervasiveness(普适性)
AI能走多远,关键看它的渗透率怎么样
如果AI从办公、教育一路扩散到医疗、能源、农业,那么服务器数量、电力需求都还会继续暴涨。
但是,如果AI被限制在少数行业,电力需求也可能放缓。
2. Productivity(生产率)
AI芯片和模型能否变得更省电?算力效率的提升,决定电力增长是线性还是爆炸式的。
虽然AI越来越能干,但是每一代芯片的效率都在提升。
比如NVIDIA最新的服务器,虽然功耗涨了1.5倍,但计算速度却提升了5倍以上。
换句话说,单位算力的能耗在下降
可问题是,效率提升往往会刺激更多使用,这叫:杰文斯悖论,算得快、成本低,大家就更愿意多用AI,电反而用得更多,就像空调变的越来越省电了,但是开得却更久了。
3. Prices(价格)
电价涨了,会不会限制AI扩张?高盛认为不会
因为像谷歌、亚马逊、微软这些巨头,账上现金流非常好,完全有能力为稳定和绿色电力多付一点钱。
他们算了一笔账,即使电价达到40美元/MWh,也只是它们利润的2%-3%,影响微乎其微。
4. Policy(政策)
美国《降低通胀法案》(IRA)的可再生能源补贴,确实可能在2028年前后逐步退出,但高盛认为影响不大。
因为很多项目都已经提前锁定了补贴资格。真正的关键,其实在于“审批速度”,如果各地政府能加快电厂和输电项目的审批,AI的电力需求就能被满足
5.Parts(零部件)
短期内最大的瓶颈,不是钱,而是发电设备的供应。如果供应紧张,会限制新电厂建设节奏。
风机、太阳能组件、电池储能系统、燃气轮机,这些设备现在的交付周期都偏长。
这意味着短期内新增产能主要来自可再生能源+天然气调峰电厂,长期则靠核电来支撑。
6. People(人员)
电网扩容、变电、机房建设,全都需要大量工程师、电气工人。
但全球电力行业已经老龄化严重。高盛估算,美国输配电领域在未来5年内需要新增上万名熟练技工。
缺人,可能比缺电更棘手。
三、未来行业机会在哪里?
高盛认为,这场AI耗电潮将会带来一条新的投资机会:电力供应链的全面升级
发电储能,从电网建设冷却系统,整条电力供应链都在被重新塑造。
受益者包括:电网基础设施公司、发电设备制造商、太阳能与储能企业、电气零部件厂商以及冷却设备提供商。
AI算力越强,对电力的需求就越大,意味着这些行业的订单也会越多。
他们正成为AI时代的新军火商,只是这次他们卖的不是芯片,而是电力。
下一个英伟达,很可能不是科技公司,而是电力公司。
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

快速回复 返回顶部 返回列表