在当今的科技浪潮中,人工智能(AI)正如火如荼地发展,但它的背后却隐藏着一个不容忽视的问题——能耗。随着AI的极速崛起,许多人开始担心它可能带来的失业潮,而一些乐观者却笑言:“只要电费还贵得过馒头
在当今的科技浪潮中,人工智能(AI)正如火如荼地发展,但它的背后却隐藏着一个不容忽视的问题——能耗。随着AI的极速崛起,许多人开始担心它可能带来的失业潮,而一些乐观者却笑言:“只要电费还贵得过馒头,AI就不会霸占我们的工作!”这句玩笑虽轻松,但却折射出AI面临的真实挑战:巨大的能耗。
前谷歌工程师凯尔·科比特(Kyle Corbitt)在社会化媒体X上发声,透露微软团队正在为训练GPT-6而忙碌,原因是需要搭建IB网络(InfiniBand),链接分布在多个地区的GPU。看似简单的任务,实则困难重重,因为如果将超过10万块H100芯片集中于一处,非常有可能导致当地电网的瘫痪。
那么,为何这么多芯片会导致电网崩溃呢?让我们来细算一下。英伟达表示,每块H100芯片的峰值功率达700W,如果10万块H100同时运作,那么它们的峰值功耗将高达7000万W。对此,能源行业的专家在评论区指出,这一数值几乎相当于一个小型太阳能或风能发电厂的全部输出。除此之外,机房内所需的服务器和冷却设备也在不断消耗电力,给电网带来了前所未有的压力。
对此,《纽约客》曾报道过AI的能耗问题,指出ChatGPT每日的电力消耗竟可能超过50万千瓦时。尽管如此,当前AI的能耗仍低于密码货币和传统数据中心。不过,随着微软工程师遇到的挑战,也表明了AI发展的障碍不仅是技术本身的耗能,还有基础设施的承载能力。
国际能源署(IEA)在其报告中指出,2022年全球数据中心、人工智能及密码货币的耗电量总和达到460TWh,几乎占全球能耗的2%。若情况持续恶化,到2026年这一数值可能突破1000TWh,几乎相当于整个日本的用电量。值得一提的是,英伟达在AI服务器市场的占有率高达95%,当前供给约10万块芯片,每年耗电量达到7.3TWh,但与之相比,密码货币的耗电量在2022年已高达110TWh。
冷却系统的能耗更是畸高。多个方面数据显示,数据中心的能效比(Power Usage Effectiveness,PUE)一般在1.5到1.6之间,这在某种程度上预示着每消耗1度电,配套设施就需消耗0.5度。细分来看,冷却系统的能量需求占据了数据中心总耗电量的40%。随着设备功率的提升,散热需求愈发焦虑,而此时数据中心的设计和结构改良有望大大降低能耗。
科技公司用电需求的急剧上升,不仅给传统电网带来压力,甚至令一些地区的电力供应捉襟见肘。为应对这一挑战,不少技术公司正考虑从小型核电站采购电力,但核能建设与电网配套仍是一项复杂的行政过程。面对气候平均状态随时间的变化带来的极端天气,许多地区电网的脆弱性愈加明显。
在气候日趋严峻的今天,保障一个稳定、强大的电力支撑,已不止关乎AI的发展,还直接影响国民生活。为确保电网的承载力,各国纷纷采取一定的措施,以便在追求节能减排的同时,也能支持技术的可持续发展。只有这样,未来的AI才能展翅高飞,而不是在电力危机中停滞不前。返回搜狐,查看更加多
上一篇: 2024年千元手机性价比排行榜:绝对值回票价的五款安卓手机推荐