萍聚社区-德国热线-德国实用信息网

 找回密码
 注册

微信登录

微信扫一扫,快速登录

查看: 142|回复: 0

能源与 AI——AI 篇

[复制链接]
发表于 2025-4-25 04:33 | 显示全部楼层 |阅读模式
作者:微信文章

报告出处:IEA
编译:Ted

人工智能是能源密集型的,人工智能只是数据中心执行的众多工作负载之一。传统数据中心的规模可能在 10-25 兆瓦(MW)左右。超大规模、专注于人工智能的数据中心的容量可达 100 兆瓦或更高,每年的用电量相当于 10 万户家庭的用电量。

2024 年,全球数据中心的电力消耗约占总电力消耗的1.5%。然而以人工智能为中心的数据中心的规模正在不断扩大,以容纳越来越大的模型和日益增长的人工智能服务需求。从历史上看,数据中心在空间上高度集中,由于其巨大的功耗,给当地电网带来了巨大的挑战。



1

AI 能耗

Energy Consumption

① 硬件制造

人工智能硬件的制造是能源密集型的,但其生命周期的能耗低于运行阶段。能耗最高的环节是用于 GPU 以及服务器存储的芯片的制造。例如,制造最新的 3 纳米 (nm) 芯片每片晶圆大约需要 2.3 兆瓦时 (MWh)。对于典型的高性能服务器配置,这相当于制造过程中的能耗超过 10 MWh,而五年生命周期内的运行能耗超过 80 MWh。据估计,在制造所需的能源中,60% 用于晶圆和半导体生产,其中沉积、光刻和蚀刻消耗了大部分能源。其余 40% 用于辅助工艺,例如设施内的水处理或冷却。



芯片生产高度集中于地理区域。超过 70% 的芯片生产位于东亚。据估计,全球半导体行业目前每年消耗超过 100 太瓦时(TWh)的电力,约占全球工业电力需求的 1%。大多数半导体用于其他用途,但数据中心,尤其是人工智能,预计将成为未来几年半导体需求的主要驱动力。

电力消耗产生的间接排放是硬件制造排放中最主要的组成部分。许多重要制造业国家的燃煤发电占比很高,导致间接排放的排放量很高。少量化石燃料的使用(通常约为5%)和工艺气体是直接排放的主要来源。

数据中心的建设和供应链中中间材料的运输对硬件足迹的影响较小。数据中心建设(包括所需材料)占全生命周期排放量的不到 2%。

② 模型训练

模型训练是指模型从数据中学习以识别关系和模式的过程。给定一组输入,模型学习生成与训练数据中识别出的模式以及模型的总体目标相符的输出、预测或操作。

训练是一个耗时且耗能的过程。训练计算是在 GPU 等专用计算机芯片上进行的。单个 GPU 的最大额定功耗可达 1000 瓦(最新、最强大的芯片)。这大约相当于一台烤面包机的功耗。大型、最先进的模型是在由多个 GPU 组成的集群上进行训练的。例如,GPT-4 在 25,000 块 GPU 上进行训练,总额定功率约为 10 MW。额外的电力需求来自与用于训练这些模型的服务器中的 GPU 一起运行的信息技术 (IT) 设备,例如 CPU、内存、网络设备和交换机。加上其他 IT 设备和冷却设备的电力需求,用于训练 GPT-4 的设备总额定功率约为 22 MW。这相当于约 150 个高功率电动汽车充电站的耗电量。

据估计,GPT-4 的训练时间约为 14 周。以 84% 的负载率(Shehabi 等人,2024)计算,训练能耗约为 42.4 千兆瓦时 (GWh),或每天训练约 0.43 GWh。这相当于发达经济体约 28,500 户家庭的每日用电量,或新兴市场和发展中经济体 70,500 户家庭的每日用电量。训练结束后,模型可能会经历一个微调过程,该过程的计算强度远低于训练,因此能耗也更低。



③ 模型使用

经过训练和微调后,模型即可部署。每次用户查询模型(例如向 ChatGPT 提问),模型都会进行大量计算以得出答案。这些计算在与训练阶段类似的高规格 GPU 加速服务器上执行。查询(或“推理”)阶段的耗电量取决于多种因素:

    输入查询大小和输出答案长度。较长的输入查询和输出答案需要更多计算,因此耗电量也更高。

    模型大小。在其他条件相同的情况下,较大的模型需要更多计算来处理输入和输出,因此耗电量更高。

    输入和输出模式。视频和图像生成通常比文本生成需要更多计算,因此耗电量也更大。

    算法效率的实现。正在部署不同的策略来降低推理的计算强度,例如使用混合专家 (MoE) 模型。在推理时,MoE 模型会选择性地仅激活与解决相关查询最相关的模型部分,从而节省计算量,从而降低能耗成本,同时保持模型性能。

    推理时间扩展程度。最近发布的模型,例如 OpenAI 的 o1 模型或 DeepSeek 的 R1 模型,使用所谓的推理时间扩展或推理扩展来提升性能,尤其是在涉及推理或规划的任务上。直观地说,这要求模型在做出响应之前更深入地“思考”其答案。推理扩展会显著增加推理的计算量和能耗成本。

    硬件实现。用于运行 AI 模型的专用硬件的能效在每一代产品中都得到了持续提升。例如,目前最先进的 B200 GPU 的能效比上一代 H100 提升了 60%(以 FLOP/瓦特计算),而 H100 又比上一代 A100 提升了 80%。具体的硬件实现方式会显著影响能耗强度。





获取报告原文

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?注册 微信登录

x
Die von den Nutzern eingestellten Information und Meinungen sind nicht eigene Informationen und Meinungen der DOLC GmbH.
您需要登录后才可以回帖 登录 | 注册 微信登录

本版积分规则

手机版|Archiver|AGB|Impressum|Datenschutzerklärung|萍聚社区-德国热线-德国实用信息网

GMT+2, 2025-5-3 04:03 , Processed in 0.054476 second(s), 17 queries , Redis On.

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表