AI的真实耗能:你的每次提问都在加重气候危机?

内容摘要来源:DeepTech深科技人工智能融入我们的生活,是十余年来线上世界最重大的变革。如今,数亿人频繁借助聊天机器人完成作业辅助、学术研究、编程开发乃至图像视频创作。但支撑这一切的能源代价究竟有多大?近日,《麻省理工科技评论》发布的分析报告首

来源:DeepTech深科技

人工智能融入我们的生活,是十余年来线上世界最重大的变革。如今,数亿人频繁借助聊天机器人完成作业辅助、学术研究、编程开发乃至图像视频创作。但支撑这一切的能源代价究竟有多大?

近日,《麻省理工科技评论》发布的分析报告首次以空前详实的视角,揭示了 AI 产业从单次查询到整体规模的能耗真相。随着人工智能用户量即将突破每日数十亿量级,这项研究不仅追踪了行业当前的碳足迹现状,更预判了其未来发展的环境影响轨迹。

2005 年至 2017 年间,尽管为支持从 Facebook 到 Netflix 等云端服务的崛起,大量新建数据中心拔地而起,但由于能效提升,数据中心的耗电量始终保持在平稳水平。而 2017 年后,AI 开始颠覆一切。为适配 AI 需求而建造的数据中心开始配备高能耗硬件,导致其电力消耗在 2023 年前翻倍。最新报告显示,如今美国总电力的 4.4% 都被数据中心吞噬。

根据劳伦斯伯克利国家实验室 2023 年 12 月发布的最新预测,到 2028 年,数据中心超过一半的电力将被用于 AI 运算。届时,仅 AI 一项的年耗电量就可能达到全美 22% 家庭用电量的总和。

这项研究将从不同视角进行分析,包括模型的构建,不同 AI 任务(文本、图片、视频生成)的影响,以及能源选择等。

数据中心:AI 能源需求的核心战场

AI 模型的诞生始于数据中心的密集训练阶段。训练如 GPT-4 这样的模型需耗费上亿美元和相当于旧金山三天用电量的能源,但真正的商业价值仅在后续的推理阶段实现——当用户通过提问或生成内容实际使用模型时,企业才能收回成本。目前,AI 高达 80-90% 的计算资源被用于推理,而非训练。

美国现存的约 3,000 座数据中心正加速转向 AI 专用化,但其建设规模与能效细节被科技公司严密保密。这一现象揭示了 AI 产业的核心矛盾:尽管训练阶段的技术突破吸引关注,但真正决定能源消耗与商业成败的,却是用户日常使用中看不见的推理运算。随着更多“黑箱式”AI 数据中心的扩张,能源效率与透明度将成为行业亟需解决的挑战。

在每个数据中心,人工智能模型都被加载到包含 GPU 的服务器集群上,最著名的是英伟达制造的一种名为 H100 的特定型号。这款芯片于 2022 年 10 月开始发货,此后销量一路飙升。其他芯片包括 A100 和最新的 Blackwells。它们的共同点是,为了在不过热的情况下运行其先进的功能,需要消耗大量的能源。

这些数据中心搭载数万枚 GPU 芯片,运行时需精密冷却系统,导致电缆损耗与水资源浪费(每日数百万加仑)。2017 年 AI 硬件普及后,数据中心用电量至 2023 年翻倍,目前美国 4.4% 的能源流向数据中心,其碳强度比全国平均水平高 48%,凸显 AI 对高碳能源的路径依赖。

单次查询的能耗差异:从文本到视频的指数级跳跃

当前 AI 查询的能耗评估面临严重的信息不透明问题。与汽车油耗等标准化测量不同,AI 单次查询的能耗差异可达数千倍,取决于模型类型、输出内容、数据中心位置和供电来源等多重因素。主流闭源模型(如 ChatGPT、Gemini 等)将能耗数据视为商业机密,形成完全的黑箱系统。虽然研究人员通过开源模型(如 meta 的 Llama)能测量部分硬件能耗,但整体评估仍存在重大缺口——GPU 能耗仅占全部设备(包括 CPU、散热系统等)总耗电量的约 50%。更值得警惕的是,当前简单的 AI 应用场景能耗已难以准确测算,未来随着 AI 向自主智能体发展,能源需求还将呈指数级增长。

不同 AI 任务的能耗差异显著。

文本模型:meta 的 Llama 3.1 8B 模型单次响应仅需 114 焦耳总耗能,包含冷却系统、其他计算等需求的耗能,相当于微波炉运行 0.1 秒所需的能量;而 Llama 3.1 405B 模型单次响应总能耗达 6,706 焦耳,相当于微波炉运行 8 秒。

值得注意的是,查询复杂度也显著影响能耗,简单指令(如讲笑话)的能耗可比复杂任务(创作)低 9 倍。此外,GPT-4 等闭源模型的真实参数量(预估超 1 万亿)和能耗数据仍处于不透明状态,为行业能耗评估带来挑战。

与文本模型不同,图像生成的能耗与提示内容无关,而是取决于模型参数量、图像分辨率和扩散步骤数。测试显示,Stable Diffusion 3 Medium 生成标准图像(1024x1024 像素)约消耗 2,282 焦耳,提高画质(50 步扩散)时能耗翻倍至 4,402 焦耳,但仍低于大型文本模型 Llama 3.1 405B 的 6,706 焦耳。这一反直觉现象源于图像模型的参数量(20 亿)远少于顶级文本模型(4050 亿),表明不能仅凭输出形式判断能耗高低。

AI 视频生成的能耗呈现指数级增长,CogVideoX 新版模型生成 5 秒视频的能耗(340 万焦耳)较旧版暴增 30 倍,是图像生成的 700 多倍。随着模型支持更复杂功能(如视频编辑和场景合成),能耗还将持续攀升。虽然 AI 公司声称比传统影视制作更环保,但这一说法未考虑未来可能出现的视频生成量爆炸式增长,实际环境影响仍存疑。显而易见视频生成正成为 AI 应用中最耗能的领域之一。

能源结构困境:化石燃料的短期依赖与转型挑战

AI 数据中心的碳排放问题与能源结构密切相关。当前美国近 60% 电力仍依赖化石燃料,且数据中心多集中在电网污染较重的地区(如弗吉尼亚州),导致其用电碳强度比其他地区平均水平高 48%。尽管科技公司承诺增加核能使用,但新建核电站需要数十年时间。研究显示,同样的 AI 请求在加州和西弗吉尼亚州产生的碳排放量可相差近一倍(650 克 VS 1150 克二氧化碳),凸显了区域能源结构对 AI 环境影响的决定性作用。随着 AI 能耗激增,清洁能源供应与数据中心布局的错配问题正变得日益严峻。

目前,ChatGPT 等 AI 工具的日常查询已消耗大量电力(如每年 109 吉瓦时),而随着 AI 向个性化、多模态(如语音、图像、视频)和复杂任务(如推理、深度研究)发展,其能源需求将呈指数级增长。未来,AI 代理的普及和超大规模数据中心的建设可能进一步加剧能源挑战。专家警告,当前的能耗数据仅揭示冰山一角,而 AI 的强制普及使人们在能源和气候问题上难以做出知情选择。这场 AI 革命的真正能源需求仍是一个亟待深入研究的课题。

未来的挑战

劳伦斯伯克利国家实验室的报告指出,到 2028 年,美国 AI 专用电力需求将升至 165-326 太瓦时/年,超过当前所有数据中心总用电量,可供应 22% 美国家庭,排放量相当于绕地球 12 万圈或往返太阳 1,600 次。报告指出,AI 技术普及和服务器性能跃升是数据中心用电量在十年停滞期后激增的主因。2024-2028 年,美国数据中心用电占比或从 4.4% 增至 12%。

科技巨头行动印证这一趋势:软银、OpenAI、甲骨文和阿联酋 MGX 计划未来四年在美国投资 5,000 亿美元新建数据中心;首座位于得州阿比林的数据中心已开工,含 8 个棒球场大小建筑。Anthropic 更建议美国 2027 年前新增 50 吉瓦专用电力;国际层面,OpenAI 在马来西亚等地推动数据中心建设,声称要“推广民主化 AI”,并通过核能、旧电厂重启及电力公司合作解决能源问题。

《麻省理工科技评论》试图联系谷歌、OpenAI 和微软询问 AI 模型推理能耗细节,仅获模糊回应:OpenAI 强调“效率优先”,微软避谈数据中心改造细节,谷歌仅提 TPU 芯片优化。劳伦斯伯克利团队批评称,企业数据不透明导致难以合理预测 AI 能源需求及排放。

更严峻的是,普通消费者可能通过电价上涨间接补贴 AI 基础设施。

总而言之,AI 既被寄望解决气候问题,但其自身却成为高耗能产业;科技公司强调效率优化,却对具体能耗三缄其口。随着 AI 无孔不入地融入生活,这种“黑箱式扩张”正迫使社会承担未知的能源与环境代价。

原文链接:

2025/05/20/1116327/ai-energy-usage-climate-footprint-big-tech/

 
举报 收藏 打赏 评论 0
24小时热闻
今日推荐
浙ICP备19001410号-1