分享:
 OR 新媒oror.vip跨平台阅读首选
在手机或平板上生成「OR新媒体」app
访问「OR新媒体」官网( oror.vip ),点击分享按钮,选择“添加到主屏幕”即可。
2025-06-27 14:05
科技

你的一条AI指令耗能几何?我们探访了一座数据中心寻找答案

我们都听说过AI对能源永不满足的胃口。面对货真价实、正在运行的英伟达H100 GPU集群,我被严令“只许看不许摸”。光是站在那里,就能听见并感受到电力被吞噬的动静。
人工智能AI热潮的另一面:交易员加速逃离恐遭颠覆的企业
Joanna Stern



它们就在那里。金色的盒子,比红眼航班上的幼儿还吵闹,比热浪中的篝火还要滚烫,比一座私人加勒比海岛还要昂贵。

是的,是货真价实、正在运行的英伟达(Nvidia) GPU。

我被严令“只许看不许摸”,说得好像我会去舔那个金属网罩似的。光是站在那里,我就能听见并感受到电力被吞噬的动静。

我们都听说过AI对能源永不满足的胃口。根据美国能源部和劳伦斯伯克利国家实验室(Lawrence Berkeley National Lab)的一份报告,到2028年,像我这次在弗吉尼亚州阿什本参观的这种数据中心,可能会消耗高达全美12%的电力。

是的,我们就是问题所在,是我们自己。每当我们要求AI写一封电子邮件、画一幅动漫风格的乔治·华盛顿(George Washington)肖像,或者生成一段猫咪后空翻的视频时,我们都在那些巨大的GPU机房里引发又一阵轰鸣。

我想知道的是,我的AI任务究竟消耗多少电能?相当于给一部手机充电?还是给一台笔记本电脑充电?用电烤架烤一块牛排?还是为我的整栋房子供电?

在我深入研究、参观了一个数据中心、“骚扰”了几乎所有主要AI公司、以及(没错)在用上了那个电烤架之后,我得到了一些答案。但这还不够。科技公司需要就它们为我们所消耗的能源,向我们透露更多信息。

运作过程

让我们从一个近来很受欢迎的例子说起:“一段猫从奥运会跳板上跳水的视频”。在你敲下回车键的那一刻,该提示词就会被发送到一个巨大的数据中心。

提示词抵达后,便会启动推理过程,也就是由预训练的AI模型来解读并回应你的请求。在大多数情况下,一排排强大的英伟达GPU会开始工作,将你古怪的想法变为更古怪的现实。来自亚马逊(Amazon)、谷歌(Google)或Groq等公司的竞争对手芯片也开始被用于推理。模型训练本身则发生在更早阶段,使用英伟达的芯片完成。

我看到的那个由英伟达H100 GPU组成的“超级计算集群”(SuperPod)所在的设施,由Equinix负责运营。该公司是全球最大的数据中心运营商之一,提供云基础设施,如今也提供AI服务。

Equinix负责客户成功事宜的高级副总裁克里斯·金(Chris Kimm)表示,虽然AI训练几乎可以在任何地方进行,但推理最好在地理位置上更靠近用户的地方完成,以实现最佳的速度和效率。

能源消耗
如果各大AI公司真的愿意分享相关信息,那么弄清楚你的每一条AI提示词消耗了多少能源就会容易得多。谷歌、微软(Microsoft)和Meta都不予提供。谷歌和Meta让我去查阅它们的可持续发展报告。

OpenAI分享了一些信息。该公司首席执行官山姆·阿尔特曼(Sam Altman)表示,一次ChatGPT的平均查询大约消耗0.34瓦时电能。OpenAI不愿分别提供文本、图像或视频生成任务的能耗细节。

研究人员正在努力填补这一信息空白。开源AI平台Hugging Face的AI与气候负责人萨莎·卢乔尼(Sasha Luccioni)开展了一系列测试,以估算生成不同类型内容所消耗的能源。她还与其他研究人员共同维护着一个AI能耗排行榜。由于主流AI公司使用的都是各自的专有模型,卢乔尼只能依赖开源模型作为替代。

生成内容所需的能耗差异很大,取决于所用模型和GPU配置。可以将卢乔尼的测试结果与为一部普通智能手机充满电所需的能量(约10瓦时)作对比:

文本内容:一个在单个GPU上运行的轻量级Meta Llama模型大约消耗0.17瓦时电能,而一个在多个GPU上运行的更大型Llama模型则耗电1.7瓦时。

我想更直观地理解这些数字的含义。于是我从家得宝(Home Depot)买来一个电烤架,一个功率计,并叫上了我的视频制作人David Hall。大约10分钟、耗电220瓦时之后,我们烤好了一块七分熟的薄切牛排。换句话说:烹饪一顿像样晚餐所消耗的电能,与生成两个高耗能AI视频的能耗大致相当。

还记得几周前我用谷歌Veo和Runway制作的那部AI短片吗?我们为那部影片生成了大约1,000个8秒钟、720p分辨率的片段。根据这些估算,我们可能消耗了大约11万瓦时的电能。这几乎相当于烤500块牛排的能耗!

但是,正如我所说,卢乔尼没有商业AI工具的功耗数据,她提供的估算值并不完全匹配:一方面,我们制作的视频质量高于卢乔尼测试中6秒、480p分辨率的标准。另一方面,专家们表示,目前市面上流行的视频模型可能已经优化得更节能。

卢乔尼说:“在获得这些模型的使用权之前,我们所能做的只有估算。”

她的测试还使用了英伟达上一代的Hopper芯片。据英伟达可持续发展负责人乔什·帕克(Josh Parker)称,公司最新的Blackwell Ultra芯片在能效方面取得了重大突破。帕克说:“同样的推理工作负载,我们现在使用的能源仅为一年前的1/30。”

话虽如此,目前仍有大量用户在使用旧款芯片。我在Equinix的设施里看到的那个集群?光是英伟达的硬件就耗资超过900万美元。显然,你不会因为新产品上市就把旧的扔进垃圾箱。

而且,这里讨论的还只是电力。为保持这些发热的GPU稳定运行,还需大量水源进行冷却,那又是另一个话题了。

影响

与我交谈过的数据中心提供商和科技公司几乎都提到了同一个现象:对装满GPU的数据中心的需求正成倍增长。仅仅开车穿越阿什本,我就看到了五座正在建设中的大型数据中心。

不管效率提升多少,AI的使用者只会越来越多。就好比虽然我们都可以去买更节能的空调,但如果地球持续变暖,开空调的频率仍会增加,能源消耗也会上升。

卢乔尼希望,用户在使用AI工具时至少能对能耗有所意识,或许在生成十几段猫咪视频前三思而后行。与此同时,企业有责任开始分享真实的数据,以便我们能够作出明智选择。

回到弗吉尼亚州,以及那些不断轰鸣的GPU。事实证明,它们并不是在生成什么奥运小猫视频。它们归百时美施贵宝(Bristol Myers Squibb)所有,正在寻找治疗疾病的新方法。

看来,并非所有AI提示词的使用都可以说成是浪费能源。


相关内容
+
读者评论
MORE +

人工智能AI热潮的另一面:交易员加速逃离恐遭颠覆的企业
2025-06-27 14:05
科技

你的一条AI指令耗能几何?我们探访了一座数据中心寻找答案

我们都听说过AI对能源永不满足的胃口。面对货真价实、正在运行的英伟达H100 GPU集群,我被严令“只许看不许摸”。光是站在那里,就能听见并感受到电力被吞噬的动静。
Joanna Stern



它们就在那里。金色的盒子,比红眼航班上的幼儿还吵闹,比热浪中的篝火还要滚烫,比一座私人加勒比海岛还要昂贵。

是的,是货真价实、正在运行的英伟达(Nvidia) GPU。

我被严令“只许看不许摸”,说得好像我会去舔那个金属网罩似的。光是站在那里,我就能听见并感受到电力被吞噬的动静。

我们都听说过AI对能源永不满足的胃口。根据美国能源部和劳伦斯伯克利国家实验室(Lawrence Berkeley National Lab)的一份报告,到2028年,像我这次在弗吉尼亚州阿什本参观的这种数据中心,可能会消耗高达全美12%的电力。

是的,我们就是问题所在,是我们自己。每当我们要求AI写一封电子邮件、画一幅动漫风格的乔治·华盛顿(George Washington)肖像,或者生成一段猫咪后空翻的视频时,我们都在那些巨大的GPU机房里引发又一阵轰鸣。

我想知道的是,我的AI任务究竟消耗多少电能?相当于给一部手机充电?还是给一台笔记本电脑充电?用电烤架烤一块牛排?还是为我的整栋房子供电?

在我深入研究、参观了一个数据中心、“骚扰”了几乎所有主要AI公司、以及(没错)在用上了那个电烤架之后,我得到了一些答案。但这还不够。科技公司需要就它们为我们所消耗的能源,向我们透露更多信息。

运作过程

让我们从一个近来很受欢迎的例子说起:“一段猫从奥运会跳板上跳水的视频”。在你敲下回车键的那一刻,该提示词就会被发送到一个巨大的数据中心。

提示词抵达后,便会启动推理过程,也就是由预训练的AI模型来解读并回应你的请求。在大多数情况下,一排排强大的英伟达GPU会开始工作,将你古怪的想法变为更古怪的现实。来自亚马逊(Amazon)、谷歌(Google)或Groq等公司的竞争对手芯片也开始被用于推理。模型训练本身则发生在更早阶段,使用英伟达的芯片完成。

我看到的那个由英伟达H100 GPU组成的“超级计算集群”(SuperPod)所在的设施,由Equinix负责运营。该公司是全球最大的数据中心运营商之一,提供云基础设施,如今也提供AI服务。

Equinix负责客户成功事宜的高级副总裁克里斯·金(Chris Kimm)表示,虽然AI训练几乎可以在任何地方进行,但推理最好在地理位置上更靠近用户的地方完成,以实现最佳的速度和效率。

能源消耗
如果各大AI公司真的愿意分享相关信息,那么弄清楚你的每一条AI提示词消耗了多少能源就会容易得多。谷歌、微软(Microsoft)和Meta都不予提供。谷歌和Meta让我去查阅它们的可持续发展报告。

OpenAI分享了一些信息。该公司首席执行官山姆·阿尔特曼(Sam Altman)表示,一次ChatGPT的平均查询大约消耗0.34瓦时电能。OpenAI不愿分别提供文本、图像或视频生成任务的能耗细节。

研究人员正在努力填补这一信息空白。开源AI平台Hugging Face的AI与气候负责人萨莎·卢乔尼(Sasha Luccioni)开展了一系列测试,以估算生成不同类型内容所消耗的能源。她还与其他研究人员共同维护着一个AI能耗排行榜。由于主流AI公司使用的都是各自的专有模型,卢乔尼只能依赖开源模型作为替代。

生成内容所需的能耗差异很大,取决于所用模型和GPU配置。可以将卢乔尼的测试结果与为一部普通智能手机充满电所需的能量(约10瓦时)作对比:

文本内容:一个在单个GPU上运行的轻量级Meta Llama模型大约消耗0.17瓦时电能,而一个在多个GPU上运行的更大型Llama模型则耗电1.7瓦时。

我想更直观地理解这些数字的含义。于是我从家得宝(Home Depot)买来一个电烤架,一个功率计,并叫上了我的视频制作人David Hall。大约10分钟、耗电220瓦时之后,我们烤好了一块七分熟的薄切牛排。换句话说:烹饪一顿像样晚餐所消耗的电能,与生成两个高耗能AI视频的能耗大致相当。

还记得几周前我用谷歌Veo和Runway制作的那部AI短片吗?我们为那部影片生成了大约1,000个8秒钟、720p分辨率的片段。根据这些估算,我们可能消耗了大约11万瓦时的电能。这几乎相当于烤500块牛排的能耗!

但是,正如我所说,卢乔尼没有商业AI工具的功耗数据,她提供的估算值并不完全匹配:一方面,我们制作的视频质量高于卢乔尼测试中6秒、480p分辨率的标准。另一方面,专家们表示,目前市面上流行的视频模型可能已经优化得更节能。

卢乔尼说:“在获得这些模型的使用权之前,我们所能做的只有估算。”

她的测试还使用了英伟达上一代的Hopper芯片。据英伟达可持续发展负责人乔什·帕克(Josh Parker)称,公司最新的Blackwell Ultra芯片在能效方面取得了重大突破。帕克说:“同样的推理工作负载,我们现在使用的能源仅为一年前的1/30。”

话虽如此,目前仍有大量用户在使用旧款芯片。我在Equinix的设施里看到的那个集群?光是英伟达的硬件就耗资超过900万美元。显然,你不会因为新产品上市就把旧的扔进垃圾箱。

而且,这里讨论的还只是电力。为保持这些发热的GPU稳定运行,还需大量水源进行冷却,那又是另一个话题了。

影响

与我交谈过的数据中心提供商和科技公司几乎都提到了同一个现象:对装满GPU的数据中心的需求正成倍增长。仅仅开车穿越阿什本,我就看到了五座正在建设中的大型数据中心。

不管效率提升多少,AI的使用者只会越来越多。就好比虽然我们都可以去买更节能的空调,但如果地球持续变暖,开空调的频率仍会增加,能源消耗也会上升。

卢乔尼希望,用户在使用AI工具时至少能对能耗有所意识,或许在生成十几段猫咪视频前三思而后行。与此同时,企业有责任开始分享真实的数据,以便我们能够作出明智选择。

回到弗吉尼亚州,以及那些不断轰鸣的GPU。事实证明,它们并不是在生成什么奥运小猫视频。它们归百时美施贵宝(Bristol Myers Squibb)所有,正在寻找治疗疾病的新方法。

看来,并非所有AI提示词的使用都可以说成是浪费能源。


相关内容
+
 

读者评论
OR

特别报道
OR
+
最受欢迎
OR
+


分享:

在手机或平板上生成「OR新媒体」app
访问「OR新媒体」官网( oror.vip ),点击分享按钮,选择“添加到主屏幕”即可。
最新资讯
OR
+
OR品牌理念
+

■ 或者,  留一段影像,回一曲挂牵。丝丝入扣、暖暖心灵 ,需飘过的醇厚与共。
■ 或者,热烈空雨伴芬芳泥土;绿绿生命缠锐意骄阳。
回望,回望,一马平川红酒飘散断归途。
■ 或者,灰蒙蒙空气重回道指一万四千点。滚动时光,照进现实,流逝过往,回归未来。

■ OR 新媒体是一个提供时政、经济、文化、科技等多领域资讯的平台,旨在为用户提供优质的阅读体验。网站的网址是oror.vip,用户可以通过浏览器在台式电脑 、笔记本电脑 、平板电脑 、手机访问。.......