人工智能依赖于消耗大量能源的数据中心
贾森·奥尔登/彭博社/盖蒂
如果我们在执行任务时更加明智地使用人工智能模型,仅今年一年就可能节省 31.9 太瓦时的能源,相当于五个核反应堆的输出量。
蒂亚戈·达席尔瓦·巴罗斯 法国蔚蓝海岸大学的 Dr. 和他的同事研究了人们使用生成式 AI 工具执行的 14 种不同任务,从文本生成到语音识别和图像分类。
然后,他们检查了公共排行榜,包括由机器学习中心 Hugging Face 托管的排行榜,了解不同模型的表现。推理期间(即人工智能模型产生答案时)模型的能源效率是通过名为 CarbonTracker 的工具测量的,并且该模型的总能源使用量是通过跟踪用户下载来计算的。
“根据模型的大小,我们估算了能源消耗,并在此基础上,我们可以尝试进行估算,”da Silva Barros 说。
研究人员发现,在所有 14 项任务中,每项任务从性能最佳模型切换到能效最高的模型可减少 65.8% 的能源消耗,同时仅使输出的有用性降低 3.9%——他们认为这种权衡可以为公众接受。
因为有些人已经在使用最经济的型号,如果现实世界中的人们从高性能型号更换为最节能的型号,则总体能源消耗可以减少 27.8%。 “我们对可以节省的资金感到惊讶,”团队成员 Frédéric Giroire 说道 在法国国家科学研究中心。
然而,达席尔瓦·巴罗斯表示,这需要用户和人工智能公司都做出改变。 “我们必须考虑运行小型模型的方向,即使我们会失去一些性能,”他说。 “而公司在开发模型时,共享一些有关模型的信息非常重要,这样用户就可以了解和评估模型是否非常耗能。”
一些人工智能公司正在通过称为模型蒸馏的过程来减少其产品的能耗,即使用大型模型来训练较小的模型。克里斯·普雷斯特说,这已经产生了重大影响 在英国布里斯托大学。例如,谷歌最近声称能源效率提高了 33 倍 过去一年在双子座。
然而,让用户选择最有效的模型“不太可能像作者所说的那样限制数据中心的能源增加,至少在当前的人工智能泡沫中是这样” 普雷斯特说。 “减少每次提示的能耗只会让更多的客户能够通过更复杂的推理选项更快地获得服务,”他说。
“使用较小的模型肯定可以在短期内减少能源消耗,但在对未来进行任何有意义的预测时,还需要考虑许多其他因素,”Sasha Luccioni 说 在拥抱的脸。她警告说,“必须考虑使用增加等反弹效应,以及对社会和经济的更广泛影响”。
卢奇奥尼指出,由于个别公司缺乏透明度,该领域的任何研究都依赖于外部估计和分析。 “为了进行这些更复杂的分析,我们需要人工智能公司、数据中心运营商甚至政府提高透明度,”她说。 “这将使研究人员和政策制定者能够做出明智的预测和决策。”
主题: