最近,关于ChatGPT的能耗问题引发了广泛关注。作为OpenAI旗下的聊天机器人平台,ChatGPT的耗电量是否如传闻中那般惊人?一项新的研究给出了不一样的答案。

GettyImages-1733837603-e

非营利性人工智能研究机构Epoch AI对ChatGPT的能耗进行了分析。此前,一个广为流传的说法是,ChatGPT回答一个问题需要消耗大约3瓦时的电量,这个数字是谷歌搜索的10倍。然而,Epoch AI的研究人员约书亚·尤(Joshua You)认为,这一数据被高估了。

Epoch AI以OpenAI为ChatGPT使用的最新默认模型GPT-4o为参考,发现ChatGPT的平均查询能耗约为0.3瓦时,远低于许多家用电器的能耗。约书亚·尤在接受TechCrunch采访时表示:“与使用普通电器、调节室内温度或驾驶汽车相比,ChatGPT的能耗真的不算什么。”

随着人工智能的快速发展,其能耗和环境影响引发了激烈讨论。就在上周,超过100个组织发表了一封公开信,呼吁人工智能行业和监管机构确保新的AI数据中心不会耗尽自然资源,也不会迫使公用事业部门依赖不可再生能源。

约书亚·尤指出,此前关于ChatGPT能耗的研究存在过时的问题。例如,得出3瓦时估算结果的报告作者假设OpenAI使用的是较旧、效率较低的芯片来运行其模型。尤表示:“我看到很多公开讨论都正确地认识到,人工智能在未来几年将消耗大量能源,但并没有准确描述当今人工智能的能耗。此外,我的一些同事注意到,每条查询消耗3瓦时的估算结果是基于相当陈旧的研究,从简单的计算来看,这个数字似乎过高。”

尽管Epoch AI的0.3瓦时数据只是一个估算值,因为OpenAI尚未公布进行精确计算所需的细节,但这一研究仍然具有重要意义。此外,该分析也没有考虑ChatGPT的其他功能,如图像生成或输入处理所带来的额外能耗。尤承认,“长输入”ChatGPT查询——例如附带长文件的查询——可能比典型问题消耗更多的电量。

不过,约书亚·尤也表示,他预计ChatGPT的基本功耗未来会上升。他解释说:“人工智能将变得更加先进,训练这种人工智能可能需要更多的能量,而未来的AI可能会被更频繁地使用——处理比今天人们使用ChatGPT时更复杂、更多的任务。”

尽管最近几个月人工智能效率取得了显著突破,但预计人工智能部署的规模将推动巨大的、耗电的基础设施扩张。根据兰德公司的一份报告,未来两年内,人工智能数据中心可能需要接近加州2022年电力容量(68吉瓦)的全部电力。报告预测,到2030年,训练一个前沿模型可能需要相当于八个核反应堆(8吉瓦)的电力输出。

ChatGPT本身已经覆盖了庞大且不断增长的用户群体,其服务器需求也同样巨大。OpenAI及其几家投资伙伴计划在未来几年内花费数十亿美元用于新的AI数据中心项目。

OpenAI以及整个AI行业的关注点也在转向推理模型,这些模型在能够完成的任务方面更具能力,但运行时需要更多的计算能力。与GPT-4o这类几乎可以即时回答查询的模型不同,推理模型在回答问题前会“思考”几秒到几分钟,这一过程会消耗更多的计算能力——从而需要更多的电力。

“推理模型将越来越多地承担旧模型无法完成的任务,并为此生成更多的数据,而这两种情况都需要更多的数据中心。”尤说。OpenAI已经开始推出更节能的推理模型,例如o3-mini。但至少在目前看来,似乎不太可能通过效率提升来抵消推理模型“思考”过程以及全球人工智能使用量增加所带来的额外电力需求。

约书亚·尤建议,那些担心人工智能能耗的人可以少用像ChatGPT这样的应用,或者选择那些尽量减少计算需求的模型——在现实情况下尽可能做到这一点。他说:“你可以尝试使用更小的人工智能模型,比如OpenAI的GPT-4o-mini,并谨慎使用它们,避免需要处理或生成大量数据。”


文章标签: #人工智能 #ChatGPT #能耗 #数据中心 #推理模型

负责编辑

  菠萝老师先生 

  让你的每一个瞬间都充满意义地生活,因为在生命的尽头,衡量的不是你活了多少年,而是你如何度过这些年。