ChatGPT日耗电超50万度 AI的尽头是光伏和储能
外媒 《纽约客》报出一个惊天消息,OpenAI的ChatGPT聊天机器人每天消耗超过50万千瓦时的电力,这个电力水平差不多相当于美国家庭日均每天用电量的1.7万多倍;这些电力足够47个美国家庭一年的用电。而这仅仅是ChatGPT聊天机器人处理约2亿个用户请求。
那如果ChatGPT用的人更多,每天要处理20亿、200亿、2000亿的请求之后怎么办?后期文生视频大模型普及开来,又会需要多少的电力去做支撑?
难怪卖铲子的英伟达都有后怕的感觉,黄仁勋此前有透露AI的尽头是光伏和储能。黄仁勋还强调,我们不应仅仅关注计算力,更要全面地考虑能源消耗的问题。我们不能只想着算力,如果只考虑算力,我们需要烧掉14个地球的能源。
尽管AI火爆全球,使得英伟达H100、A100供不应求,大幅推升了英伟达的营收和利润。但是英伟达依然给出自己的考量和担心。AI的尽头是光伏和储能;英伟达希望是更多的绿色电力为大模型所用。
还有马斯克也曾强调AI日益增长的电力需求。
有数据分析显示AI对电力的需求非常巨大;荷兰国家银行数据科学家亚历克斯·德弗里斯分析认为到2027年人工智能行业每年将消耗85至134太瓦时的电力资源。电力短缺或者未来会是一个巨大的制约行业发展的因素。
Uptime Institute也预测到2025年人工智能业务在全球数据中心用电量中的占比将从2%增加到10%。
此外,用水量也是一个影响因素,AI算力要求的散热能力,这使得AI需要庞大的耗水量。下一个“能源杀手”“能源刺客”会是AI吗?
-
光伏
+关注
关注
43文章
2969浏览量
68885 -
AI
+关注
关注
87文章
30758浏览量
268903 -
储能
+关注
关注
11文章
1630浏览量
33063 -
OpenAI
+关注
关注
9文章
1082浏览量
6483 -
ChatGPT
+关注
关注
29文章
1560浏览量
7598
发布评论请先 登录
相关推荐
评论