本文作者:张恨水

谷歌温室气体排放量竟猛增 48%,2030 年零排放目标或成泡影?

谷歌温室气体排放量竟猛增 48%,2030 年零排放目标或成泡影?摘要: 谷歌温室气体排放量竟猛增 48%,2030 年零排放目标或成泡影?以上;到2026年,全球数据中心的电力消耗可能会翻一番。无可否认,能源危机(主要是电)已近在眼前,且很可能成为制约...

虎嗅ESG集团出品

作者:陈昱立

标题图片|

6月底,谷歌发布了新一代开源模型,相比今年初推出的轻量级开源模型Gemma,提供了90亿(9B)和270亿(27B)两种参数规模可选。

就在谷歌摩拳擦掌、蓄势待发之际,其日前发布的一份报告引发了媒体的“关注”——谷歌最新发布的环境报告指出,其温室气体排放总量自2019年以来增加了48%。

仅去年一年,谷歌就产生了 1430 万吨二氧化碳,比 2019 年增长了 13%,这主要是由于范围 2 的碳排放量同比增长了 37%。

这些数据显然与谷歌“2030年实现零排放”的目标相悖,作为全球最大的互联网科技巨头之一,如此“无节制”的碳排放数据显然会招致各种批评。

碳排放量为何增加这么多?

谷歌在发布的环境报告中,将碳排放量激增归咎于数据中心的能源使用和供应链排放的增加。自互联网诞生以来,数据中心一直是高能耗的代表,而现在用于训练人工智能的数据中心更是如此。

谷歌在报告中表示:“随着我们进一步将人工智能融入我们的产品中,减少碳排放变得更具挑战性,因为人工智能计算强度的增加导致能源需求增加,基础设施投资的增加导致碳排放增加。”

报告数据显示,2023年谷歌仅数据中心的用电量就增长了17%,而且预计未来这一“趋势”还将继续。

事实上,谷歌的碳排放已是“极限优化”的结果。报告指出,截至2023年底,谷歌已连续七年实现100%可再生能源使用,并由此实现2023年碳排放量减少63%。

图片来源:谷歌2024年环境报告

在此基础上谷歌温室气体排放量竟猛增 48%,2030 年零排放目标或成泡影?,碳排放之所以还在大幅增长,主要是因为数据中心消耗了太多能源,但可再生能源有限,我们对此无能为力。

原报告指出,谷歌一直努力在全球范围内实现 100% 可再生能源匹配目标,但温室气体协议设立了能源采购范围以减少范围 2 排放。这导致我们在某些地区(如欧洲)购买的清洁能源超过了我们的电力消耗,但在其他地区(如亚太地区)由于清洁能源采购存在一定的挑战,导致采购不足。这种差异是范围 2 碳排放统计增加的原因。

图片来源:谷歌2024年环境报告

总而言之,谷歌想要表达的无非是“我很努力,但是面对AI革命我却无能为力”,似乎在暗示“发展才是唯一的出路”。

确实,在目前AI大爆发的势头下,如果能源成为谷歌的咽喉要道,导致大模型落后,从而丢掉通往AI时代的“门票”,那并不是谷歌愿意看到的结果。

虽然谷歌在报告中给出了后续解决方案,比如致力于提高其AI模型、硬件和数据中心的能源效率,并计划在2030年实现24/7无碳能源(CFE)的终极目标。但随着AI的不断发展和大模型的不断迭代,谷歌的能耗只会增加,不会减少。

未来,谷歌很可能还会在气候问题上继续面临来自公众和媒体的压力。

AI为何会成为耗电狂魔?

谷歌并不是唯一一家碳排放量增加的科技公司。

今年5月,微软透露,其二氧化碳排放量自2020年以来增加了近30%。为微软提供大量计算的雷德蒙德也将排放量的增加归因于其云计算和人工智能业务部门数据中心设施的建设和配置。

可以说,几乎所有开发大型机型的互联网科技公司本身都存在“能耗/碳排放巨大”的问题。

大模型耗电量到底有多大?灵探智能创始人李博杰告诉虎嗅,根据推测,以GPT-4为例,其训练使用了2.5万个a100,训练耗时90-100天,预计总耗电量在5.1万到6.2万左右。

普通家庭一年用电量约3万度电2024年新奥门管家婆资料,所以全部训练的总能耗相当于5万户家庭一年用电量。同时,这个用电量相当于三峡大坝年发电量的0.05%(以年发电量1000亿度电计算)。发电侧用水量约2.3亿立方米(三峡电站标准)。

从用电量来看,一次 GPT-4 查询预估耗电约 0.005 kWh,根据公布的数据,GPT 每天在全球有数亿次查询,保守估计耗电量为每天 1 GWh。

以普通家庭一年用电量计算,模型推断一天的能耗相当于1000户家庭一年的用电量;若以年为单位计算,消耗的能源在90%左右,相当于三峡大坝年发电量的0.2%(以年发电量1000亿度计算),发电侧用水量约9亿立方米(三峡电站标准)。

荷兰科学家亚历克斯·德弗里斯也在论文中指出,到2027年,人工智能的耗电量可能接近人口超过1000万的瑞典或人口为1700万的荷兰全年用电量总量2023今晚澳门开特马,相当于目前全球电力消耗的0.5%。

这个数学计算很可怕,难怪黄仁勋和Sam 都说“AI技术的未来取决于能源”。

一个很重要的问题是,大型人工智能模型为什么这么耗能?

从技术原理上看,李伯杰认为主要有四个原因:

这些因素共同导致大型人工智能模型在训练和推理过程中消耗大量能源。

当前巨头混战的背后,也是全球能源消耗激增的体现。据国际能源署统计,2022年,美国2700个数据中心消耗了全国总电力的4%以上;到2026年,全球数据中心的用电量或将翻一番。

随后,高盛在2024年4月的一份分析预测,到本世纪末,全球数据中心的电力消耗将增长1.8至3.4倍。

《华盛顿邮报》直接指出,电力需求飙升引发了一场争夺战,以从老化的电网中榨取更多电力。但根据美国能源情报署的数据,2023年,美国全口径净发电量为41781.71亿千瓦时,比上一年下降1.2%。近十年来,美国每年的净发电量一直在4万亿千瓦时的边缘徘徊。

图片来源:华盛顿邮报

不可否认,能源危机(主要是电力)迫在眉睫,并很可能成为制约人工智能发展的关键因素。

高能耗必须持续下去

人工智能是否要保持如此高的能耗才能发展呢?

比尔盖茨曾在接受媒体采访时表示,没有必要担心,因为人工智能虽然会消耗能源,但未来技术会进步,能源消耗还会不断下降。

但关键问题是,目前大型模型的训练是否有尽头?

在第六届北京致远大会上,杨志林、王小川等四位大模型CEO就AGI的实现进行了交流,四位CEO的共识是AGI太遥远,只有模型降价才能推动其实现。

李伯杰也认为,即便算力继续无限提升,按照目前主流的大规模模型技术路线,也达不到理想的AGI阶段:“AGI代表AI算法具有类似人脑的思维模式,而目前深度神经网络只是对人脑工作时电信号传播的简化模拟。按照目前人类对人脑运行方式的理解,人脑的运行还包含神经递质传递、基因调控、分子信号转导、非神经细胞调控、体液因子调控等多种不同的信号输送和调控机制。因此,基于深度神经网络发展LLM,还达不到类脑智能的水平。”

从另一个角度看,语言只是人类意识的一个维度,很多信息在这个过程中丢失、扭曲。人类在理解世界的过程中,还包括视觉、听觉、触觉、嗅觉、味觉等不同维度。同时,人类的运动学习、情绪、社会化行为和自我意识等都是AGI的重要组成部分。

“真正的AGI智能一定是低能耗的,但在探索过程中会消耗大量能源,而能源消耗是人类社会的终极问题”,李伯杰说,“从可预见的未来来看,能源消耗给人工智能发展带来的最大问题澳门一肖一码100%准确?,就是加速全球社会不平等,能源条件差的国家将在这一轮技术变革中落后。”

如今,虽然业界正在努力解决AI能耗过高的问题,比如通过模型压缩与蒸馏、更具性价比的专用AI芯片与硬件架构等,但未来相当长的一段时间内,高能耗的局面仍将持续存在。

正如科技发展是一个螺旋式的过程,AGI的实现也需要依赖各个学科的同步发展。我们现在可以期待的是,如果大模型算法有一个终点的话,希望当我们走到终点的时候,AI能够带来真正的生产力革命。

正在改变世界或想要改变世界的人,都在虎嗅APP

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

微信扫一扫打赏

阅读
分享

发表评论

快捷回复:

评论列表 (暂无评论,60人围观)参与讨论

还没有评论,来说两句吧...