算力狂飙电力承压 英伟达、英特尔争相推出节能方案
当地时间8月26日,OpenAI硬件设施负(fù)责人Trevor Cai在Hot Chips 2024上发(fā)表了长达一小(xiǎo)时的演讲,主题为“构建可扩展(zhǎn)的AI基础(chǔ)设(shè)施”。他指出,OpenAI的一(yī)项重要观(guān)察结果是,扩大(dà)规模(mó)可以产生更好、更有用的人(rén)工智能(AI)。
作为全球芯(xīn)片行业(yè)影响力最大的会议之一,Hot Chips于每年8月份在斯坦福大学(xué)举行(xíng)。不同于其他行(xíng)业(yè)会议以学术研究为主,Hot Chips是一场产业界的(de)盛会,各大处理器公司会在每年的会(huì)上展现他们(men)最新的产品以及在研的产品。
《每日经济新闻》记者注意到,AI浪潮推动数据中心激增,同时也伴随着能源(yuán)需求的激(jī)增。在这(zhè)样的背景下(xià),此次的Hot Chips大会上,围绕人 工智能的议(yì)题比以往(wǎng)任何一届都更加活跃。Trevor Cai的演讲着眼于解决能源和算力之间的问题(tí),英特尔、IBM和英伟(wěi)达等则是提出了更节能的技(jì)术方案。
摩根士(shì)丹利在8月(yuè)份发布的(de)研究中预测称,生成式AI的电力需求(qiú)将在未来几年内每(měi)年 飙升75%,预计到2026年,其消耗的能(néng)源量将与西班牙在2022年的消耗量相当。科技巨头们该如何应对(duì)能源挑战?
聚焦(jiāo)“节能方案”
当地时间8月26日,一年一度算力狂飙电力承压 英伟达、英特尔争相推出节能方案的半导(dǎo)体企业盛会Hot Chips2024在斯坦福大学纪念礼堂(táng)举行,今年(nián)是第36届。
从会议第(dì)一天的情(qíng)况来看(kàn),大部(bù)分的话题都集中在了更节能、安全且可扩展的大规模(mó)AI服务器部署方案上。
OpenAI硬件负责人Trevor Cai发表了“可预测的扩展和(hé)基础设施”主题演讲,谈到了提升计(jì)算能(néng)力所带来(lái)的可预测的扩展效益,这(zhè)也是OpenAI自成(chéng)立之(zhī)初就关注的重点。一个重要的观察结(jié)果是,扩大规模可以产生更好、更有用的人(rén)工 智(zhì)能。“每次计算量翻倍,都会得到(dào)更(gèng)好的结果。模型的能力和计算资源的消耗是呈指数级别上升的(de)。自2018年以来,行业中前沿模型的计算量每年(nián)增长(zhǎng)约4倍(bèi)。”他说道。
最(zuì)初,GPT-1只需(xū)几周的时间完成训练(liàn)。如今,它已经扩展到需要(yào)庞(páng)大(dà)的GPU集(jí)群。因此(cǐ),OpenAI认为(wèi)AI的基础建设需(xū)要大量投资,因为计算能力的提升已(yǐ)经产生了超过8个数量级的效(xiào)益。
似乎是为了呼(hū)应OpenAI的演讲,各大公司的演讲也不约而同地提到了(le)大(dà)规模部署AI服务器(qì)的计划方案。
IBM在大会上披(pī)露(lù)了即(jí)将(jiāng)推出的IBM Telum II处理器和IBM Spyre加速器的(de)架构细节。新技术(shù)旨在显著扩展下一代IBM Z大型(xíng)机系统的处理能力,通(tōng)过一种新的(de)AI集成方法帮助加速(sù)传统(tǒng)AI模型和大型语(yǔ)言 AI模型的(de)协(xié)同使用。IBM特别强调这次更新的先(xiān)进I/O技术旨在降低能耗和数据中心占用空间。
英伟(wěi)达也在大会上放(fàng)出了(le)最新的AI集群架构Blackwell的相(xiāng)关消息。英伟达(dá)称,Blackwell拥有6项(xiàng)革命(mìng)性技术,可(kě)支持多达10万亿(yì)参(cān)数的模型算力狂飙电力承压 英伟达、英特尔争相推出节能方案进行AI训练和实时大语言模型(LLM)推理。值得注意的是,英伟达的Quasar量化系统用于确定可以使用较低精(jīng)度的内容,从而减少计算(suàn)和存储。英伟达表示他(tā)们的宗旨就是在提高能源效率(lǜ)的同时为(wèi)AI和加速计算性能提供新(xīn)标准。
除此之外,英特尔、博通(tōng)、海力士(shì)等公司的演讲中均提到了(le)更节能的(de)技术方案。
能源需求激增
科技巨头们着眼“更节能的”技术方案的根本原因在于,当前人工智能热潮正在(zài)增(zēng)加更强大的处理器以及保持数据中心冷却所需的能源需求。
当前,微(wēi)软、Alphabet和(hé)Meta等大型科技(jì)公司(sī)正在投资数十亿(yì)美元建设数据中心基础(chǔ)设施,以(yǐ)支(zhī)持生(shēng)成式人(rén)工智能,但数据(jù)中心的激增也伴随着能源需求的激(jī)增。
据彭博社报道,仅去年,大型(xíng)科技公(gōng)司就向数(shù)据中心设(shè)施投入了约1050亿美元。谷歌、苹果和特斯拉等(děng)公司不(bù)断通过新产(chǎn)品(pǐn)和服务增强AI能(néng)力。每项AI任务都需要巨大(dà)的计(jì)算能力,这意味着数据(jù)中心会消耗大量电力。国际能源署(IEA)预测,到2026年,全球数据中(zhōng)心每年使用的(de)能源量将相当于日本的电力消耗量(liàng)。
Hugging Face的人工智(zhì)能(néng)和气候(hòu)负责人Sasha Luccioni提到(dào),虽然训练AI模型(xíng)需要(yào)耗费大量能源(例如,训练 GPT-3模型耗费了大约1300兆瓦时的电力,而GPT-4的训练消耗是GPT3的50倍),但通(tōng)常只进(jìn)行一次。然而,由(yóu)于(yú)查询(xún)量(liàng)巨大,模型生(shēng)成响应(yīng)可(kě)能需要更多能源(yuán)。
例如,当用户向ChatGPT等AI模型提问时,需要向数据中心发送请求(qiú),然(rán)后强大的(de)处理器会生成响应 。这个过程虽然很快(kuài),但消耗的能(néng)量也是巨大的(de)。根据艾伦人工智(zhì)能(néng)研究所的数据,对ChatGPT进行一次查询所消耗的电(diàn)量相当(dāng)于为灯算力狂飙电力承压 英伟达、英特尔争相推出节能方案泡点亮20分钟(zhōng),是简单Google搜索耗电量的10倍以上。
然而,全球的电(diàn)力资(zī)源有限,而数据中心需要持续稳定的电(diàn)力供应来(lái)运行服务器和其他核心运(yùn)营设(shè)备。如果能源供(gōng)应(yīng)不稳定(dìng),停机可能会给企业和其他用户(hù)造成重大经济损失。此(cǐ)外,巨大的能源消耗也引发了人们对环境的(de)担忧。
为应(yīng)对这一挑战,科技(jì)公司们开始寻找解决方案。
部分公司选择更清洁且高效的能源供给,如核能。亚马(mǎ)逊最近在美(měi)国宾夕法尼亚州东(dōng)北(běi)部购买了一(yī)个价值6.5亿(yì)美元的核能数据中心园区设施,该设(shè)施将(jiāng)使用核反应堆产生的高达(dá)40%的电力,最终使(shǐ)亚马逊能够(gòu)减少对当地电网的依赖。与此同时,微软聘请(qǐng)了核专家来带头寻找这种替代电源。微软(ruǎn)还与(yǔ)核电站运营商签订了合同(tóng)协(xié)议,为其(qí)位于弗吉尼(ní)亚州的(de)一个数据中(zhōng)心提供电力。
除此之外,科技公(gōng)司们不仅在前文所提到的一系列芯片节能技术进行努力(lì),也在其他硬件设施和技术上下足了功夫。
谷歌正在开发人工智能专用芯 片(piàn),例(lì)如张量处理单元(TPU),这些芯片(piàn)针(zhēn)对人工智能任务进行了优化,而不是使用为游(yóu)戏技术创(chuàng)建(jiàn)的图形(xíng)处理单元(GPU)。
英伟达针对Blackwell芯片的直接液(yè)体冷却系统(tǒng)还宣布了(le)一(yī)项研究,研究表明了如何重新利用从服务器(qì)中吸收的热量(liàng)并将其回收到数据中心。据英伟(wěi)达估计(jì),冷却最多可减少数据中心(xīn)设(shè)施耗电量的28%。
然而,威斯(sī)康星大学麦迪逊分(fēn)校的教授辛克莱提醒,杰文斯悖论(lùn)在(zài)这里依然适(shì)用。“提高人工智能的效(xiào)率,虽然减少了单次能耗,但(dàn)整(zhěng)体使用率的增加最终会(huì)导致总(zǒng)体能耗(hào)的上(shàng)升(shēng)。”辛克莱解释道(dào)。这个(gè)悖论不仅适(shì)用于19世纪(jì)的火车煤炭(tàn)使(shǐ)用,同样适用于当今的人工智能和电力消耗。
未经允许不得转载:激光打孔机_激光切管机_自动化激光焊接机_管材激光切割机- 激光打孔加工 算力狂飙电力承压 英伟达、英特尔争相推出节能方案
最新评论
非常不错
测试评论
是吗
真的吗
哇,还是漂亮呢,如果这留言板做的再文艺一些就好了
感觉真的不错啊
妹子好漂亮。。。。。。
呵呵,可以好好意淫了