(原标题:功耗成为芯片大问题!)
要是您但愿不错往往碰面,接待标星保藏哦~
开始:内容来自半导体行业不雅察(ID:icbank)编译自fierceelectronics,谢谢。
Nvidia 最新的巨型芯片 Blackwell 号称当代遗址。它领有 2000 亿个晶体管,当在大型数据中心中将数千个 GPU 组合在一谈时,它有望提供实足的处理才调来处理最大的 AI 模子。
但 Blackwell 和其他行将上市的刚劲加快器芯片让东谈主们感到病笃,尤其是数据中心运营商和电力公司,致使众人监管机构。用于数据中心的单一 Blackwell 芯片的一个版块破费 1,200 瓦的电力,与几年前比拟,这是一个跋扈的电量。主要由于加快器芯片的增长,一些数据中心正在建造我方的发电厂来处理负载,而阿姆斯特丹和欧洲其他城市的监管机构则告诉数据中心,由于电力供应有限,他们无法延迟。
高大的不单是是 Nvidia 的 GPU。Blackwell 是通盘芯片遐想公司的趋势的一部分。致使特斯拉等超大限度企业和汽车制造商也在遐想我方的定制芯片,常常通过 3D 遐想和小芯片来鼓动物理定律来莳植动力恶果。Tesla 的 Dojo 芯片有 25 个小芯片。这些芯片遐想要领有助于莳植能效,但与此同期,数据中心仍在不停发展以复古东谈主工智能,包括 GenAI。目下,众人 1.5% 至 2% 的电力用于数据中心,其中绝大多数动力用于复古它们的芯片和电路板。数据中心动力破费的增长就像曲棍球棒相通。
“这种趋势是不可捏续的”
“芯片行业一直处于一种不可捏续的趋势,”芯片行业资深东谈主士、Rapidus 好意思洲区总裁 Henri Richard 默示。该公司正在日本北部建筑一座 2nm 工艺节点芯片工场,并赢得日本政府数十亿好意思元的复古。
“几年前,咱们说功率不成达到 150 瓦,而当今咱们的功率达到 1,200 瓦!有些事情需要改变。要是你谈判摄取这条增长弧线并瞻望将来,咱们就无法领有 3 千瓦的芯片,”理查德在其位于加利福尼亚州圣克拉拉的好意思国办公室收受采访时说谈。
他默示,将芯片工艺节点从10nm减弱到5nm再到2nm是处理决议的一部分。关联词,跟着摩尔定律带来的平允慢慢减少,“需要以不同的方式构建系统和芯片,以处理功率的鸠合庸不错进行的冷却量,”他补充谈。“即使是浸入式冷却也很难为芯片供电。Chiplet将成为均衡前端和后端的一种方式。”
Arm 首席扩充官雷内·哈斯 (Rene Haas) 最近在一篇博客中写谈,将来的东谈主工智能使命负载将变得越来越大,进军需要更多的遐想和更多的功能,这叫醒了东谈主工智能寰球的一些元素。“找到裁减这些大型数据中心电力需求的要领对于收场社会冲突和收场东谈主工智能容或至关要紧,”他说。“换句话说,莫得电,就莫得东谈主工智能。”
数据中心耗电芯单方面对哪些挑战
在领罕见千个 Blackwell 芯片和其他处理器的数据中心中,电力负荷变得巨大,使得工程师们不得不在莫得实足电力的场地寻找可用电力,即使在太阳能、风能、水力发电等可再纯真力的匡助下亦然如斯或地热。一朝向华盛顿特区以西的弗吉尼亚州劳登县等地区的可开发地皮运送实足的电力,东谈主们对数十个热劳动器机架内发生的情况的蹙悚就会加重。
工程师们正在建议新的要领来保捏电路板和芯片实足清冷,以翔实着火或溶化,从而对要紧数据、不菲的斥地和企业利润形成不幸。
通盘行业依然出现,旨在冷却数据中心,以翔实劳动器超越耗电芯片产生的热量。劳动器机架的液体冷却已成为一种艺术形式;最新的要领之一是通盘数据中心的千里浸式体验,这激发了对于数据中心若何将水下电力与周围东谈主类相接的玄机命题。与此同期,超大限度企业正在考虑在其数据中心要道隔邻建造微型核响应堆或其他发电机,以确保可靠和充足的动力供应。
投资者正跋扈地寻求为数据中心提供更多电力:OpenAI 首席扩充官 Sam Altman 刚刚向 Exowat 投资了 2000 万好意思元,这是一家专注于东谈主工智能数据中心的动力初创公司。保捏芯片实足清冷以收场最好运转还可能需要空气冷却时间,该时间会破费更多功率,从而加重问题。即便如斯,笔据教训,数据中心所需的一半电力用于点亮处理器——从 GPU 到 CPU 再到 NPU,以及任何成为下一个芯片 TLA 的东西。联系电路和电路板会增多能耗。
Nvidia的黄仁勋界说了AI加快器的长久愿景
Nvidia 首席扩充官黄仁勋和好多其他半导体指令者证明,Blackwell 等当代加快器芯片在与 AI 和 GenAI 的巨大遐想才调相匹配时,其职权贩卖的合感性也许是正确的,以及这些时间将对将来几代公司和客户产生的影响新药品的研发、状态分析、自动驾驶汽车和机器东谈主等等。他和他的工程团队常常指摘物理定律,并意志到哪些金属和其他材料以及芯片架构不错将电力产生的热量散漫到劳动器机架上,然后再漫衍到数英亩的劳动器机架上。
当代芯片遐想使英伟达、英特尔、AMD、高通、云提供商和越来越多的微型遐想公司不停增多电路板的密度,从而使劳动器和劳动器机架占用更少的占大地积,同期每台可产生数倍的万亿次浮点运算。劳动器比一年前还要多。每瓦性能意见常常默示为 TFLOPS/瓦,以便于比较不同供应商的系统和芯片。
黄仁勋在 CadenceLIVE 上对于纵向性的演讲
Huang 于 4 月份在硅谷 CadenceLIVE 上谈到了这种密度超越联系的功耗,并空洞地谈到了东谈主工智能在通盘用户群中的上风若何证明这种遐想密度是合理的。“记着,你遐想了一个芯片一次,但你却将它委用了一万亿次,”他在炉边言语中说谈。“您遐想一次数据中心,但不错省俭 6% 的电力……这是 10 亿东谈主所享受的。”天然,黄说的是通盘生态系统,远远超出了用于更平时的加快遐想类别的单个 Blackwell 或其他 GPU 的瓦数。他用了几句话来抒发我方的不雅点,但值得一读:
“加快遐想的功耗超越高,因为遐想机的密度超越高,”黄说。“不管咱们对电力左右进行什么优化,都不错径直转换为更高的性能、更高的分娩力、产生收入或径直转换为省俭。对于相通的性能,你不错得到更小的东西。加快遐想中的电源守护径直转换为您暖热的通盘事情。
“加快遐想需要斗量车载的通用劳动器,破费了 10 倍、20 倍的成本和 20 倍、30 倍的动力,并将其缩减为极其密集的东西。因此,加快遐想的密度是东谈主们会认为它耗电且不菲的原因。但要是您从已完成的使命或糊涂量的 ISO(海外圭臬)来看,推行上您不错省俭多数资金。这即是为什么跟着 CPU 延迟速率降速,咱们必须转向加快遐想,广盛配资因为不管若何你都不会陆续以传统方式延迟。加快遐想至关要紧。”
随后,在与 Cadence 首席扩充官 Anirudh Devgan 的归拢次对话中,黄仁勋补充谈:“东谈主工智能推行上不错匡助东谈主们省俭动力……要是莫得东谈主工智能,咱们若何大约收场 6% 的节能(在 Cadence 的一个示例中)或 10 倍的节能?因此,您对模子的试验进行一次投资,然后数百万工程师就不错从中受益,数十亿东谈主将在几十年内享受到省俭的用度。
“这即是谈判成本和投资的方式,不仅要笔据具体情况,何况就医疗保健而言,要纵向谈判。您必须……纵向地谈判省俭资金、省俭动力,不仅要谈判您正在构建的家具的通盘范围,还要谈判您遐想家具的方式、您构建的家具以及感受到的家具的影响。当你像这么纵向看待它时,东谈主工智能将在匡助咱们支吾状态变化、使用更少的电力、莳植动力恶果等方面带来透彻的变革。”
Nvidia 以外的声息
除了黄仁勋以外,芯片遐想和芯片分娩鸿沟的其他特出东谈主物最近也纷繁加入进来。台积电首席扩充官 CC Wei 在公司最新的财报电话会议上这么说谈:“委果通盘的东谈主工智能更动者都在与台积电互助,以得志永不得志的东谈主工智能联系需求以赢得节能的遐想才调。”重要词:“茫无涯际”。
Cadence 首席扩充官 Devgan在与黄仁勋的台上对话中指出,东谈主工智能模子不错领有 1 万亿个参数,而东谈主脑中有 100 万亿个突触或相接。他瞻望,有东谈主按照东谈主脑的轨则构建一个超越大的东谈主工智能模子只是时辰问题。他说,这么作念将需要“多数的软件遐想、通盘数据搜索基础法子和通盘动力基础法子”。
Cadence 制定并复古多种莳植加快器能效遐想的要领(Nvidia 曾使用加快器开发 Blackwell),并开发了数字孪生系统来匡助数据中心更高效地遐想其运营。
AMD设定的方向是,以 2020 年加快遐想节点为基准,到 2025 年将其家具的能效莳植 30 倍。昨年推出的 MI300X 加快器使该公司更接近这一方向。AMD 高档副总裁兼家具时间架构师 Sam Naffziger 昨年发布的一篇博客态状了这一说明。
Naffziger 警告说,该行业不成只是依赖较小的晶体管,需要一个合座遐想视角,包括封装、架构、内存、软件等。
英特尔的神经形态鼓动
英特尔还积极鼓动动力恶果的发展,最近晓谕它依然建筑了寰球上最大的神经形态系统来收场可捏续的东谈主工智能。它的代号为 Hala Point,摄取英特尔的 Loihi 2 处理器,每秒可复古多达 20 万亿次运算,可与 GPU 和 CPU 相比好意思。到目下为止,它的应用彰着是用于究诘。
英特尔对 Hala Point 的态状称,通盘系统的最大功耗为 2,600 瓦,是 Nvidia Blackwell 的两倍多小数:“Hala Point 将 1,152 个在英特尔 4 工艺节点上分娩的 Loihi 2 处理器封装在一个六机架单位中。数据中心计箱有微波炉大小。该系统复古漫衍在 140,544 个神经形态处理中枢上的多达 11.5 亿个神经元和 1,280 亿个突触,最大功耗为 2,600 瓦。它还包括 2,300 多个用于扶助遐想的镶嵌式 x86 处理器。”
英特尔首席家具可捏续发展官 Jennifer Huffstetler 通过电子邮件告诉 Fierce Electronics:“英特尔正在将将来的遐想时间视为东谈主工智能使命负载的处理决议,即神经形态,有望以更低的功耗提供更高的遐想性能。遐想需求只会不停增多,尤其是新的东谈主工智能使命负载。为了提供所需的性能,GPU 和 CPU 的功耗也在增多。”
英特尔依然采纳了三管皆下的要领来莳植恶果,包括优化东谈主工智能模子、软件和硬件。Huffstetler 预计,在硬件方面,英特尔的更动从 2010 年到 2020 年已省俭 1000 太瓦时。Gaudi 加快器的能效莳植了约一倍,而 Xeon 可延迟处理器的能效莳植了 2.2 倍。(Xeon 专为数据中心、边际和使命站使命负载而遐想。)她宣称,行将推出的 Gaudi 3 加快器的推理才调平均莳植 50%,推理功效平均莳植 40%。英特尔还涉足液冷业务,与数据中心内的风冷比拟,该业务可节能 30%。
是的,更高的“恶果”,然则……
尽管主要芯片遐想者付出了通盘奋发,功耗逆境仍然存在。是的,数据中心可能领有更少的配备最新加快器的机架,从而裁减功耗,但东谈主工智能的增长意味着公司只会寻求延迟遐想才调——更多的劳动器、更多的机架、更多的动力破费。J. Gold Associates 的独创分析师杰克·戈尔德 (Jack Gold) 默示:“是的,较新的芯片每瓦性能更高,但东谈主工智能模子也在不停增长,因此目下尚不披露对功耗的总体条件是否会下落那么多。”
天然摄取液冷机架的 GB200 外形尺寸的 Blackwell 每个芯片的功耗为 1200 瓦,但 Gold 指出,典型的 AI 芯片仅使用一半的功率 - 650 瓦。他这么遐想能耗:加上内存、互连和 CPU 截止器,每个模块的能耗可跃升至 1 千瓦。在最近的 Meta 示例中,该公司一度部署了 10,000 个模块(将来还会有更多),仅这一数目就需要 10 兆瓦的电力。一个像克利夫兰这么大小、领有 300 万东谈主口的城市的用电量约为 5,000 兆瓦,因此推行上,一个如斯限度的数据中心将占用该城市 2% 的电力。典型的发电厂可发电约 500 兆瓦。
戈尔德说:“最要紧的是,东谈主工智能数据中心照实[面对着问题],试图找到有实足电力且电力成本实足低的区域来得志其所需的破费。”电力成本是数据中心中仅次于斥地本钱成本的最大支拨。
Technaanalysis 的独创分析师 Bob O'Donnell 默示,他在一定过程上交融黄仁勋在 Cadence 行动中建议的复古 AI 芯片功耗的“纵向”论点。“加快器芯片照实需要更多的能量,但从长久来看,由于你所学到的一切,从长久来看对环境、制药和其他鸿沟有更积极的平允,”他告诉 Fierce。“它们超越密集,但与其他选项比拟,它们更节能。”
“记忆来说,东谈主工智能芯片的才调正在受到好多不同参与者的平时关注和关注。它不会跟着对更多电力的巨大需求而得到处理或隐没。但 GenAI 的才调是如斯刚劲,以至于东谈主们认为有必要去追求它。”
https://www.fierceelectronics.com/ai/power-hungry-ai-chips-face-reckoning-chipmakers-promise-efficiency
点这里加关注,锁定更多原创内容
*免责声明:本文由作家原创。著作内容系作家个东谈主不雅点,半导体行业不雅察转载仅为了传达一种不同的不雅点,不代表半导体行业不雅察对该不雅点赞同或复古,要是有任何异议,接待联系半导体行业不雅察。
今天是《半导体行业不雅察》为您共享的第3752期内容,接待关注。
『半导体第一垂直媒体』
及时 专科 原创 深度
公众号ID:icbank
可爱咱们的内容就点“在看”共享给小伙伴哦