当地时辰周二,机器学习及东说念主工智能领域洞开产业定约MLCommons表示两项MLPerf基准评测的最新数据,其中英伟达H100芯片组在东说念主工智能算力施展的测试中,刷新了扫数组别的记录,亦然独逐一个粗略跑完扫数测试的硬件平台。
(着手:英伟达、MLCommons)
MLPerf是由学术界、推行室和产业构成的东说念主工智能魁首定约,是当今海外公认的巨擘AI性能评测基准。Training v3.0包含8种不同的负载,包括视觉(影像分类、生物医学影像分割、两种负载的物体侦测)、言语(语音识别、大言语模子、当然言语处理)和保举系统。浅易来说,即是由不同的树立供应商提交完成基准任务所需要的时辰。
(Training v3.0测验基准,着手:MLCommons)
在投资者相比保重的“大言语模子”测验测试中,英伟达和GPU云算力平台CoreWeave提交的数据为这项测试设定了粗暴的业界纪律。在896个英特尔至强8462Y+处理器和3584个英伟达H100芯片的都心合力下,只是花了10.94分钟就完成了基于GPT-3的大言语模子测验任务。
除了英伟达外,只须英特尔的家具组合在这个名目上获取评测数据。由96个至强8380处理器和96个Habana Gaudi2 AI芯片构建的系统中,网上开户完成相同测试的时辰为311.94分钟。横向对比,使用768个H100芯片的平台跑完这个测试也只需要45.6分钟。
(芯片越大批据越颜面,着手:英伟达)
关于这个效力,英特尔也暗意仍有高潮空间。表面上只须堆更多的芯片,运算的效力当然会更快。英特尔AI家具高档摆布Jordan Plawner对媒体暗意,接下来Habana的运算效力将会呈现1.5倍-2倍的普及。Plawner拒却透露Habana Gaudi2的具体售价,仅暗意业界需要第二家厂商提供AI测验芯片,而MLPerf的数据自大英特尔有才智填补这个需求。
而在中国投资者更练习的BERT-Large模子测验中,英伟达和CoreWeave将数据刷到了极点的0.13分钟,在64卡的情况下,测试数据也达到了0.89分钟。BERT模子中的Transformer结构恰是当今主流大模子的基础架构。
有关报说念国度信息中心单志广:算力指数每提高1点 对GDP有1.8‰的推进
算力能耗均优于GPU!韩国政企聚会斥资研发NPU芯片 替代竞争或将开启