找回密码
 加入我们
搜索
      
查看: 5568|回复: 8

[PC硬件] 英伟达推出H100 NVL 双GPU的AI加速器,针对大语言模型训练设计

[复制链接]
发表于 2023-3-23 21:03 | 显示全部楼层 |阅读模式

英伟达宣布,针对大型语言模型训练(LLM)设计,推出全新的H100 NVL计算加速卡。其搭载了两个基于Hopper架构的H100芯片,顶部配备了三个NVLink连接器,在服务器里使用了两个相邻的PCIe全长插槽。

英伟达去年就推出了H100,拥有800亿个晶体管,相比上一代的A100,有着六倍的性能提升以及两倍的MMA改进。其采用了CoWoS 2.5D晶圆级封装,单芯片设计,以台积电(TSMC)为英伟达量身定制的4N工艺制造。这次双GPU版本除了更高的计算性能,更大的显存容量也是其优势之一,提供了188GB的HBM3显存。

NVIDIA_H100_NVL_T.jpg

H100 NVL计算加速卡的FP64计算性能为134 teraFLOPS,TF32计算性能为1979 teraFLOPS,FP8计算性能为7916 teraFLOPS,INT8计算性能为7916 teraFLOPS,是H100 SXM的两倍。其具有完整的6144位显存接口(每个HBM3堆栈为1024位),显存速率可达5.1Gbps,意味着最大吞吐量为7.8TB/s,是H100 SM3的两倍多。由于大型语言模型训练需要更大的缓冲区和更高的带宽,所以更大的显存肯定会对运算有所影响。

据了解,H100 NVL计算加速卡的功耗略高于H100 PCIe(350W)的两倍或以上,在700W至800W之间。英伟达计划在今年下半年推出H100 NVL计算加速卡,不过暂时没有进一步提供任何的细节。


新闻来源:https://www.expreview.com/87473.html

评分

参与人数 1邪恶指数 +20 收起 理由
灯下狐 + 20

查看全部评分

发表于 2023-3-24 01:09 | 显示全部楼层
不让买的东西,就当他不存在了。
发表于 2023-3-24 06:22 | 显示全部楼层
略高于H100 PCIe(350W)的两倍或以上,在700W至800W之间
这个略字用得有点
发表于 2023-3-24 10:02 | 显示全部楼层
邪恶的光B 发表于 2023-3-24 01:09
不让买的东西,就当他不存在了。

据wccftech说有H800。
发表于 2023-3-24 10:20 | 显示全部楼层
然后显存硬生生割了2G留下94G,刀工是厉害的
发表于 2023-3-24 14:22 | 显示全部楼层
beowulf 发表于 2023-3-24 10:02
据wccftech说有H800。

H800是H100阉割版
发表于 2023-3-24 16:10 | 显示全部楼层

跟a800类似,割了一部分nvlink而已。
发表于 2023-3-29 15:38 | 显示全部楼层
beowulf 发表于 2023-3-24 16:10
跟a800类似,割了一部分nvlink而已。

双精度也割了,而且割废了
发表于 2023-4-3 18:41 | 显示全部楼层
o尐懶魚〇 发表于 2023-3-29 15:38
双精度也割了,而且割废了

砍了10%多一点而已,不至于叫割废了。。
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-1-1 23:58 , Processed in 0.011160 second(s), 7 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表