2024年11月TOP500全球最强超算公布
https://top500.org/lists/top500/2024/11/第 64 版高性能超级计算机 TOP500 榜单公布,El Capitan 已夺得榜首位置,成为继 Frontier 和 Aurora 之后第三个达到百亿亿次级计算能力的系统。如今这两个系统分别跌至第 2 位和第 3 位。此外,另有新系统也进入了前 10 名。
美国加利福尼亚州劳伦斯利弗莫尔国家实验室的新型 El Capitan 系统以 1.742 EFlop/s 的 HPL 分数首次成为榜单上最强大的系统。它拥有 11,039,616 个 CPU 和 GPU 内核,基于 AMD 第 4 代 EPYC 处理器,具有 24 个 1.8GHz 内核和 AMD Instinct MI300A 加速器。El Capitan 依靠 Cray Slingshot 11 网络进行数据传输,并实现了 58.89 Gigaflops/W 的能源效率。这个能效评级也帮助 El Capitan 在 GREEN500 榜单上排名第 18 位。
美国田纳西州橡树岭国家实验室的 Frontier 系统已降至第 2 位。它的 HPL 分数已从上一个列表的 1.206 Eflop/s 提高到此列表中的 1.353 Eflop/s。Frontier 还增加了其核心总数,从上一个列表的 8,699,904 个内核增加到该列表中的 9,066,176 个内核。它依靠 Cray 的 Slingshot 11 网络进行数据传输。
位于美国伊利诺伊州 Argonne Leadership Computing Facility 的 Aurora 系统在 TOP500 榜单中排名第 3。该机器保留了上一个列表中的 HPL 基准测试分数,达到了 1.012 Exaflop/s。Aurora 由英特尔基于 HPE Cray EX(英特尔百万兆次级计算刀片)构建,该刀片使用英特尔至强 CPU Max 系列处理器和英特尔数据中心 GPU Max 系列加速器,通过 Cray 的 Slingshot-11 网络互连进行通信。
安装在美国 Microsoft Azure Cloud 上的 Eagle 系统排名第 4,仍然是 TOP500 中排名最高的基于云的系统。它的 HPL 分数为 561.2 PFlop/s
TOP 5 中唯一的其他新系统是排名第 5 的 HPC6 系统。这台机器安装在意大利 Ferrera Erbognone 的 Eni S.p.A 中心,与 2 号系统 Frontier 具有相同的架构。埃尼的 HPC6 系统达到了 477.90 PFlop/s 的 HPL 基准,现在是欧洲最快的系统。 第一名44000块mi300A,比得上特斯拉的10万块h100吗? 本帖最后由 uygnef 于 2024-11-19 20:45 编辑
赫敏 发表于 2024-11-19 20:09
第一名44000块mi300A,比得上特斯拉的10万块h100吗?
科学计算一般要fp64,10万块差不多是3000PFLOPs,榜首是2746PFLOPs。所以差不多。
如果用tensor core的话 H100理论性能是6000P。
fp32或者fp16的话再乘20倍和40倍。 前十里面EPYC 5台,Instinct加速器5台,AMD超算业务很成功啊[狂笑] 以前的超算不是还有中国“太湖之光”吗,算什么水平 复古的三叶草 发表于 2024-11-19 21:21
以前的超算不是还有中国“太湖之光”吗,算什么水平
这几年制裁这么严重,还能排上名那来鬼了[偷笑] 复古的三叶草 发表于 2024-11-19 21:21
以前的超算不是还有中国“太湖之光”吗,算什么水平
太湖之光已经是很多年前了,超算迭代淘汰很快的,同一台机器没几年就落后了。
国内也有自主架构、基于自主芯片的E级超算,包括太湖之光的后续升级机型。但最近几年制裁加码,可能也有保密需要,国内的最顶级超算从大约2022年开始就不再参加top500排名了。
总的来说国内超算的算力规模跟老美平分秋色吧。 赫敏 发表于 2024-11-19 20:09
第一名44000块mi300A,比得上特斯拉的10万块h100吗?
cray的这些机器比Tesla
在互联上的投入要大的多,
Tesla的机器更像普通的数据中心。 caihuii 发表于 2024-11-19 22:46
这几年制裁这么严重,还能排上名那来鬼了
我鳖的超算一直是盯着美帝的标准的,
有时候超过一点,有时候低一点。
国内达到top500头牌的时间,要比广为传颂的太湖之光或者天河早很多很多年。
复古的三叶草 发表于 2024-11-19 21:21
以前的超算不是还有中国“太湖之光”吗,算什么水平
几年前就不参与了 赫敏 发表于 2024-11-19 20:09
第一名44000块mi300A,比得上特斯拉的10万块h100吗?
不出意外Colossus应该不能满载,他们连供电可能都没完全搞定别说同时用这么多节点搞训练了[傻笑] 好像是有消息说排到了第一 本帖最后由 赫敏 于 2024-11-23 02:56 编辑
uygnef 发表于 2024-11-19 07:40
科学计算一般要fp64,10万块差不多是3000PFLOPs,榜首是2746PFLOPs。所以差不多。
如果用tensor core的话 ...
mi300a低精度不差的,至少不比H100差,只是双精度更强。当然真正攒大机器的根本不屑于去跑linpack beowulf 发表于 2024-11-20 00:00
cray的这些机器比Tesla
在互联上的投入要大的多,
Tesla的机器更像普通的数据中心。 ...
xAI每个H100配一个400gbps的bluefield3,还比不上hpe两个mi300a配一个200gbps nic吗? 赫敏 发表于 2024-11-25 01:21
xAI每个H100配一个400gbps的bluefield3,还比不上hpe两个mi300a配一个200gbps nic吗?
cray/hpc的机柜之间是all to all的。 beowulf 发表于 2024-11-24 23:14
cray/hpc的机柜之间是all to all的。
switch本身资源就这么多,注重机柜间互联只能牺牲机柜内互联度。况且nvlink也不是定死了机柜内互联,两级互联结构偏向哪边本身就可取舍
HPE今年亮相的slingshot400才和nv这边持平,slingshot11还差着代呢。至于offload能力我不觉得HPE比老黄bluefield更懂
页:
[1]