事件:美东时间5月28日(北京时间5月29日),英伟达创始人兼CEO黄仁勋在NVIDIA Computex 2023演讲中宣布,生成式AI引擎NVIDIA DGX GH200现已投入量产。“不需要把数据储存在很多个模块中,DGX GH200更易训练大语言模型、深度学习推荐系统。
部分机构观点:
一、NVIDIA DGX GH200是将256个NVIDIA Grace Hopper超级芯片完全连接到单个GPU中的新型AI超级计算机,支持万亿参数AI大模型训练。能够处理大规模推荐系统、生成式人工智能和图形分析,并为巨型人工智能模型提供线性可扩展性。
二、这是小型算力集群,是特定场景的方案,不适用大场景大型数据中心。
三、从算力角度GH200内存是H100提升4倍,算力是H100的2倍,所以这部分带来800G光模块需求砍半。
四、从端口的角度,由于256个GPU还是用2层网络架构,GH200里面一个GPU对应16-18个800G光模块,假设一般用铜缆链接,一个GPU也对应8-9个800G光模块,相比原来的H100中一个GPU对应3-4个800G光模块,也有翻倍以上需求提升,所以相当于一个GPU对应8-18个。
五、总结来说这个GH200适用于部分特定场景,假设跟H100相比较的情况下,GH200算力提升角度对800G光模块需求砍半,但是端口角度需求变成原来的2.3-5.1倍,所以这部分特定场景的800G光模块需求是提升的,相当于原来的1.15-2.3倍。
因此我们继续重申,光模块仍然是AI算力当中最闪亮的“星”:chatgpt引发全球人工智能军备竞赛,北美跑在前沿,也有钱,光模块是中国唯一直供北美的,最快最直接感受全球ai产业大发展。自3月以来,北美厂商已经四次追加800G,目前来看800G全年需求合计达到120万只以上,追加时间超市场预期,追加数量也超预期,反映全球人工智能军备竞赛如火如荼,明年800G需求继续猛增,我们继续看好以800G光模块为核心的AI算力板块。