导语

1.GPU的价值不止体现在深度学习,在高性能计算、人工智能、生物信息、分子模拟、计算化学、材料力学、系统仿真、流体力学、机械设计、生物制药、航空动力、地质勘探、气候模拟等领域,算法越来越复杂,需要处理的海量数据越来越巨大,高性能计算能力就显得尤为重要。近日为满足GPU服务器、高性能服务器、深度学习服务器、水冷工作站、水冷服务器、液冷工作站、液冷服务器等的高速运转,英伟达发布产品——H100 GPU。

2.随着信息技术的快速发展,高性能服务器的需求不断增长。为保障服务器长期可靠稳定运行,合适的散热技术显得至关重要。

3.基于蓝海大脑超融合平台的水冷GPU服务器及水冷GPU工作站采用绿色冷却技术,Gluster 分布式架构设计,提供大存储量,拥有开放融合的特性和超能运算的能力。

1  蓝海大脑服务器于 NVIDIA H100 GPU

蓝海大脑宣布服务器产品线全力支持最新的 NVIDIA H100 GPU。蓝海大脑服务器产品在单机上最多可支持4、8甚至9个H100 GPU,可为多种人工智能场景提供超强算力、灵活的资源调度和成熟的生态支持。

搭载NVIDIA H100 GPU的蓝海大脑服务器具有更强计算性能、更高的GPU间通信带宽和创新的计算架构,支持用户对更大、更复杂的模型进行训练和推理。同时,搭配蓝海大脑算力资源管理平台,用户可以更加便捷高效地使用AI集群算力资源。

基于GH100 GPU

据官方数据显示,全新的NVIDIA GH100 GPU不是基于之前传闻的台积电 N5工艺,而是使用更先进的N4工艺。整个芯片面积814mm²,相比GA100要小,但集成800亿晶体管,并采用更高频率的设计。

完整版GH100 GPU架构框图

完整规格的GH100 GPU规格,包含总计8个GPC图形集群,72个TPC纹理集群,144个SM流式多处理器,共计18432个FP32 CUDA核心(与目前传闻中AD102完整版完全吻合),专用于AI训练的第四代张量核心TensorCore为每组SM配备4个,共计528个。显存方面最大支持6个HBM3或HBM2e堆栈,6144bit显存位宽,L2缓存提升到60MB,并支持第四代NVLink和PCIe Gen5。

Hopper架构的SM流式多处理器框图

不过,GH100是面向人工智能、数据分析等负载构建的,不是图形处理。SXM5版和PCIe H100所使用的GH100 GPU中,只有两个TPC具有图形处理能力。

 H100 SXM5 加速器 

GH100 GPU用于两个款式的加速卡上,分别为SXM5版和PCIe5版,SXM协议更多用在密集计算的数据中心上,规格也更高一些。大概是受制于良率,即便是高规格的SXM5版也并不是满血的GH100核心。

H100 SXM5使用的H100 GPU规格为66个TPC纹理集群,SM数量下降到132组,而CUDA数量也下降到16896个(但相比于目前的GA100岂止于翻倍),张量核心为528个。显存方面,H100 SXM5启用5个HBM3堆栈,共计80GB,显存位宽为5120Bit。L2缓存也下降到50MB,对比A100依然有25%提升。

 H100 PCIe5 加速器 

PCIe5版的H100 CNX,集成CX7芯片,可将网络数据以50GB/s的速度直接传输给GH100 GPU处理

PCIe版虽然更多用于小型企业,但是PCIe版的性能也是不容小觑。PCIe版采用进一步缩减的GH100 GPU,SM数量下降到114组,CUDA数量下降到14592个,张量核心则缩减到了456个。显存方面,启用的是5个HBM2e堆栈,容量与SXM5版相同,为80GB 5120Bit位宽,L2缓存大小一致。

 碾压性的性能对比 

白皮书揭露了新的H100两款FP32算力(一般用户可以关注的指标),132组SM/16896CUDA的SXM5版本,FP32单精度算力为60TFlops。根据CSDN一篇文章提供的公式:单精度理论峰值=FP32 cores*GPU频率*2,可以推出工作频率约为1775MHz。而A100加速卡的GA100核心工作频率为1410MHz,频率提升近26%。GeForce产品使用的GPU往往会给到更高的频率,下一代RTX 40有望2G起步?

在算力方面,H100 SXM5对比现在的A100在多个项目中都超过200%的提升,最低的FP16半精度运算也有50%的性能提升,可谓是碾压级。

在演讲上,老黄更是直接带来H100在三种负载下对比A100的效率提升,训练Transformer模型从5天缩短到了19小时,而在结合英伟达多项尖端软硬件条件下,整个模型训练从7天缩短到了20小时,效率足足提升9倍。

新一代DGX H100,内置8块H100加速器

蓝海大脑是全球领先的AI服务器厂商,拥有丰富的AI计算产品阵列,并和AI客户紧密合作,帮助其在语音、语义、图像、视频、搜索等各方面取得数量级的AI应用性能提升。

2  高性能机架式服务器散热

随着信息技术的快速发展,对高性能服务器的需求越来越大。为保证服务器长期可靠稳定的运行,合适的散热技术非常重要。下面以高性能机架式服务器为研究对象,分析比较强制风冷与间接液冷下服务器的散热效果。结果表明,在低负荷下,强制风冷与间接液冷差别不大。在高负荷下,间接液冷的散热效果优于强制风冷。

一、研究背景

随着信息技术的快速发展,尤其是 5G 通信技术的出现,支撑大数据运行的服务器需求不断增长。为保障服务器稳定运行,合适的散热技术显得至关重要。机架式服务器是指按照工业标准可以直接安装在 19 英寸宽机柜中的服务器。目前机架式服务器的主流散热方式为强制风冷和间接液冷。

二、基于强制风冷的服务器散热仿真研究

2.1 仿真边界条件设置

一般情况下,当流体速度小于 1/3 风速时,可将流体看作不可压缩流体,因此可将服务器内部空气视作不可压缩流体。服务器内部一共有 6 颗轴流式风扇,其中电源模块单独有一个轴流风扇冷却。轴流风扇采用吹风散热方式冷却 CPU 和内存,硬盘最靠近进风口,出风口压力设为大气压力,环境温度设为 25℃。

2.2 仿真结果分析

服务器散热效果评价指标有 CPU、内存、硬盘的最高温度。环境温度 25℃,忽略服务器与外界环境的辐射换热,分别对服务器低负荷和高负荷两种状态进行仿真。

低负荷下服务器内部温度云图

高负荷下服务器内部温度云图

从图可以看出,无论是低负荷还是高负荷,服务器内部最高温度出现在 CPU 上,其次是内存的温度较高,而硬盘最靠近进风口,其温度最低。

下表为服务器主要发热部件的温度汇总表。在低负荷状态下,服务器各部件的温度均得到较好的控制,CPU 温度低于长期运行允许的温度值;而在高负荷状态下,CPU 的温度急剧上升,超过峰值允许的温度值。

三、基于间接液冷的服务器散热仿真研究

3.1 机架式服务器液冷仿真模型建立

间接液冷机架式服务器内含电源模块、CPU(两个)、内存、硬盘、液冷板、水泵等部件。

间接液冷机架式服务器简化模型

液冷散热板作为水冷系统的重要组成部分,主要是将发热元器件产生的热量与冷却液充分交换。水冷系统部分如图所示,由IGBT、水冷散热板、铝合金板以及铝条安装件组成。

水冷系统部分三维示意图

水冷系统部分三维爆炸图

一般情况下,当流体速度小于 1/3 风速时,可将流体看作不可压缩流体,因此可将服务器内部空气以及流道内液体视作不可压缩流体。服务器内部一共有 4 颗轴流式风扇,其中电源模块单独有一个轴流风扇冷却。轴流风扇采用吹风散热方式冷却CPU 和内存,硬盘最靠近进风口,出风口压力设为大气压力,环境温度设为 25℃,液冷板入口流体温度为 25℃。

3.2 仿真结果分析

服务器散热效果评价指标有 CPU、内存、硬盘的最高温度。环境温度 25℃,忽略服务器与外界环境的辐射换热,分别对服务器低负荷和高负荷两种状态进行仿真。

低负荷下服务器内部温度云图

高负荷下服务器内部温度云图

从图可以看出,在低负荷状态时,最高温度出现在内存上,当服务器处于高负荷时,服务器内部最高温度出现在 CPU 上,其次是内存的温度较高,而硬盘最靠近进风口,其温度最低。

下表为服务器主要发热部件的温度汇总表。在低负荷状态下,服务器各部件的温度均得到较好的控制,CPU 温度低于长期运行允许的温度值;在高负荷状态下,CPU 的温度稍有上升,但没超过峰值允许的温度值。与强制风冷相比,间接液冷方式下,内存和硬盘的温度稍有升高,这是因为减少风扇的原因;而 CPU 的温度降低,因为水的导热系数和比热容等远大于空气的导热系数和比热容。因此对于高负荷的服务器,建议采用间接液冷散热方式。

3  蓝海大脑液冷散热服务器

基于蓝海大脑超融合平台的水冷GPU服务器及水冷GPU工作站采用绿色冷却技术,Gluster 分布式架构设计,提供大存储量,拥有开放融合的特性和超能运算的能力。支持多块GPU显卡,提供出色的静音效果和完美的温控系统。借助 NVIDIA GPU计算卡可加快神经网络的训练和推理速度,更快地创作精准的光照渲染效果,提供高速视频、图像、声音等处理能力,加速AI 并带来更流畅的交互体验。

END

NVIDIA 英伟达发布H100 GPU,水冷服务器适配在路上相关推荐

  1. linux 七代 显卡,性能显著提升:NVIDIA 英伟达 发布 第七代 GPU架构 Volta

    性能显著提升:NVIDIA 英伟达 发布 第七代 GPU架构 Volta 2017-05-11 18:31:54 35点赞 42收藏 87评论 Microsoft(微软)Build2017开发者大会正 ...

  2. 2002年3月英伟达发布核弹GPU与大算力自动驾驶芯片

    2002年3月英伟达发布核弹GPU与大算力自动驾驶芯片 英伟达核弹级GPU:800亿晶体管,20块承载全球互联网流量 2022年3 月 22 日,在英伟达 GTC2022 上,英伟达介绍了 Hoppe ...

  3. 显卡吧超级计算机,残暴8路Tesla V100:NVIDIA 英伟达 发布 HGX-1 超级计算机

    五杀超神吧 NVIDIA STUDIO 设计师电脑主机渲染建模影视后期视频剪辑台式定制组装图形工作站 升级版1 i7 8700/RTX2060S 8G 五杀超神吧 NVIDIA STUDIO 设计师电 ...

  4. 英伟达发布全新GPU:采用图灵架构 支持光线追踪

    关注网易智能,聚焦AI大事件,读懂下一个大时代! [网易智能讯 8月14日消息]在近日于加拿大举行的SIGGRAPH 2018计算机图形与交互技术大会上,英伟达推出了最新的光线追踪GPU Quadro ...

  5. Nvidia 英伟达的NSight GPU 调试如何下载

    NVIDIA Visual Profiler 正确学名,看清楚,并没有NSight,但是国内很多大牛都如是说 3G多,不下了,需要自取 https://developer.nvidia.com/zh- ...

  6. 英伟达发布业绩预警后股价暴跌13%,又是中国市场的锅...

    本周一,英伟达发布业绩预警,将第四季度营收预估下调5亿美元,股市开盘后英伟达股价一度暴跌17%以上,最终收盘股价为138.01美元,下跌13.82%.过去52周,英伟达股最高为292.76美元,最低为 ...

  7. 英伟达发布“空气CPU”,Arm架构专为AI而生,性能超x86十倍,与自家GPU更搭

    梦晨 晓查 发自 凹非寺  量子位 报道 | 公众号 QbitAI 30系显卡买不到?英伟达老黄刚刚又发布一款"空气CPU". 不过就算你抢不到也没关系,因为这款CPU专门为服务器 ...

  8. AI算力霸主诞生!英伟达发布首款安培架构GPU,性能提升20倍

    来源:雷锋网 由于疫情缘故,本该在今年3月英伟达(NVIDIA)GTC 2020上发布的安培(Ampere)架构曝光多次却一直未发布. 5月15日,英伟达CEO黄仁勋发布了英伟达新一代GPU架构安培, ...

  9. AI一分钟 | 英伟达发布Tesla T4 GPU新品;腾讯发布《2018 年全球自动驾驶法律政策研究报告》...

    ▌英伟达宣布 Tesla T4 GPU 新品:基于图灵架构,加速 AI 运算 近日,英伟达发布了一款专为 AI 推理工作而设计的显卡,它就是可以加速语音.视频.搜索引擎.图像神经网络的 Tesla T ...

最新文章

  1. 用oracle用户登陆toad,配置Toad连接远程Oracle数据库
  2. python回文链表_leetcode链表之回文链表
  3. 每日一皮:据说程序员都喜欢这些东西...
  4. [转]Java 8:不要再用循环了
  5. 前端程序员的一些有学习借鉴作用的网站
  6. Spring boot配置文件随机数
  7. Python列表的增删查改及常用操作
  8. Linux Shell常用命令总结
  9. mysql的explain中type取值与SQL性能优化的关系
  10. 彻底堕落了一回——大三篇
  11. 深入理解Java虚拟机--中
  12. hanlp和jieba等六大中文分工具的测试对比
  13. OpenCV】透视变换 Perspective Transformation(续)
  14. TCP 报文段首部格式讲解
  15. UVM学习整理——UVM整体介绍
  16. QuickTester对象,对象侦测器和对象库
  17. 如何在把微信公众号生成链接
  18. Clickhouse 踩坑之旅 ---- MergeTree不合并分区的问题
  19. Python实现的图书分析大屏展示系统(附源码)
  20. CMMI 3级精简并行过程综述

热门文章

  1. 第一单元 用python学习微积分(六) 指数和对数(下)- 对数
  2. Android自定义可拖拽的悬浮按钮---DragFloatingActionButton
  3. pandas官方网站上《10 Minutes to pandas》的简单翻译
  4. Maemo 中交叉编译D-BUS 1.2.1
  5. 《示波器仪器》的使用
  6. MapReduce实现推荐系统
  7. 怎么在网页上嵌入新浪微博页面
  8. ArcMap安装与使用入门
  9. Veritas 与星辰天合的官方一体化方案来了
  10. 打卡AWS re:Invent 2020 见证技术重塑未来的力量