新闻中心
NVIDIA英伟达A100和A800人工智能服务器
2024-03-05  点击:19

NVIDIA英伟达A100和A800人工智能服务器 GPU 在各种规模上实现出色的加速

适用于各种工作负载的强大计算平台

NVIDIA A100和A800 Tensor Core GPU 可在各个规模下为 AI、数据分析和高性能计算( HPC) 应用提供出色的加速性能,为全球的 高性能弹性数据中心提供强劲助力。作为 NVIDIA 数据中心平台的引擎,与前一代 NVIDIA Volta™ 相比,A100 可使性能提升高达 20 倍。A100 可高效扩展,也可借助多实例 GPU( MIG) 技术划分 为 7 个独立的 GPU 实例,从而提供统一的平台,助力弹性数据中心根据不断变化的工作负载需求动态进行调整。

NVIDIA A100 Tensor Core 技术支持广泛的数学精度,可针对每个工作负载提供单个加速器。*一代 A100 80GB 将 GPU 显存 加倍,提供 2TB/s 的全球超快显存带宽,可加速处理超大型模型和海量数据集。

A100 是完整 NVIDIA 数据中心解决方案的一部分,该解决方案由硬件、网络、软件、库以及 NGC™ 目录中经优化的 AI 模型和 应用等叠加而成。作为适用于数据中心且功能强大的端到端 AI 和 HPC 平台,A100 可助力研究人员获得真实的结果,并能将解决方案大规模部署到生产环境中。

NVIDIA英伟达A100人工智能服务器产品规格

 

项目

标准配置

扩展配置

1

准系统

浪潮双路4U机架式

2

处理器

英特尔 Xeon ® Gold 6330 处理器
28核/基频2GHz/*3.1GHz/42MB缓存

英特尔 Xeon® Platinum 8380 处理器
40核/基频2.3GHz/*3.4GHz/60MB缓存

3

内存

DDR4/RDIMM/3200MHz/64GB,总容量256GB

*内存容量4TB

4

芯片组

Intel® C621A

5

GPU

8张A100 80GB PCIe显卡

8张双宽或16张单宽PCIe NVIDIA GPU卡

6

网络通信

以太网卡,2路10G电口

7

InfiniBand(IB)网卡,2路200G QSFP56口

8

硬盘

系统盘,M.2 SATA SSD,容量1TB

前面板支持24块2.5或12块3.5寸 SAS/SATA硬盘
主板支持2块M.2 SATA SSD

9

数据盘,4TB*4/SATA,总容量16TB

10

电源

单模组2000W,2+2冗余配置

单模组3KW,总计12KW

9

外形尺寸

宽度480mm,高度180mm,深度830mm

10

工作温度

5~35℃

11

重量

80kg

 

 

NVIDIA A100 TENSOR CORE GPU 规格 (SXM4 和 PCIE 外形规格)

 

 

A100 80GB PCIe

A100 80GB SXM

FP64

9.7 TFLOPS

FP64 Tensor Core

19.5 TFLOPS

FP32

19.5 TFLOPS

Tensor Float 32 (TF32)

156 TFLOPS | 312 TFLOPS*

BFLOAT16 Tensor Core

312 TFLOPS | 624 TFLOPS*

FP16 Tensor Core

312 TFLOPS | 624 TFLOPS*

INT8 Tensor Core

624 TOPS| 1248 TOPS*

GPU 显存

80GB HBM2e

80GB HBM2e

GPU 显存带宽

1935GB/s

2039GB/s

*热设计功耗 (TDP)

300 瓦

400 瓦***

多实例 GPU

*多 7 个 MIG 每个 10GB

*多 7 个 MIG 每个 10GB

外形规格

PCIe 双插槽风冷式或单插槽液冷式

SXM

互连技术

搭载 2 个 GPU 的 NVIDIA® NVlink® 桥接器:600GB/s**

PCIe 4.0 :64GB/s

NVlink :600GB/s

PCIe 4.0 :64GB/s

服务器选项

搭载 1 至 8 个 GPU 的合作伙伴认证系统和 NVIDIA 认证系统( NVIDIA-Certified Systems™)

搭载 4 个、8 个或 16 个 GPU 的 NVIDIA HGX™ A100 合作伙伴认证系统和 NVIDIA 认证系统

搭载 8 个 GPU 的 NVIDIA DGX™ A100

* 采用稀疏技术

** SXM4 GPU 通过 HGX A100 服务器主板连接;PCIe GPU 通过 NVlink 桥接器可桥接多达两个 GPU

*** 400 瓦 TDP(适用于标准配置)。HGX A100-80 GB 自定义散热解决方案( CTS) SKU 可 支持高达 500 瓦的 TDP

       

 

跨工作负载的**性能

针对大型模型提供高达 3 倍的 AI 训练速度;

相较于 CPU 提供高达 249 倍的 AI 推理性能;

相较于 A100 40GB 提供高达 1.25 倍的 AI 推理性能;

为 HPC 应用提供高达 1.8 倍的性能;

四年来 HPC 性能提升 11 倍;

相较于 A100 40GB,在大数据分析基准测试中速度提升 2 倍;

 

突破性的创新

NVIDIA AMPERE 架构

第三代 TENSOR CORE 技术

新一代 NVlink:A100 中采用的 NVIDIA NVlink 可提供两倍于上一代的吞吐量。与 NVIDIA NVSwitch™ 结合使用时,此技术可将多达 16 个 A100 GPU 互连,并将速度提升至 600GB/s,从而在单个服务器上实现出色的应用性能。NVlink 技术可应用在 A100 中:SXM GPU 通过 HGX A100 服务器主板连接,PCIe GPU 通过 NVlink 桥接器可桥接多达两块 GPU。

多实例 GPU( MIG) 技术

高带宽显存( HBM2E)

 

 

 

旺铺:深圳市创宏佳科技有限公司 » 欢迎光临本店

首页

交谈

电话

一键开店