NVIDIA 공식 파트너 디에스앤지

GPU 및 인공지능 컴퓨팅 분야의 세계적 기업

인공지능 컴퓨팅 분야의 선도 기업인 NVIDIA는 GPU 컴퓨팅의 세계적 리더로 인정받고 있습니다. 최신 NVIDIA H100 GPU 등 디에스앤지는 가장 강력한 딥러닝 플랫폼을 지원하여, 새로운 비즈니스 기회 발굴을 돕습니다.

Ampere

최신 데이터센터의 AI 및 HPC의 핵심

NVIDIA Ampere

AI 및 HPC에서 가장 중요한 과학, 산업 및 비즈니스 과제를 해결합니다. 복잡한 콘텐츠를 시각화하여 최첨단 제품을 만들고, 몰입형 스토리를 전달하고, 미래의 도시를 새롭게 상상합니다. 대규모 데이터세트에서 새로운 인사이트를 추출합니다. NVIDIA Ampere 아키텍처는 모든 규모에서 비교할 수 없는 가속화를 제공합니다.

A100

NVIDIA A100 Tensor 코어 GPU는 최고 성능과 유연성을 갖춰 AI, 데이터 분석 및 HPC를 위한 데이터센터를 지원합니다.
NVIDIA Ampere 아키텍처 기반의 A100은 NVIDIA 데이터센터 플랫폼의 핵심입니다.
A100은 기존 세대보다 최대 20배 높은 성능을 제공하며, 7개의 GPU 인스턴스로 분할되므로 요구 변경 사항에 맞춰 조정될 수 있습니다.
40GB와 80GB 메모리 버전으로 제공되는 A100 80GB는 GPU 메모리를 두 배로 높이며 초당 2테라바이트(TB/s)가 넘는 빠른 메모리 대역폭을 갖추고 있습니다.

HGX용 NVIDIA A100

PCIe용 NVIDIA A100

A100 40GB PCIe (EOL) A100 80GB PCIe (EOL) A100 40GB SXM A100 80GB SXM
FP64 9.7TFLOPS
FP64 Tensor 코어 19.5TFLOPS
FP32 19.5TFLOPS
Tensor Float 32(TF32) 156TFLOPS | 312TFLOPS*
BFLOAT16 Tensor 코어 312TFLOPS | 624TFLOPS*
FP16 Tensor 코어 312TFLOPS | 624TFLOPS*
INT8 Tensor 코어 624TOPS | 1,248TOPS*
GPU 메모리 40GB HBM2 80GB HBM2e 40GB HBM2 80GB HBM2e
GPU 메모리 대역폭 1,555GB/s 1,935GB/s 1,555GB/s 2,039GB/s
최대 열 설계 전력(TDP) 250W 300W 400W 400W
멀티 인스턴스 GPU 최대 7개의 MIG @ 5GB 최대 7개의 MIG @ 10GB 최대 7개의 MIG @ 5GB 최대 7개의 MIG @ 10GB
폼 팩터 PCIe SXM
인터커넥트 NVIDIA® NVLink® 2개의 GPU를 위한 브리지: 600GB/s **
PCIe Gen4: 64GB/s
NVLink: 600GB/s
PCIe Gen4: 64GB/s
서버 옵션 1~8개의 GPU가 지원되는 파트너 및 NVIDIA-Certified System™ 4개, 8개 또는 16개의 GPU가 지원되는 NVIDIA HGX™ A100 파트너 및 NVIDIA-Certified System
8개의 GPU가 지원되는 NVIDIA DGX™ A100

* 희소성 포함
** HGX A100 서버 보드를 통한 SXM4 GPU, 최대 2개의 GPU를 위한 NVLink 브리지를 통한 PCIe GPU