Quanta Cloud Technology (QCT)

All-in-one Box prevails over AI and HPC challenge

QuantaGrid D52G-4U

QuantaGrid D52G-4U

QuantaGrid D52G-4U

Up to 10x dual-width 300 watt GPU or 16x single-width 75 Watt GPU support

QuantaGrid D52G-4U는 Artificial Intelligent(AI) 및 HPC(High-Performance Computing) 워크로드 용으로 특수 제작 된 시스템으로 최대 896 Tensor Tflops를 제공하며 8개의 NVIDIA® Tesla V100을 지원하며 16개의 NVIDIA® Tesla P4 및 2-socket Intel® Xeon® Scalable 프로세서로 추론을 수행하기 위해 최대 293GOPS/watt INT8 성능을 제공합니다.

최대 56배의 double precision Tflops 컴퓨팅 성능으로 석유 및 가스, 생물 정보학, 기계 공학과 같은 HPC 워크로드를 가속화 할 수 있습니다.

탁월한 컴퓨팅 성능을 자랑하는 D52G는 2x100Gb/s high bandwidth low-latency로 서로 다른 GPU 노드 간의 통신을 신속하게 처리합니다.

QuantaGrid D52BV-2U
QuantaGrid D52BV-2U
  • Up to 10* dual-slot GPU
  • Single baseboard to multiple PCIe routing topology
  • 24 SFF drive bays including up to 8x U.2
  • Up to 4x100Gb/s RDMA over GPU
  • *cannot install NIC on baseboard while support 10x dual-slot GPU

Best HW provider for developing Ai solution

“Quanta has been working with us on GPU server since the very beginning”,
“It doesn’t matter what kind of data center you want to build, our partnership with Quanta and QCT (Quanta Cloud Technologies) will make it happen for you”
NVIDIA co-founder and CEO, Jen-Hsun Huang
"Quanta Expands GPU Server Lineup to Support NVIDIA P4, P40 Inferencing Accelerators", blogs.nvidia.co, Sep 2016.
OCP 21”+NVIDIA GPGPU platform
“With Big Basin, we can train machine learning models that are 30 percent larger because of the availability of greater arithmetic throughput and a memory increase from 12 GB to 16 GB.”
Technical Program Manager at Facebook, Kevin Lee
With Big Basin, Facebook Beefs Up its AI Hardware, datacenter frontier, Mar 2017

모든 종류의 병렬 컴퓨팅 작업량을 극복하기 위해 GPU 토폴로지 다각화

QuantaGrid D52G는 동일한 베이스 보드 트레이에 다양한 GPU 토폴로지를 제공하여 다양한 사용 사례를 충족시킵니다.

GPU 노드간에 높은 대역폭, 낮은 대기 시간의 네트워킹

QuantaGrid D52G-4U에는 추가 2/4 PCIe Gen3x16 LP-MD2 슬롯이 있어 서버에서 GPUDirect를 수행하거나 다른 GPU 노드간에 RDMA를 수행 할 수있는 2/4 100Gb/s low-latency infiniband 또는 Intel®Omni Path 옵션을 제공합니다.

Deep Learning 학습을 가속화하는 NVMe SSD 지원

The D52G-4U support max. 8x NVMe SSD, which can accelerate both training and inferencing With Fast I/O data reading as deep learning is a data-driven algorithm.