최고 성능의 NVIDIA GPU를 SKT Enterprise에서 만나보세요

NVIDIA H100

AI와 HPC 작업에 최적화된 4세대 Tensor코어를 탑재한 고성능 GPU

NVIDIA H200

H100의 후속 모델로 전작 대비 성능이 최대 45% 향상된 고성능 GPU

대규모 모델 학습 및 추론을 위해 설계된 클라우드 인프라

대규모 학습을 위한 최신 GPU기반의 인프라

지연이나 병목 현상 없이 수천 개의 NVIDIA H100, H200 GPU를 활용하여 대규모 모델을 트레이닝하고 AI 프로젝트를 위한 최신 인프라를 제공합니다.

대규모 학습을 위한 최신 GPU기반의 인프라

최고의 성능을 보장하는 Compute Fabric

각 GPU는 Private Cloud compute fabric과 1:1로 연결되어 전용 400Gbps 링크를 통해 연결됩니다. Multi-PB/s 처리량으로 확장 가능한 GPU 컴퓨팅을 위한 최적의 네트워크 topology를 제공합니다.

최고의 성능을 보장하는 Compute Fabric

Throughput을 최대화한 Non-Blocking InfiniBand

클러스터의 내 모든 GPU에 동시에 Full Bandwidth를 제공하는 가장 빠른 네트워크입니다. InfiniBand를 활용하여 대규모 분산 훈련을 최적화하며 전체 클러스터에서 효율적으로 작동합니다.

Throughput을 최대화한 Non-Blocking InfiniBand

대규모 언어 모델(LLM), 파운데이션 모델, 생성형 AI를 위한 가장 빠르고

최적화된 네트워크 솔루션

클라우드 환경에서 사용할 수 있는 가장 빠른 네트워킹 기술로 대규모 파운데이션 모델과 LLM을 학습하십시오. NVIDIA Quantum-2 InfiniBand 네트워킹은 각 HGX H100 또는 H200 노드당 3200Gbps의 대역폭을 제공합니다.이 설계는 NVIDIA GPUDirect RDMA를 최대한 활용하기 위해 설계되었으며, 클러스터 전체에서 노드 간 최대 대역폭과 최소 지연을 제공합니다.

Lambda 컴퓨팅 네트워크는 Non-blocking multi-layer topology with zero oversubscription(고성능 네트워크 설계에서 데이터 전송의 효율성과 병목 없는 대역폭 제공을 보장하기 위한 구조)을 사용합니다. 이를 통해 클러스터 내 모든 NVIDIA GPU가 동시에 전체 네트워크 대역폭을 사용할 수 있으며, 이는 클러스터 전체의 분산 학습에 최적화된 설계입니다.

CPU를 우회하고 GPUDirect RDMA를 활용하여 가장 빠른

분산 학습 환경 구축

NVIDIA Quantum-2 InfiniBand를 통해 클러스터 내 모든 노드의 NVIDIA GPU 간 직접 통신 경로를 제공함으로써 최적화된 데이터 전송을 지원합니다.

GPUDirect RDMA는 GPU 간 통신 지연을 획기적으로 줄이며, 네트워크 상의 모든 GPU 간 데이터 전송 과정에서 CPU의 개입을 완전히 제거하여 GPU-GPU 통신을 최적화합니다. 이로 인해 전체 시스템의 성능이 크게 향상됩니다.

WHY SK TELECOM

세계 50위권 슈퍼 컴퓨터 TITAN 구축/운영 경험
세계 50위권 슈퍼 컴퓨터 TITAN 구축/운영 경험

아키텍쳐 성능최적화로 성능 효율 87% 달성
국내 제 1 금융권 구축 레퍼런스 보유

AI 워크로드에 최적화된 DC 기술 보유
AI 워크로드에 최적화된 DC 기술 보유

국내 최초 44kW 랙 도입
Global Top Player와 미래 AI DC 기술 공동 개발(DLC, 액침냉각 등)

최신 GPU를 국내에서 가장 빠르게 확보
최신 GPU를 국내에서 가장 빠르게 확보

NVIDIA 최신 GPU를 우선 배정받은 Lambda와 전략적 파트너 협업을 통한 Supply chain 구축

세계 최고 수준 대규모 Cluster 최적화 기술 확보
세계 최고 수준 대규모 Cluster 최적화 기술 확보

GPU Cluster, AI SW, 냉각 기술을 통합한 AI Factory 구축 Reference 보유