엔비디아 루빈: 차세대 AI 혁신

Share

엔비디아 루빈 DGX SuperPOD: 차세대 AI 컴퓨팅의 혁신

엔비디아가 CES 2026에서 공개한 루빈 기반 DGX SuperPOD는 차세대 AI 컴퓨팅 성능을 제시하는 혁신적인 시스템입니다. 이 시스템은 고집적 랙에 극도의 AI 연산 능력을 제공하도록 설계되어, 최소한의 인프라 복잡성으로 대규모 워크로드를 지원합니다. 액체 냉각 모듈, 고속 인터커넥트, 통합 메모리 등을 통해 최대 AI 처리량과 최소 지연 시간을 목표로 합니다.

루빈 기반 컴퓨팅 아키텍처

DGX Vera Rubin NVL72 시스템은 36개의 Vera CPU, 72개의 Rubin GPU, 18개의 BlueField 4 DPU를 통합하여 시스템당 50페타플롭스의 FP4 성능을 제공합니다. 랙당 260TB/s의 NVLink 처리량을 통해 전체 메모리와 연산 공간을 단일 AI 엔진처럼 활용할 수 있습니다. 루빈 GPU는 3세대 트랜스포머 엔진과 하드웨어 가속 압축 기술을 통해 추론 및 훈련 워크로드를 효율적으로 처리합니다.

네트워킹 성능 강화

Spectrum-6 이더넷 스위치, Quantum-X800 InfiniBand, ConnectX-9 SuperNIC을 통해 연결성을 강화하여 결정적인 고속 AI 데이터 전송을 지원합니다. 엔비디아의 SuperPOD 설계는 엔드 투 엔드 네트워킹 성능을 강조하여 대규모 AI 클러스터의 혼잡을 최소화합니다. Quantum-X800 InfiniBand는 낮은 지연 시간과 높은 처리량을 제공하며, Spectrum-X 이더넷은 East-West AI 트래픽을 효율적으로 처리합니다. 각 DGX 랙은 600TB의 고속 메모리, NVMe 스토리지, 통합 AI 컨텍스트 메모리를 통해 훈련 및 추론 파이프라인을 지원합니다.

소프트웨어 통합 및 효율성

루빈 플랫폼은 Nvidia Mission Control을 통해 고급 소프트웨어 오케스트레이션을 통합하여 대규모 AI 팩토리를 위한 클러스터 운영, 자동 복구 및 인프라 관리를 간소화합니다. 576개의 루빈 GPU를 갖춘 DGX SuperPOD는 28.8 엑사플롭스의 FP4 성능을 달성하며, 개별 NVL8 시스템은 이전 Blackwell 아키텍처보다 5.5배 높은 FP4 FLOPS를 제공합니다. 이는 화웨이의 Atlas 950 SuperPod가 주장하는 SuperPod당 16 엑사플롭스 FP4보다 높은 GPU당 효율성을 의미하며, 극도의 연산 수준을 달성하는 데 필요한 장치 수가 적음을 의미합니다.

경쟁력 및 시장 전망

루빈 기반 DGX 클러스터는 화웨이의 SuperCluster보다 적은 노드와 캐비닛을 사용합니다. 화웨이는 수천 개의 NPU와 페타바이트 단위의 메모리로 확장되지만, 엔비디아는 공간, 전력 및 인터커넥트 오버헤드를 줄이면서도 경쟁력 있는 연산 출력을 제공합니다. 루빈 플랫폼은 AI 연산, 네트워킹 및 소프트웨어를 단일 스택으로 통합합니다. Nvidia AI Enterprise 소프트웨어, NIM 마이크로서비스, 미션 크리티컬 오케스트레이션은 긴 컨텍스트 추론, 에이전트 AI 및 멀티모달 모델 배포를 위한 응집력 있는 환경을 조성합니다.

결론

엔비디아의 루빈 DGX SuperPOD는 AI 컴퓨팅 분야에서 혁신적인 발전을 보여줍니다. 하드웨어와 소프트웨어의 긴밀한 통합을 통해 엔비디아는 대규모 AI 워크로드를 위한 효율적이고 강력한 솔루션을 제공하며, 이는 AI 기술의 미래를 엿볼 수 있게 합니다.

이것도 좋아하실 수 있습니다...