메타, AWS Graviton5로 AI 컴퓨팅 강화

메타, AWS Graviton5로 AI 컴퓨팅 강화
Share

2026년, 메타는 AWS Graviton5 코어 수천만 개를 확보하며 에이전트 AI 경쟁을 가속화합니다. 이는 메타의 다각적인 하드웨어 전략의 일환으로, 이종 컴퓨팅 환경 구축을 통한 AI 시스템 제어와 효율성 극대화를 목표로 합니다.

2026년 에이전트 AI 경쟁: 메타와 AWS의 협력

2026년, 인공지능 분야는 전례 없는 속도로 발전하고 있으며, 특히 에이전트 AI는 스프린트 경주와 같은 치열한 경쟁을 펼치고 있습니다. 이러한 흐름 속에서 메타는 컴퓨팅 자원 확보에 박차를 가하고 있으며, 최근 아마존 웹 서비스 AWS와의 전략적 파트너십을 발표했습니다. 이 협약을 통해 메타는 “수천만 개”의 AWS Graviton5 코어를 컴퓨트 포트폴리오에 추가하게 됩니다. Graviton5 칩 하나당 192개의 코어를 포함하고 있음을 감안하면, 이는 막대한 규모입니다. 메타는 Llama 개발사로서 세계에서 가장 큰 Graviton 고객 중 하나가 될 것입니다.

Graviton5, 에이전트 AI 워크로드의 핵심

그래픽 처리 장치(GPU)가 대규모 언어 모델(LLM) 훈련에 필수적이지만, 에이전트 AI는 완전히 새로운 워크로드 역량을 요구합니다. AWS Graviton5와 같은 CPU는 이러한 도전에 응답하며, 실시간 추론, 다단계 작업, 최첨단 모델 훈련, 코드 생성, 심층 연구와 같은 집약적인 워크로드를 지원합니다. AWS는 Graviton5가 “수십억 건의 상호작용”을 처리하고 복잡한 다단계 에이전트 작업을 조율할 수 있다고 강조합니다. 이는 고성능, 가용성 및 보안을 지원하는 AWS Nitro 시스템을 기반으로 구축됩니다. Moor Insights & Strategy의 매트 킴볼 부사장은 “이는 단순한 규모 확장을 넘어 AI 시스템 제어에 관한 것”이라고 말합니다.

메타의 다각적인 하드웨어 전략

이번 AWS와의 파트너십은 메타의 오랜 협력 관계를 기반으로 하지만, 동시에 회사가 추구하는 “다각적인 인프라 접근 방식”을 반영합니다. 메타는 “단일 칩 아키텍처로는 모든 워크로드를 효율적으로 처리할 수 없다”고 강조합니다. 실제로 메타는 최근 자체 MTIA 훈련 및 추론 가속기 칩의 4세대 버전을 발표했으며, AMD와 6GW 규모의 CPU 및 AI 가속기 공급 계약을 체결했습니다. 또한 엔비디아와 수백만 개의 Blackwell 및 Rubin GPU에 대한 다년간 파트너십을 맺었고, Nvidia Spectrum-X 이더넷 스위치를 플랫폼에 통합하기로 했습니다.

확장된 컴퓨팅 역량의 의미

Info-Tech Research Group의 나빌 셰리프 이사는 “메타가 이 모든 역량으로 무엇을 할 것인가?”라는 질문을 던집니다. 주로 메타의 내부 실험과 혁신을 지원하겠지만, 이는 또한 메타가 Llama AI 모델을 API 형태로 시장에 제공하는 등 자체 에이전트 AI 서비스를 제공하기 위한 기반과 역량을 마련하는 것이라고 그는 설명합니다. 확장된 역량은 다양한 아키텍처와 플랫폼에 걸쳐 다양한 사용 사례와 실험을 가능하게 할 것입니다. 현재 광범위한 새로운 CPU 접근 방식과 상당한 공급망 제약이 특징인 환경에서 메타는 공급 확보와 다양한 옵션을 확보할 수 있게 됩니다.

이종 컴퓨팅 시스템 구축의 중요성

AWS와의 계약은 메타가 ARM, 엔비디아, AMD와 같은 다른 플랫폼에 대한 파트너십 및 투자에 대한 보완책으로 간주되어야 합니다. 킴볼 부사장은 이번 조치가 “가장 확실히 추가적인 것”이며, 대체나 교환이 아니라고 동의합니다. 메타는 GPU나 가속기를 포기하는 것이 아니라, 그 주변에 시스템을 구축하고 있습니다. 그는 “이는 단일 승자를 선택하는 것이 아니라 이종 시스템을 조립하는 것에 관한 것”이라며, “실제로 대부분의 경우 이종성이 장기적인 성공에 매우 중요하다”고 강조합니다. 엔비디아는 여전히 훈련과 많은 추론을 지배하고 있으며, AMD는 “규모에서 점점 더 관련성이 높아지고 있습니다.”

전략적 질문: 컴퓨트 제공업체로의 전환?

더 흥미로운 질문은 전략에 관한 것입니다. 메타가 컴퓨트 제공업체가 될 것이라는 신호일까요? 킴볼 부사장은 그렇게 생각하지 않으며, 메타가 하이퍼스케일러와 일반 목적 클라우드로서 직접 경쟁하려 하지는 않을 것이라고 지적합니다. 그는 “이것은 그들 자신의 AI 스택에 대한 수직 통합에 가깝다”고 설명합니다. 이번 움직임은 메타가 내부 워크로드를 보다 효율적으로 지원하고, API, 파트너십 또는 다른 수단을 통해 그 역량을 외부로 노출할 수 있는 인프라 기반을 제공합니다. 킴볼 부사장은 비용 역학도 중요하다고 언급합니다. 특히 에이전트 시스템에서 추론이 지속될수록 경제성은 최대 FLOPS에서 지속적인 효율성 및 총 소유 비용(TCO)으로 전환됩니다.

개발자 및 기업 IT에 대한 시사점

Graviton5와 같은 CPU는 가속기를 필요로 하지 않지만 지속적으로 실행되어야 하는 워크로드 부분에 잘 포지셔닝되어 있습니다. 킴볼 부사장은 “메타의 규모에서, 워크로드당 작은 효율성 개선조차 빠르게 복합적으로 작용한다”고 지적합니다. 개발자와 기업 IT에는 분명한 신호가 있습니다. AI 스택은 덜 이질적이 아니라 더 이질적으로 변하고 있다는 것입니다. 기업들은 CPU, GPU, 그리고 특수 가속기 간의 더 긴밀한 결합을 보게 될 것이며, 워크로드는 동작(프리필 대 디코드, 스테이트리스 대 스테이트풀, 버스트 대 지속)에 따라 점점 더 이들 간에 분할될 것입니다. 킴볼 부사장은 “이는 인프라 결정이 워크로드 인지적이어야 한다는 것을 의미한다”고 말합니다. “어떤 클라우드인가?”보다는 “애플리케이션의 이 특정 부분이 어디서 가장 효율적으로 실행되는가?”에 대한 질문이 중요해집니다.

결론: 미래를 위한 이종 컴퓨팅 전략

2026년, 메타의 AWS Graviton5 코어 확보는 에이전트 AI 시대에 대비하는 전략적 움직임입니다. 이는 단일 기술에 의존하지 않고, 다양한 하드웨어 파트너십과 자체 개발을 통해 가장 효율적이고 유연한 컴퓨팅 인프라를 구축하려는 메타의 비전을 명확히 보여줍니다. 이러한 이종 컴퓨팅 환경은 내부 AI 혁신을 가속화할 뿐만 아니라, 미래의 에이전트 AI 서비스 제공을 위한 강력한 기반을 마련할 것입니다. 메타의 이러한 행보는 AI 산업 전반에 걸쳐 하드웨어 전략의 중요성과 복잡성을 다시 한번 일깨우고 있습니다.

이것도 좋아하실 수 있습니다...