Arm AGI CPU 발표: 에이전틱 AI 클라우드 시대의 실리콘 기반

Arm AGI CPU

요약

Arm이 자체 설계한 첫 프로덕션 실리콘 칩인 Arm AGI CPU를 발표했다. Arm Neoverse 플랫폼 기반으로 에이전틱 AI 인프라의 대규모 배포를 위해 최적화되었으며, Meta, OpenAI, Cloudflare 등이 이미 협력 중이다.

핵심 포인트

  • Arm이 35년 역사상 처음으로 자체 프로덕션 실리콘을 출시하여 AWS Graviton, Google Axion 같은 기존 파트너 제품과 달리 직접 제어 가능한 플랫폼 제공
  • 1OU 듀얼 노드 설정에서 1랙당 8,160개 코어로 최신 x86 대비 2배 이상의 성능 달성, 메모리 대역폭과 단일 스레드 성능으로 우위
  • 에이전틱 AI 워크로드의 연속 운영 특성상 CPU가 수천 개의 분산 작업을 조율하는 병목이 되는 문제를 해결하도록 설계

왜 중요한가

대규모 AI 인프라 구축자들이 Arm 기반 커스텀 솔루션의 선택지를 확보하게 되며, 기존 x86 의존도를 낮출 수 있다.

📄 전문 번역

Arm AGI CPU 발표: 에이전트 AI 클라우드 시대의 실리콘 기반

랙 레벨의 획기적인 성능, 확장성, 효율성으로 차세대 AI 인프라를 주도

Arm 클라우드 AI 사업부 Executive Vice President, Mohamed Awad


Arm이 새로운 프로덕션급 실리콘인 Arm AGI CPU를 발표했습니다. Arm Neoverse 플랫폼을 기반으로 설계된 이 프로세서는 차세대 AI 인프라를 구동하도록 만들어졌습니다.

Arm의 35년 역사에서 처음으로, Arm이 직접 설계한 실리콘 제품을 내놓는 것입니다. 기존의 IP와 Arm Compute Subsystems(CSS)를 넘어, 이제 고객들은 커스텀 실리콘 구축부터 플랫폼 수준의 솔루션 통합, Arm 설계 프로세서 배포에 이르기까지 다양한 선택지를 얻게 됩니다. 이는 AI 인프라가 빠르게 진화하고 있으며, 프로덕션급 Arm 플랫폼에 대한 생태계의 수요가 늘어나고 있다는 걸 보여주죠.

에이전트 AI 인프라의 부상

AI 시스템들이 이제 글로벌 규모로 지속적으로 운영되고 있습니다. 과거에는 인간이 컴퓨팅의 병목이었습니다. 사람들이 시스템과 상호작용할 수 있는 속도가 곧 작업이 처리되는 속도를 결정했거든요.

하지만 에이전트 AI 시대에는 이 제약이 사라집니다. 소프트웨어 에이전트들이 작업을 조율하고, 여러 모델과 상호작용하며, 실시간으로 의사결정을 내리니까요.

AI 시스템이 지속적으로 실행되고 워크로드 복잡도가 증가하면서, CPU가 현대 인프라의 핵심 요소가 되었습니다. CPU가 분산된 AI 시스템을 효율적으로 대규모로 운영하는 일을 담당해야 하거든요.

최신 AI 데이터센터에서 CPU는 수천 개의 분산 작업을 관리합니다. 가속기를 조율하고, 메모리와 스토리지를 관리하며, 워크로드를 스케줄링하고, 시스템 간 데이터를 이동시키죠. 그리고 이제 에이전트 AI 시대에는 수많은 에이전트에 걸친 작업 분산까지 조율해야 합니다.

이런 변화는 CPU에 새로운 요구사항을 만들어내고, 따라서 프로세서 자체의 진화를 요구합니다.

Arm Neoverse는 이미 AWS Graviton, Google Axion, Microsoft Azure Cobalt, NVIDIA Vera를 포함한 많은 최신 하이퍼스케일 및 AI 플랫폼을 지탱하고 있습니다. AI 인프라가 글로벌하게 확장되면서 생태계 곳곳의 파트너들이 Arm에 더 많은 것을 요청하고 있었습니다. Arm AGI CPU는 이런 요구에 대응하기 위해 만들어졌습니다.

Arm AGI CPU: 랙 규모의 에이전트 효율성을 위해 설계되다

에이전트 AI 워크로드는 대규모에서 지속적인 성능을 요구합니다. Arm AGI CPU는 수천 개의 코어가 병렬로 실행되면서도 현대 데이터센터의 전력과 냉각 제약 내에서 높은 태스크당 성능을 전달하도록 설계되었습니다.

Arm AGI CPU의 모든 요소 — 작동 주파수부터 메모리와 I/O 아키텍처까지 — 은 밀도 높은 랙 배포 환경에서 대규모 병렬 고성능 에이전트 워크로드를 지원하도록 설계되었습니다.

Arm의 참조 서버 구성은 1OU, 2노드 설계입니다. 두 개의 칩과 전용 메모리, I/O를 한 블레이드에 담아서 총 272개 코어를 제공하죠. 이 블레이드들은 표준 공랭식 36kW 랙을 완전히 채울 수 있도록 설계되었습니다. 30개 블레이드로 총 8,160개 코어를 얻을 수 있습니다. 추가로 Arm은 Supermicro와 협력하여 액랭식 200kW 설계를 만들었는데, 336개의 Arm AGI CPU를 수용하면서 45,000개 이상의 코어를 제공합니다.

이 구성에서 Arm AGI CPU는 최신 x86 시스템 대비 랙당 2배 이상의 성능을 제공할 수 있습니다*. 이는 Arm 아키텍처의 근본적인 장점과 시스템 리소스를 컴퓨트와 정교하게 매칭한 결과입니다:

  • 클래스 최고 수준의 메모리 대역폭: 더 많은 효율적인 실행 스레드를 랙당 제공합니다. 반면 x86 CPU는 지속적인 부하에서 코어 경쟁으로 인해 성능이 저하됩니다.
  • 고성능 효율적인 싱글 스레드 Arm Neoverse V3 코어: 레거시 아키텍처를 능가합니다. 모든 Arm 스레드가 더 많은 작업을 처리합니다.
  • 더 많은 사용 가능한 스레드와 스레드당 더 많은 작업: 이 두 가지가 결합되면서 랙당 엄청난 성능 향상을 만들어냅니다.

AI 생태계의 초기 모멘텀

Arm AGI CPU는 이미 에이전트 AI 인프라 확장의 최전선에 있는 파트너들로부터 강한 상업적 관심을 받고 있습니다. 계획된 배포는 가속기 관리, 에이전트 오케스트레이션, 에이전트 태스크 스케일아웃에 필요한 서비스·애플리케이션·도구의 고밀도화에 걸쳐 있습니다. 추가로 AI 데이터센터를 지원하기 위한 네트워킹과 데이터 플레인 컴퓨트도 확대되고 있습니다.

Meta가 우리의 주요 파트너이자 고객입니다. Meta는 Arm AGI CPU를 공동 개발하여 자신의 Meta 제품군 앱들을 위한 기가와트급 인프라를 최적화하고, 자신의 커스텀 MTIA 가속기와 함께 작동하도록 만들고 있습니다. 그 외 론칭 파트너로는 Cerebras, Cloudflare, F5, OpenAI, Positron, Rebellions, SAP, SK Telecom이 있습니다. 각 파트너들은 클라우드, 네트워킹, 엔터프라이즈 환경에서 AI 기반 서비스를 가속화하기 위해 Arm과 협력하고 있습니다. 상용 시스템은 이미 ASRockRack, Lenovo, Supermicro에서 주문 가능합니다.

채택을 더욱 가속화하기 위해 Arm은 Arm AGI CPU 1OU Dual Node Reference Server를 선보이고 있습니다. 이는 Open Compute Project(OCP) DC-MHS 표준 폼팩터 서버입니다.