본문 바로가기

IT

AWS가 Amazon EC2 Capacity Blocks for ML을 발표

Amazon Web Services (AWS)는 고객이 짧은 기간 동안 머신 러닝(ML) 워크로드를 실행하기 위한 고성능 GPU 컴퓨팅 능력에 액세스할 수 있는 새로운 소비 모델인 Amazon EC2 Capacity Blocks for ML을 발표했습니다. 이는 업계에서 처음으로 제공되는 모델로, 고객들은 이를 통해 수백 개의 NVIDIA GPU를 예약할 수 있으며, EC2 UltraClusters에 배치되어 고성능 ML 워크로드를 실행할 수 있습니다.

ML 워크로드를 위한 GPU 수요와 공급의 변화

ML 워크로드는 컴퓨팅 능력을 많이 필요로 하며, 특히 generative AI의 도래로 기존보다 더 많은 GPU 컴퓨팅 능력이 필요하게 되었습니다. GPU 클러스터는 이러한 워크로드에 이상적이며, 병렬 처리 능력으로 교육 및 추론 프로세스를 가속화합니다. 그러나 GPU에 대한 수요가 공급을 능가하면서 고객들은 필요할 때 GPU 클러스터에 액세스하기 어려워지거나 장기적인 커밋먼트를 해야 할 수 있습니다.

EC2 Capacity Blocks의 유연한 예약 기능

EC2 Capacity Blocks는 고객이 짧은 기간 동안 필요한 GPU 용량을 예약할 수 있도록 합니다. 이를 통해 사용하지 않을 때 GPU 용량을 보유할 필요가 없으며, 미래의 시작 날짜를 최대 8주 앞당기고 1일에서 14일까지의 기간 동안 예약할 수 있습니다. 클러스터 크기는 1부터 64개의 인스턴스(512개 GPU)로 지정할 수 있어 고객들에게 유연성을 제공합니다.

EC2 Capacity Blocks의 활용

EC2 Capacity Blocks는 ML 모델의 교육, 세부 조정, 단기 실험 실행, 그리고 제품 출시를 지원하기에 이상적입니다. 고객들은 GPU 용량을 예약함으로써 ML 워크로드 배치를 확실히 계획할 수 있으며, 필요할 때 GPU 용량을 확보할 수 있습니다.

AWS 및 NVIDIA의 협력

AWS와 NVIDIA는 12년 이상 협력하여 고성능 GPU 솔루션을 제공하고 있으며, EC2 Capacity Blocks를 통해 기업 및 스타트업이 장기 자본 커밋먼트를 하지 않고도 NVIDIA GPU 용량을 예측적으로 확보할 수 있도록 혁신을 이끌고 있습니다.

고객의 반응

EC2 Capacity Blocks는 다양한 고객에게 환영받았습니다. Amplify Partners는 GPU 컴퓨팅 능력에 대한 예측적이고 시기적인 액세스가 창의적 AI를 구현하는 데 기본적인 요소라고 언급했으며, Canva는 더 큰 모델을 교육하기 위한 GPU 용량 예약의 중요성을 강조했습니다. Leonardo.Ai는 EC2 Capacity Blocks를 통해 GPU 용량을 유연하게 확장할 수 있게 되었으며, OctoML은 단기간에 GPU 클러스터를 예측적으로 확장할 수 있게 되어 제품 출시를 지원하는 데 중요한 역할을 한다고 언급했습니다.

AWS 및 Amazon 소개

AWS는 2006년 이후 가장 포괄적이고 널리 채택된 클라우드로 세계에서 가장 많은 기능을 제공하고 있으며, 현재 102개의 가용성 존에서 240가지 이상의 서비스를 제공하고 있습니다. 아마존은 고객 중심의 기업으로서 지속적으로 혁신을 추구하며 다양한 제품과 서비스를 개발하고 있습니다.