O mercado de infraestrutura cloud acaba de ganhar um novo referencial de performance para cargas de trabalho gráficas e de Inteligência Artificial. A AWS anunciou a disponibilidade geral das instâncias Amazon EC2 G7e, projetadas especificamente para entregar eficiência de custo em inferência de IA Generativa e desempenho de ponta em aplicações gráficas complexas.
Equipadas com as GPUs NVIDIA RTX PRO 6000 Blackwell Server Edition, as instâncias G7e são ideais para workloads que demandam aceleração por GPU, como computação espacial e simulações científicas. Em termos práticos, estamos falando de uma performance de inferência até 2.3 vezes superior às instâncias G6e de geração anterior.
Evolução técnica e ganhos estratégicos
As melhorias introduzidas pela arquitetura Blackwell em relação aos modelos precedentes são substanciais e atacam gargalos históricos de memória e latência:
- GPUs NVIDIA RTX PRO 6000 Blackwell: Estes chips oferecem o dobro de memória de GPU e 1.85 vezes mais bandwidth de memória em comparação às instâncias G6e. Para empresas que trabalham com modelos de linguagem (LLMs), isso significa a capacidade de executar modelos médios de até 70B parâmetros com precisão FP8 em uma única GPU, reduzindo a complexidade de deployment e os custos operacionais.
- NVIDIA GPUDirect P2P: Para modelos massivos que não cabem em uma única unidade, a AWS implementou suporte ao NVIDIA GPUDirect P2P. Isso permite a comunicação direta entre GPUs via barramento PCIe, eliminando saltos desnecessários e reduzindo a latência em workloads multi-GPU. Com até quatro vezes mais largura de banda inter-GPU do que as GPUs L40s (G6e), é possível gerenciar até 768 GB de memória de GPU em um único nó.
- Networking e Throughput: A largura de banda de rede nas instâncias G7e é quatro vezes maior que na família G6e, suportando workloads multi-node de pequena escala. A integração com Elastic Fabric Adapter (EFA) e suporte a RDMA (Remote Direct Memory Access) minimiza latências em comunicações remotas. Além disso, o suporte ao NVIDIA GPUDirectStorage com Amazon FSx for Lustre permite taxas de transferência de até 1.2 Tbps, acelerando drasticamente o carregamento de modelos pesados para a memória.
Especificações das instâncias EC2 G7e
As instâncias são equipadas com processadores Intel Emerald Rapids e podem ser configuradas com até 8 GPUs Blackwell. O hardware suporta até 192 vCPUs, 2.048 GiB de memória RAM do sistema e até 15.2 TB de armazenamento local NVMe SSD.
Confira os detalhes das configurações disponíveis:
| Nome da Instância | GPUs | Memória GPU (GB) | vCPUs | Memória (GiB) | Armazenamento (TB) | Bandwidth EBS (Gbps) | Bandwidth Rede (Gbps) |
|---|---|---|---|---|---|---|---|
| g7e.2xlarge | 1 | 96 | 8 | 64 | 1.9 x 1 | Até 5 | 50 |
| g7e.4xlarge | 1 | 96 | 16 | 128 | 1.9 x 1 | 8 | 50 |
| g7e.8xlarge | 1 | 96 | 32 | 256 | 1.9 x 1 | 16 | 100 |
| g7e.12xlarge | 2 | 192 | 48 | 512 | 3.8 x 1 | 25 | 400 |
| g7e.24xlarge | 4 | 384 | 96 | 1024 | 3.8 x 2 | 50 | 800 |
| g7e.48xlarge | 8 | 768 | 192 | 2048 | 3.8 x 4 | 100 | 1600 |
Para iniciar o uso, as empresas podem adotar as AWS Deep Learning AMIs (DLAMI). As instâncias são compatíveis com serviços gerenciados como Amazon ECS, Amazon EKS e AWS PCS. O suporte ao Amazon SageMaker AI está previsto para um futuro próximo.
Disponibilidade e Modelos de Compra
Atualmente, as instâncias G7e estão disponíveis nas regiões AWS de US East (N. Virginia) e US East (Ohio). Como análise estratégica para o mercado brasileiro, vale notar que o uso dessas instâncias em regiões internacionais pode oferecer uma performance superior para treinamento e inferência de modelos de IA, compensando eventuais latências geográficas com o ganho de throughput bruto da arquitetura Blackwell.
As instâncias podem ser adquiridas via On-Demand, Savings Plans, Spot Instances e também em formatos de Dedicated Hosts. Para times de FinOps, a recomendação é avaliar o uso de Spot Instances para cargas de processamento em batch, aproveitando o alto desempenho por dólar investido.
Artigo originalmente publicado por Channy Yun (윤석찬) em AWS News Blog.