NVIDIA Spectrum-X Hardware Inteligência Artificial Tech

NVIDIA abre protocolo MRC para acelerar redes de IA

A NVIDIA anunciou nesta quarta-feira, 6 de maio de 2026, a abertura do protocolo MRC (Multipath Reliable Connection) para a indústria de tecnologia, visando padronizar a eficiência em redes Ethernet para Inteligência Artificial de larga escala. A tecnologia, integrada à plataforma NVIDIA Spectrum-X, foi disponibilizada através do Open Compute Project (OCP) para permitir que centros de dados distribuam o tráfego de dados por múltiplos caminhos de rede simultaneamente. O objetivo da iniciativa é sustentar o treinamento de modelos de linguagem de próxima geração (LLMs) em infraestruturas conhecidas como “fábricas de IA”, minimizando gargalos de comunicação e garantindo que milhares de GPUs operem em sua capacidade máxima sem interrupções por falhas de hardware.

A evolução da infraestrutura Ethernet para IA

O crescimento exponencial da demanda por processamento de IA exige que a infraestrutura de rede evolua além do modelo tradicional. O protocolo MRC surge como uma evolução do transporte RDMA (Remote Direct Memory Access), permitindo que uma única conexão de dados utilize múltiplos caminhos físicos na rede. Historicamente, o tráfego de rede em clusters de computação seguia rotas lineares que, se congestionadas ou interrompidas, causavam a ociosidade de unidades de processamento gráfico (GPUs), elevando o custo e o tempo de treinamento de modelos.

Com o MRC, a rede passa a funcionar como um sistema de malha inteligente. Caso ocorra uma falha em um cabo ou switch, o protocolo detecta o problema em microssegundos e redireciona o fluxo de dados via hardware, sem a necessidade de intervenção do software ou reinicialização do processo de treinamento.

Parcerias estratégicas: OpenAI, Microsoft e Oracle

A implementação do MRC e da plataforma Spectrum-X já é realidade em infraestruturas críticas. A OpenAI utilizou a tecnologia durante o ciclo de treinamento da geração Blackwell. Segundo Sachin Katti, chefe de computação industrial da OpenAI, a abordagem de ponta a ponta do MRC permitiu evitar desacelerações típicas de rede, mantendo a eficiência em execuções de larga escala.

Projetos de infraestrutura de nuvem de grande porte, como o Fairwater da Microsoft e o data center Abilene da Oracle Cloud Infrastructure (OCI), também adotaram o padrão para sustentar seus clusters de GPUs. A colaboração para o desenvolvimento do MRC envolveu outros gigantes do setor, incluindo AMD, Broadcom e Intel, sinalizando um esforço da indústria para criar um ecossistema aberto e interoperável em oposição a soluções proprietárias fechadas.

Detalhes técnicos e o conceito de redes multiplanares

Além do protocolo MRC, a NVIDIA detalhou a capacidade multiplanar do Spectrum-X. Uma rede multiplanar consiste em várias camadas independentes de comunicação (planos) que conectam as GPUs. O hardware da NVIDIA acelera o balanceamento de carga entre esses planos, o que é fundamental para manter latências baixas enquanto a infraestrutura escala para centenas de milhares de chips.

Essa arquitetura resolve o desafio da “cauda de latência” (tail latency), onde um único pacote de dados atrasado pode atrasar toda a sincronização do cluster. Ao oferecer suporte nativo para o MRC e para o RDMA Adaptativo nos switches Spectrum-X e nas placas ConnectX SuperNICs, a empresa fornece flexibilidade para que administradores de sistemas escolham o protocolo de transporte mais adequado para diferentes cargas de trabalho, mantendo a resiliência contra falhas de hardware em tempo real.

A abertura das especificações do MRC pelo Open Compute Project marca um ponto de transição para o mercado de infraestrutura, permitindo que fabricantes concorrentes implementem soluções compatíveis e acelerem a adoção global de redes Ethernet otimizadas para IA nativa.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *