O cheque de US$ 5 bilhões da Nvidia na Intel muda o jogo para o armazenamento

      Mariana Costa 7 min de leitura
      O cheque de US$ 5 bilhões da Nvidia na Intel muda o jogo para o armazenamento

      Nvidia confirma investimento estratégico na Intel. Entenda como essa união redefine servidores, acelera o CXL e impacta o futuro do armazenamento de dados no Data Center.

      Compartilhar:

      A notícia caiu como uma bomba no mercado financeiro na última semana, mas para quem vive dentro do datacenter, o som foi diferente. O investimento estratégico de US$ 5 bilhões da Nvidia na Intel não é apenas um resgate de um gigante em dificuldades ou uma jogada de diversificação de manufatura. É um sinal claro de que o gargalo da inteligência artificial deixou de ser o processamento e passou a ser o armazenamento e a movimentação de dados.

      Jensen Huang não assinou esse cheque por caridade. Ele o fez porque as GPUs H100 e Blackwell estão famintas, e a infraestrutura atual de armazenamento x86 não consegue alimentá-las rápido o suficiente. Para o profissional de TI, do arquiteto de soluções enterprise ao entusiasta do homelab, isso valida uma mudança tectônica que estávamos esperando: a fusão definitiva entre memória e storage.

      Resumo em 30 segundos

      • O motivo real: A Nvidia precisa que a Intel sobreviva e inove na arquitetura x86 para garantir que os dados cheguem às GPUs sem latência, validando o padrão CXL.
      • O impacto no rack: A distinção entre RAM e SSDs NVMe de alto desempenho vai desaparecer. Espere ver "pools de memória" compartilhados via hardware em breve.
      • O futuro: Servidores deixarão de ter armazenamento local isolado para adotar arquiteturas desagregadas, onde terabytes de dados residem em um tier híbrido de velocidade extrema.

      O acordo que sacudiu o Vale do Silício

      Enquanto Wall Street discute margens e foundries, nós precisamos olhar para o barramento. A Intel, apesar de seus tropeços recentes na litografia, ainda é a guardiã do padrão PCIe e, mais importante, do CXL (Compute Express Link).

      A Nvidia tem seu próprio ecossistema de interconexão proprietário, o NVLink, que é fantástico para fazer GPUs conversarem entre si. No entanto, essas GPUs ainda precisam buscar dados no "mundo real" — bancos de dados SQL, data lakes de objetos e sistemas de arquivos distribuídos que rodam em CPUs x86.

      Se a Intel falhasse em entregar a próxima geração de controladores de I/O e pistas PCIe Gen6/Gen7, o roadmap da Nvidia encontraria um muro de tijolos. Este investimento garante que a "encanamento" dos servidores continue evoluindo para suportar a pressão da água que a Nvidia quer bombear.

      Por que a Nvidia precisa da Intel (e dos seus dados)

      O problema atual do armazenamento de alto desempenho é a "latência de cauda" e a largura de banda da memória. SSDs NVMe Gen5 são rápidos, chegando a 14 GB/s, mas comparados à largura de banda da memória HBM3e das GPUs, eles são lentos.

      A Nvidia percebeu que não adianta ter um motor de Ferrari se o tanque de combustível (o storage) alimenta o motor através de um canudo de refrigerante.

      💡 Dica Pro: Em ambientes de alta performance, pare de olhar apenas para IOPS. O novo rei métrico é a latência sob carga e a coerência de cache. É aqui que a parceria Intel-Nvidia vai atuar, otimizando o caminho direto do SSD para a VRAM da GPU (GPUDirect Storage) via plataformas Intel Xeon otimizadas.

      O efeito imediato nos racks: aceleração do CXL

      Aqui é onde a borracha encontra o asfalto para o administrador de sistemas. O CXL é um protocolo aberto construído sobre a interface física do PCIe que permite que a CPU e os aceleradores (como GPUs) compartilhem memória de forma coerente.

      Com o dinheiro da Nvidia fluindo, a adoção do CXL deve acelerar drasticamente. Isso significa que, em vez de comprar um servidor com 24 slots de DIMM e 8 baias de NVMe, veremos racks onde a memória e o armazenamento são recursos fluidos.

      Fig 1. O novo paradigma: Desagragação de memória e storage via CXL. Fig 1. O novo paradigma: Desagragação de memória e storage via CXL.

      Isso cria uma nova categoria de hardware que fica entre a RAM e o SSD: a Storage Class Memory (SCM) acessível via CXL. Dispositivos que têm a persistência do flash, mas velocidades próximas da DRAM.

      Tabela: O salto geracional no acesso aos dados

      Característica Arquitetura Atual (PCIe Gen4/5) Nova Arquitetura (CXL 2.0/3.0)
      Acesso à Memória Isolado por CPU (NUMA local) Compartilhado (Pool de Memória)
      Latência de Storage Alta (Protocolo NVMe overhead) Baixa (Semântica de Memória)
      Expansão Limitada aos slots da placa-mãe Expansível via gavetas CXL externas
      Uso de Dados Cópia do SSD para RAM para GPU Acesso direto e coerente

      O fim do gargalo PCIe e a ascensão do 'Far Memory'

      Para o mercado de armazenamento, isso valida o conceito de "Far Memory". Imagine um tier de armazenamento que é mais lento que a RAM DDR5 local, mas muito mais barato e com capacidades de petabytes, e muito mais rápido que um array All-Flash tradicional.

      Isso muda como projetamos clusters de armazenamento, seja um TrueNAS em escala enterprise ou um Ceph cluster.

      ⚠️ Perigo: O hardware legado baseado em SATA e SAS está com os dias contados para cargas de trabalho de performance. Se você está planejando infraestrutura para os próximos 5 anos, investir pesado em controladores SAS tradicionais para aplicações de IA/Analytics pode ser um erro de CAPEX. O futuro é NVMe sobre tecidos (NVMe-oF) e CXL.

      A Intel tem a tecnologia para fazer isso funcionar nos processadores Xeon, e a Nvidia tem a necessidade de consumir isso. O investimento garante que o desenvolvimento de controladores que suportam esse tráfego híbrido não pare por falta de verba em P&D.

      O que esperar da próxima geração de servidores

      O impacto físico nos servidores será visível. O formato M.2, que já é problemático termicamente em servidores, deve dar lugar definitivo aos formatos EDSFF (E1.S e E3). Esses "discos" são projetados para lidar com o calor gerado por controladores que agora precisam processar dados em velocidades de barramento de memória.

      Veremos menos servidores de armazenamento "burros" (apenas discos e uma CPU fraca) e mais JBOFs (Just a Bunch of Flash) inteligentes conectados via CXL, que podem ser dinamicamente alocados para qualquer servidor no rack.

      Se você gerencia um Data Center ou um Home Lab avançado, prepare-se. A próxima atualização de hardware não será sobre "mais terabytes por disco", mas sobre como conectar esses terabytes diretamente ao cérebro do sistema sem intermediários.

      Previsão

      O cheque da Nvidia não salvou apenas a Intel; ele salvou o roadmap de desempenho do armazenamento para a próxima década. Estamos caminhando para um futuro onde a linha entre "Memória RAM" e "Disco de Armazenamento" deixará de existir para o sistema operacional. Nos próximos 24 meses, espere ver as primeiras appliances de "Memory-Attached Storage" chegarem ao mercado mainstream, aposentando definitivamente a latência como a conhecemos.


      Perguntas Frequentes

      1. Isso significa que meus HDDs mecânicos morreram? Não. Para armazenamento frio (arquivamento, backups, mídia), o custo por TB do HDD ainda é imbatível. A revolução Nvidia/Intel afeta a camada de performance (Hot/Warm Data), onde os dados são processados ativamente.

      2. O que é CXL e por que devo me importar? CXL (Compute Express Link) é uma tecnologia que usa o slot PCIe para conectar memória e processadores. Diferente do PCIe comum, ele mantém a coerência de cache. Para storage, isso permite criar SSDs que o computador enxerga quase como se fossem pentes de memória RAM extra.

      3. Como isso afeta meu Home Lab ou servidor TrueNAS? A curto prazo, pouco. A tecnologia CXL e hardware Enterprise de ponta demoram cerca de 3 a 5 anos para "descer" ao mercado de usados ou prosumer. No entanto, espere que SSDs NVMe U.2 e E1.S fiquem mais comuns e baratos no mercado secundário à medida que as empresas migram para as novas arquiteturas.

      4. A Nvidia vai fabricar SSDs? Improvável. O interesse da Nvidia é no caminho dos dados, não na mídia em si. Eles querem garantir que a Intel produza CPUs e placas-mãe capazes de trafegar dados rápido o suficiente para suas GPUs. Quem fabrica o NAND (Samsung, Micron, Kioxia) continua igual.

      #Nvidia #Intel #Storage #CXL 3.0 #Servidores #Data Center #NVMe #Infraestrutura de TI
      Mariana Costa
      Assinatura Técnica

      Mariana Costa

      Repórter de Tecnologia (Newsroom)

      "Cubro o universo de TI corporativa com agilidade jornalística. Minha missão é traduzir o 'tech-speak' de datacenters e cloud em notícias diretas para sua tomada de decisão."