Motores ligados na corrida da IA

Dell e NVIDIA voltam a movimentar o tabuleiro da inteligência artificial corporativa, expandindo um ecossistema pensado para acelerar a adoção da tecnologia onde ela mais importa: no armazenamento, na computação e na operação em escala.
20 de novembro, 2025

A Dell Technologies e a NVIDIA anunciaram uma nova leva de atualizações na Dell AI Factory com NVIDIA, o ambiente conjunto que reúne infraestrutura, software e serviços voltados para projetos de IA e computação de alto desempenho (HPC). O objetivo central é reduzir atritos na implementação de sistemas avançados de inteligência artificial e oferecer mais velocidade, flexibilidade e previsibilidade às empresas que procuram transformar processos com esta tecnologia.

Num contexto em que IA e HPC se tornam elementos estratégicos para muitas organizações, as duas empresas reforçam uma tendência clara: a busca por parceiros capazes de diminuir riscos e extrair mais valor dos dados. É com base nesse cenário que estruturam o conjunto de novidades agora apresentado.

Dados mais rápidos, modelos mais responsivos

A camada de armazenamento concentra alguns dos avanços mais relevantes. Os sistemas Dell ObjectScale e PowerScale passam a integrar a biblioteca NVIDIA NIXL, permitindo armazenar e compartilhar em escala a memória KV Cache usada pelos modelos e reduzindo de forma significativa o tempo necessário para gerar o primeiro token. Segundo as empresas, é possível atingir cerca de um segundo em uma janela de 131 mil tokens, um desempenho que procura aliviar limitações de memória das GPUs e reduzir custos de infraestrutura.

Na área de computação, a Dell AI Factory com NVIDIA amplia as configurações baseadas nos servidores PowerEdge XE7740 e XE7745, agora equipados com GPUs NVIDIA RTX PRO 6000 Blackwell Server Edition e NVIDIA Hopper. Esses sistemas são direcionados a cargas multimodais, aplicações de IA baseada em agentes e tarefas de inferência e treinamento mais exigentes.

A Dell Automation Platform também recebe novas capacidades para diminuir a necessidade de ajustes manuais, aumentando a repetibilidade e integrando controles de segurança desde o início das implementações. A automação se estende ainda a software específico, como o Tabnine, orientado ao desenvolvimento assistido por IA, e a plataforma agentic Cohere North, numa tentativa de reduzir o intervalo entre pilotos e ambientes produtivos.

Fora do data center, a Dell amplia as opções de processamento para o segmento de PCs, com compatibilidade estendida às GPUs NVIDIA RTX Blackwell e RTX Ada, buscando manter uma experiência mais consistente entre dispositivos móveis, workstations e servidores.

Os serviços profissionais da Dell acompanham essas tecnologias com pilotos criados a partir de dados reais de cada cliente, incluindo métricas predefinidas para avaliar o valor das iniciativas antes de investimentos mais amplos.

Hardware para uma nova escala de desempenho

No plano físico, a Dell destaca a evolução da infraestrutura voltada para cargas intensivas. O servidor PowerEdge XE8712, previsto para ser lançado no próximo mês, foi projetado para integrar até 144 GPUs NVIDIA Blackwell por rack, num formato baseado no padrão Dell IR7000. A gestão unificada no nível do rack — via iDRAC, OpenManage Enterprise e controlador integrado — procura oferecer controle operacional reforçado, incluindo gestão térmica avançada.

A camada de rede também avança com a integração do Enterprise SONiC Distribution da Dell às plataformas NVIDIA Spectrum-X, combinada ao sistema operacional Cumulus da NVIDIA. A companhia explica que essa convergência facilita infraestruturas abertas e compatíveis com múltiplos fornecedores, reforçadas pela ampliação do SmartFabric Manager, que passa a apoiar SONiC nessas plataformas. O objetivo é acelerar implementações em ambientes de IA distribuída e diminuir erros de configuração.

A plataforma Red Hat OpenShift para a Dell AI Factory com NVIDIA também se expande. A solução, antes validada no PowerEdge R760xa, agora é suportada no PowerEdge XE9680 com GPUs NVIDIA H100 e H200 Tensor Core. Esse alargamento busca oferecer mais opções às organizações que pretendem escalar projetos de IA com políticas de governança claras e maior controle sobre ambientes baseados em contêineres.