A Nvidia alcançou o status de empresa mais valiosa do mundo com base na “lei de escalabilidade” da inteligência artificial. Este conceito sugere que adicionar mais dados a modelos maiores resulta em sistemas mais inteligentes. No entanto, sinais recentes indicam que essa “lei” pode estar enfrentando limitações. Empresas como OpenAI, Google e Anthropic têm encontrado dificuldades em alcançar as melhorias esperadas, desafiando a premissa de que maior escala sempre significa mais eficiência.
Executivos do setor, incluindo líderes como Satya Nadella, da Microsoft, já tentam redefinir o papel da escalabilidade. Com a introdução de modelos como o o1 da OpenAI, a atenção agora se volta para o “raciocínio” durante a aplicação prática dos sistemas de IA. Essa mudança aponta para uma nova fase, onde a escalabilidade em tempo de uso pode se tornar tão importante quanto o treinamento inicial, ampliando ainda mais a necessidade de recursos computacionais.
Para a Nvidia, essa transição traz desafios e oportunidades. Embora o pré-treinamento possa estar perdendo força, a demanda por “inferência”, ou seja, a capacidade de gerar respostas “inteligêntes” em tempo real, cresce exponencialmente. Essa mudança pode solidificar o papel da fabricante de chips, desde que a indústria consiga transformar os maciços investimentos em IA em aplicações práticas e lucrativas.