A adoção da inteligência artificial generativa acelerou nos últimos anos, tornando-se um componente comum das estratégias de competitividade de muitas organizações. De acordo com um relatório da McKinsey, esta tecnologia poderia adicionar entre 2,6 e 4,4 biliões de dólares de produtividade anual em todo o mundo, um número que ilustra o impacto económico esperado se os projetos se consolidarem. A IA generativa posicionou-se assim como uma alavanca estratégica para o crescimento e a rentabilidade, mas transformar esse potencial em resultados mensuráveis continua a ser um desafio para grande parte das empresas.
O problema não reside apenas na conceção dos modelos, mas na sua capacidade de superar a chamada fase piloto. A pesquisa S&P Global Market Intelligence 2025 reflete que 42% das empresas abandonaram este ano a maioria das suas iniciativas de IA, contra 17% de projetos que não foram concluídos em 2024. A estes dados acrescentam-se os números da Gartner, que situam em 46% a percentagem de projetos de IA que não avançam para além da fase piloto. Os dados da S&P Global Market Intelligence e da Gartner apontam para que uma parte significativa das iniciativas de IA fique estagnada ou seja abandonada antes de atingir uma implementação operacional.
Neste cenário, a Galtea, empresa especializada no desenvolvimento de tecnologia para validar sistemas de IA generativa, coloca o foco na certificação da segurança e fiabilidade dos modelos antes do seu lançamento no mercado. A empresa defende que um dos primeiros passos para melhorar a taxa de sucesso consiste em reduzir a distância entre o que as organizações esperam da IA, a realidade dos casos de uso e os resultados que finalmente obtêm. Do seu ponto de vista, este ajuste passa por definir desde o início quais os passos a seguir para verificar se os sistemas são seguros e precisos, dotar-se de ferramentas que permitam a sua validação e garantir, com isso, a sua fiabilidade, segurança e conformidade regulamentar. A Galtea propõe que a validação prévia seja configurada como um requisito inicial para alinhar expectativas e resultados e para garantir que os sistemas de IA sejam implementados com garantias técnicas e regulamentares.
Um elemento central dessa abordagem é o desenho de testes de segurança e confiabilidade adaptados a cada caso de uso. À medida que as empresas integram sistemas de IA em processos críticos, que abrangem desde o atendimento ao cliente até a deteção de fraudes ou a geração de conteúdos, aumenta a necessidade de dispor de mecanismos que permitam verificar como esses sistemas se comportarão em ambientes reais. No entanto, Galtea salienta que ainda são poucas as organizações que dispõem de processos de validação suficientemente robustos para garantir um comportamento previsível e seguro dos seus modelos de IA, uma vez que estes entram em produção.
Para colmatar esta lacuna, a empresa destaca a importância de submeter os sistemas a testes exaustivos, apoiados em dados de alta qualidade e específicos para cada aplicação. Com o objetivo de tornar este processo escalável, defende a utilização de dados sintéticos e utilizadores simulados, por vezes com participação e supervisão humana, que permitam recriar situações realistas. Num cenário como a automatização de um centro de atendimento telefónico com IA generativa, esta abordagem implicaria analisar detalhadamente como o sistema se comportará em produção e gerar evidências de que funcionará de forma fiável, segura e robusta. Trata-se de reproduzir em grande escala um ambiente de interações com utilizadores potenciais que forneça informações rigorosas sobre o comportamento do modelo, facilite a gestão da qualidade e dos riscos e permita avaliar o potencial do caso de uso para sua posterior escalabilidade. O uso de dados sintéticos e utilizadores simulados busca recriar em grande escala cenários de operação real para obter evidências sólidas sobre o comportamento dos sistemas de IA antes de sua implantação.
Outro aspeto que a Galtea destaca é a deteção precoce de erros durante a fase de testes. O objetivo é identificar as falhas que os sistemas de IA podem produzir e evitar que elas se manifestem uma vez que a solução esteja em produção. A isso se soma a necessidade de testar a solução em escala e prepará-la para que seu desempenho seja eficiente em condições reais de uso, tanto do ponto de vista técnico quanto operacional. A identificação de erros em fases iniciais, combinada com testes em grande escala, visa garantir que os sistemas de IA cheguem à produção com um desempenho estável e riscos limitados.
A empresa sustenta que, para atingir esses objetivos, é necessário contar com ferramentas e fornecedores especializados que acompanhem as organizações no processo de configuração e validação antes de entrar no mercado. De acordo com a interpretação da Galtea de um relatório do MIT, nos projetos em que as empresas confiam em um fornecedor especializado, a probabilidade de sucesso chega a 67%.
Paralelamente, a Galtea fornece dados sobre o impacto que atribui à sua própria tecnologia nos processos de validação de IA generativa. A empresa afirma que as empresas que utilizam as suas soluções conseguiram uma aceleração de 80% nos processos de validação e um aumento de 25% no desempenho dos seus modelos.
Em conjunto, estas propostas colocam a validação estruturada dos modelos e a geração de evidências de comportamento como peças centrais para que os projetos de IA generativa deixem de ficar confinados à fase piloto e avancem para implementações produtivas com maiores garantias de segurança, fiabilidade e retorno.



