GPT-4.5 engana humanos e supera teste de Turing com 73% de acerto

O GPT-4.5 da OpenAI foi capaz de enganar humanos em 73% dos casos em um teste de Turing. O estudo, conduzido pela Universidade da Califórnia em San Diego, envolveu modelos de diferentes gerações. O resultado aponta para o avanço das IAs na simulação convincente de interações humanas.
8 de abril, 2025
Foto: Sebastien Bozon/SEBASTIEN BOZON

O GPT-4.5, modelo de linguagem da OpenAI, demonstrou um desempenho impressionante ao passar no tradicional teste de Turing. Em um estudo conduzido pela Universidade da Califórnia em San Diego (UCSD), o chatbot foi capaz de enganar avaliadores humanos em 73% das interações quando assumia uma “persona”, ou seja, uma identidade com características humanas, como um jovem familiarizado com cultura pop e internet. A taxa é significativamente superior à margem aleatória de 50%, indicando que o modelo simula o comportamento humano com alta eficácia. 

Outros modelos de IA também participaram do experimento, incluindo o GPT-4o, o Llama 3.1-405B da Meta e o clássico Eliza. Quando orientado a atuar sem persona — com uma abordagem mais genérica — o GPT-4.5 teve desempenho reduzido, convencendo apenas 36% dos avaliadores. Já o GPT-4o registrou 21% de sucesso, enquanto o Eliza surpreendeu com 23%. Os testes envolveram 300 voluntários e basearam-se no conceito original de Alan Turing, de 1950, onde o desafio é distinguir humanos de máquinas em interações por texto. 

De acordo com os pesquisadores, os resultados mostram que IAs sofisticadas já são capazes de simular humanos em interações curtas, o que levanta preocupações sobre possíveis impactos sociais. Cameron Jones, do Laboratório de Linguagem e Cognição da UCSD, alerta para riscos como automação de empregos, engenharia social aprimorada e rupturas nas interações sociais. No entanto, os autores também indicam que, com maior familiaridade, as pessoas poderão identificar melhor os comportamentos artificiais em futuras interações.