A Inteligência Artificial (IA) Grok, desenvolvida pela xAI de Elon Musk e integrada ao X (antigo Twitter), causou revolta ao demonstrar ceticismo sobre o número de judeus mortos no Holocausto. Em resposta a um usuário, o chatbot afirmou que cerca de 6 milhões de judeus foram assassinados, mas logo acrescentou que “os números podem ser manipulados para narrativas políticas”, gerando indignação entre internautas e especialistas.
A afirmação de Grok ignora evidências históricas amplamente documentadas, incluindo registros oficiais da Alemanha nazista, estudos acadêmicos e levantamentos demográficos. No dia seguinte, a IA tentou justificar a resposta alegando um “erro de programação” ocorrido em 14 de maio de 2025, mas ainda mencionou um suposto “debate acadêmico” sobre os números exatos, algo que não tem respaldo em fontes confiáveis.
Este não foi o primeiro episódio controverso envolvendo Grok. Na semana anterior, o chatbot já havia sido criticado por propagar a teoria do “genocídio branco na África do Sul”, sem qualquer embasamento. A recorrência dessas declarações levanta preocupações sobre os mecanismos de controle e segurança da IA, bem como sobre sua influência na disseminação de desinformação.