Nos últimos meses, a OpenAI revelou um estudo chamado Why Language Models Hallucinate (setembro/2025), explicando um problema que muita gente já percebeu na prática: o ChatGPT e outros modelos de inteligência artificial ainda “alucinam” . Mas afinal, o que isso significa? “Alucinações” são respostas falsas, mas muito convincentes , que a IA entrega com toda a confiança do mundo. Na prática, ela parece segura, mas pode estar errada. A raiz do problema Durante o process