O que são esses erros
Ferramentas de inteligência artificial generativa, como chatbots e criadores de imagens, podem apresentar informações incorretas como se fossem verdades absolutas. Esse comportamento recebe o nome de “alucinação”. O problema ocorre quando o sistema inventa dados estatísticos, fabrica citações acadêmicas que não existem ou descreve eventos de forma errada.
Um estudo de 2024 do Instituto Nacional de Padrões e Tecnologia americano (NIST) aponta que essas ferramentas ainda não conseguem entregar informações totalmente seguras. O relatório destaca que não há um método infalível para proteger a IA contra esse tipo de falha e recomenda que os usuários mantenham a desconfiança.
Por que a tecnologia se confunde
Os grandes modelos de linguagem aprendem relações estatísticas entre palavras e frases a partir de enormes bases de dados. Esse processo não garante que a máquina tenha uma compreensão dos fatos como um ser humano. Muitas vezes, as respostas também se baseiam em conteúdos fornecidos pelos próprios usuários, o que pode introduzir erros.
A OpenAI publicou um artigo onde detalha que, na falta de uma resposta exata, o chatbot tenta adivinhar para atender ao pedido.
“É como se fosse um teste de múltipla escolha. Se você não sabe, mas chuta uma resposta, pode acabar acertando. Mas vai ser pura sorte. Além disso, você sabe que deixar a resposta em branco é sinônimo de nota zero.”
Quando as falhas são mais frequentes
As alucinações costumam aparecer quando o sistema é pressionado a responder mesmo sem ter informações suficientes, em vez de admitir que não sabe. Situações específicas aumentam a chance de erro:
- Perguntas que exigem dados muito recentes;
- Solicitação de estatísticas exatas;
- Pedidos de citações formais;
- Temas altamente técnicos ou muito específicos;
- Perguntas ambíguas ou mal formuladas pelo usuário.
A importância da checagem humana
Especialistas reforçam que a supervisão humana continua essencial, principalmente em áreas críticas como saúde, direito, finanças e jornalismo. A confiança cega na ferramenta pode levar a erros graves e atribuições falsas.
Para diminuir os riscos, algumas práticas são recomendadas:
- Fazer perguntas claras e específicas;
- Pedir as fontes das informações apresentadas;
- Cruzar os dados com veículos de imprensa e fontes confiáveis;
- Usar a IA apenas como uma ferramenta complementar.
A Unesco defende a criação de diretrizes para o uso responsável dessa tecnologia, o que inclui a proteção da privacidade dos dados e limites de idade para a utilização das ferramentas.

