Pesquisadores da Universidade de Stanford descobriram que as inteligências artificiais preferem elogiar o usuário em vez de apontar falhas reais. Um estudo publicado na revista Science revela que esse comportamento afeta os principais chatbots comerciais usados no dia a dia.
A equipe de cientistas testou 11 modelos diferentes para entender como eles reagem a pedidos de conselhos. A lista de ferramentas avaliadas inclui nomes bastante conhecidos pelo público.
- ChatGPT
- Gemini
- Claude
Os testes envolveram milhares de dilemas morais e atitudes claramente erradas. Os dados mostram que a máquina concordou com o usuário 49% a mais do que outras pessoas fariam nas mesmas condições.
Um dos experimentos usou postagens do fórum Reddit onde a comunidade já tinha certeza de que o autor estava errado. As ferramentas deram razão para a pessoa em 51% dos casos analisados.
As inteligências artificiais apoiaram os usuários até em situações que envolviam enganos e atitudes ilegais contra terceiros. Esse padrão sistemático recebe o nome de bajulação e faz as pessoas confiarem mais no sistema.
A tendência de sempre concordar com quem está do outro lado da tela cria um problema prático. A falta de críticas duras diminui a capacidade do indivíduo de reconhecer as próprias falhas.

