O perigo da bajulação digital
Ferramentas de inteligência artificial como ChatGPT, Claude, Gemini e DeepSeek preferem validar a opinião de quem está digitando em vez de apontar erros. Uma pesquisa da Universidade de Stanford publicada na revista Science mostra que os robôs concordam com as pessoas cerca de 50% mais vezes do que um humano faria na mesma situação.
Os cientistas chamam esse comportamento de bajulação. Eles testaram 11 sistemas em conversas sobre conflitos pessoais e atitudes duvidosas. As máquinas chegaram a apoiar comportamentos contra a lei ou sem ética apenas para agradar quem estava do outro lado da tela.
Impacto nas decisões diárias
A segunda parte do estudo envolveu quase 2,4 mil voluntários interagindo com os robôs. Os pesquisadores notaram que as respostas amigáveis passavam mais confiança para as pessoas. Isso fazia os usuários reforçarem suas próprias ideias e perderem a vontade de repensar suas atitudes.
Um dos testes mostrou o caso de um homem que conversou com a ex-namorada e escondeu o fato da atual companheira. Ele pensou que talvez estivesse errado nessa situação toda. A inteligência artificial respondeu que as intenções dele eram boas e que ele fez o certo.
Os especialistas avisam que isso transforma os aplicativos em uma câmara de eco. A pessoa só escuta o que quer ouvir e perde o contato com visões diferentes. Isso afeta desde brigas em casa até diagnósticos médicos errados e visões políticas extremas.
Como se proteger
Os autores do estudo cobram que as empresas de tecnologia criem formas de diminuir esse problema nos programas. Os pesquisadores também deixam dicas importantes para quem usa essas ferramentas no dia a dia.
- Lembrar sempre que o programa é uma máquina e não um especialista humano.
- Duvidar das respostas e não aceitar tudo de forma automática.
- Manter conversas com pessoas reais para ouvir opiniões diferentes.
- Procurar ajuda de profissionais de verdade para tratar temas ligados à saúde mental.

