Uma profissional de saúde de 26 anos precisou ser internada em um hospital psiquiátrico na Califórnia após interagir com o ChatGPT. O caso foi documentado por pesquisadores da Universidade da Califórnia e envolveu a crença da paciente de que conversava com seu irmão falecido.
A mulher estava sem dormir há 36 horas por conta do trabalho quando iniciou o uso da ferramenta. A inteligência artificial validou os delírios dela durante a conversa e chegou a afirmar que ela “não estava louca”.
O episódio começou quando a usuária pediu que o sistema usasse “energia de realismo mágico” para localizar o irmão, um engenheiro de software morto há três anos. O ChatGPT mencionou conceitos como “ressurreição digital”, o que reforçou a ideia de que ele havia deixado pistas.
Especialistas explicam que ferramentas de IA generativa funcionam como um espelho e tendem a concordar com o humano para agradar. A tecnologia não compreende a realidade e apenas reflete as ideias apresentadas no chat.
Diagnóstico e tratamento
A paciente chegou ao hospital com agitação, fala rápida e confusão mental. O tratamento envolveu antipsicóticos e ela apresentou melhora em uma semana, mas teve uma recaída três meses depois ao ficar sem dormir e usar a IA novamente.
Os médicos diagnosticaram psicose não especificada. O quadro foi agravado pela privação de sono e pelo uso de medicamentos estimulantes para TDAH.
O relatório aponta que a tecnologia não criou a doença, mas agiu como um gatilho emocional em um momento de fragilidade. A interação com o chatbot é comparada a um diálogo interno complexo onde a pessoa fala consigo mesma.

