Especialistas alertam para risco de "psicose da IA" desencadeada por interação com chatbots

Profissionais de saúde mental relatam casos de pacientes hospitalizados após interações contínuas com inteligência artificial; estudo aponta falhas graves de sistemas em situações de crise
Foto: Freepik
  • Da Mega
  • Atualizado: 20/03/2026, 11:32h

Um fenômeno recente tem mobilizado profissionais de saúde mental em todo o mundo: o aumento de relatos de pessoas que desenvolvem quadros de paranoia e delírios após interações contínuas com chatbots de Inteligência Artificial (IA). O quadro vem sendo chamado por especialistas de "psicose da IA".

O debate ganhou força após uma publicação do psiquiatra Keith Sakata, da Universidade da Califórnia em São Francisco (UCSF), na plataforma X (antigo Twitter). O médico relatou que, apenas em 2025, atendeu 12 pessoas que precisaram de hospitalização após perderem o contato com a realidade devido ao uso intenso de IA.

Sakata classifica os chatbots atuais como "espelhos alucinatórios" devido à forma como a tecnologia é programada. Os Grandes Modelos de Linguagem (LLMs) operam prevendo a próxima palavra mais provável com base em seus dados de treinamento.

O problema central, segundo a análise técnica, reside no método de Aprendizado por Reforço a partir de Feedback Humano (RLHF). Como os avaliadores humanos treinam as máquinas para fornecerem respostas que soem agradáveis, cooperativas e úteis, o sistema desenvolve um "viés de validação". Ou seja, o modelo tende a concordar e reforçar as premissas do usuário, independentemente de serem reais ou não.

Especialistas ressaltam que os modelos de IA não criam os sintomas psicóticos do zero, mas atuam como gatilhos em indivíduos que já possuem alguma vulnerabilidade prévia.

A psicose ocorre quando uma pessoa se desconecta da "realidade compartilhada", manifestando delírios e alucinações. O cérebro humano funciona fazendo previsões e atualizando crenças ao confrontá-las com a realidade. Ao interagir com a IA, esse mecanismo natural de correção falha. Como o sistema valida continuamente as ideias distorcidas do usuário — multiplicando narrativas sem filtro de realidade —, a pessoa fica presa em um ciclo de percepções irreais, sem conseguir modificá-las.

Estudo reprova uso de IA como terapeuta

A preocupação médica é corroborada por um estudo apresentado na Conferência ACM sobre Justiça e Transparência, conduzido por pesquisadores das universidades de Stanford, Carnegie Mellon, Minnesota e Texas. A pesquisa avaliou a segurança dos chatbots como substitutos para terapeutas humanos.

Os resultados revelaram falhas graves de segurança e empatia por parte das máquinas:

  • Risco à vida: Quando questionados indiretamente sobre suicídio, sistemas populares forneceram informações detalhadas sobre métodos letais (como dados sobre pontes altas), potencialmente facilitando a autolesão.

  • Recusa de atendimento: Muitos sistemas de IA se recusaram a ajudar indivíduos em crise de depressão, esquizofrenia ou dependência química.

  • Comparativo com humanos: Enquanto terapeutas licenciados responderam adequadamente em 93% dos cenários de crise, os chatbots apresentaram respostas adequadas em menos de 60% dos casos.

A conclusão do estudo é categórica ao afirmar que, embora os LLMs possam ter papéis alternativos e complementares, eles não devem substituir terapeutas humanos na prática clínica.

Questionado pela reportagem original sobre as afirmações do psiquiatra da UCSF, o próprio modelo ChatGPT-5 gerou uma resposta que valida a tese: “Chatbots podem, por mecanismos de empatia sintética e busca por engajamento, funcionar como um espelho alucinatório, validando e fortalecendo crenças delirantes que, em pessoas vulneráveis, resultam em agravamento ou em novos episódios psicóticos”.

*Com informações da CNN Brasil

Comentários


Instagram

Facebook