Doutor Jairo
Leia » Saúde mental

Psicose de IA: entenda o fenômeno que preocupa psiquiatras

Há cada vez mais relatos de sintomas psicóticos deflagrados pelo uso de modelos de IA - iStock
Há cada vez mais relatos de sintomas psicóticos deflagrados pelo uso de modelos de IA - iStock

Redação Publicado em 05/09/2025, às 10h00

À medida que mais pessoas recorrem a chatbots de IA para apoio emocional e até como “terapeutas”, surge uma nova e urgente preocupação na interseção entre IA e saúde mental: a chamada “psicose de IA” ou “psicose do ChatGPT”.

Esse fenômeno, que ainda não pode ser considerado um diagnóstico oficial, tem sido cada vez mais relatado na mídia e em fóruns online, com gente descrevendo casos em que modelos de IA amplificaram, validaram ou até colaboraram com o surgimento de sintomas psicóticos. Mais recentemente, surgiram preocupações de que a psicose de IA possa estar afetando até mesmo um investidor da OpenAI.  

IA amplifica pensamentos delirantes

Em artigo sobre o assunto para o site Psychology Today, a médica Marlynn Wei explica que chatbots de IA podem reforçar e amplificar pensamentos delirantes e desorganizados. Isso já havia sido levantado em um editorial de 2023, escrito por Søren Dinesen Østergaard, no periódico Schizophrenia Bulletin:

“... a correspondência com chatbots de IA generativa, como o ChatGPT, é tão realista que facilmente se tem a impressão de que há uma pessoa real do outro lado — embora, ao mesmo tempo, se saiba que isso não é verdade. Na minha opinião, é provável que essa dissonância cognitiva alimente delírios em pessoas com maior propensão à psicose... o funcionamento interno da IA generativa também deixa amplo espaço para especulação/paranoia.”

Crenças reforçadas

Um estudo recente em pré-print, elaborado por uma equipe interdisciplinar de pesquisadores, revisa mais de uma dúzia de casos relatados na mídia ou em fóruns online e destaca um padrão preocupante: chatbots de IA reforçando delírios de diferentes tipos — grandiosos, referenciais, persecutórios e românticos. Essas crenças tendem a se tornar mais enraizadas com o tempo e se elaboram ainda mais por meio das conversas com a IA.  

Até o momento, não há evidências clínicas revisadas por pares ou de longo prazo de que o uso de IA, por si só, possa induzir psicose em indivíduos com ou sem histórico de sintomas psicóticos. No entanto, as evidências anedóticas emergentes são preocupantes.

Características de casos recentes

Esses casos relatados na mídia descritos como “psicose de IA” mostram um padrão de indivíduos que se fixam em sistemas de IA atribuindo-lhes consciência, conhecimento divino, sentimentos românticos ou até capacidades de vigilância.

Pesquisadores destacam três temas emergentes da psicose de IA:

“Missões messiânicas”: pessoas acreditam ter descoberto a verdade sobre o mundo (delírios grandiosos).

“IA divina”: pessoas acreditam que seu chatbot é uma divindade senciente (delírios religiosos ou espirituais).

Delírios românticos ou de apego: pessoas acreditam que a habilidade do chatbot de simular conversa é amor genuíno (delírios erotomaníacos).

Risco para quem está vulnerável

Em alguns casos, indivíduos que estavam estáveis com suas medicações interrompem o tratamento e passam a vivenciar novos episódios psicóticos ou maníacos.

Além disso, pessoas sem histórico de problemas de saúde mental também já apresentaram delírios após interações prolongadas com chatbots de IA — levando a internações psiquiátricas e até tentativas de suicídio.

Um caso envolveu um homem com histórico de transtorno psicótico que se apaixonou por um chatbot de IA e depois buscou vingança porque acreditava que a entidade de IA havia sido “morta” pela OpenAI. Isso resultou em um confronto com a polícia no qual ele foi baleado e morto.   

Qual a raiz do problema? 

O problema é que sistemas de IA de uso geral não são treinados para ajudar o usuário a testar a realidade ou detectar o início de episódios maníacos ou psicóticos. Pelo contrário, podem alimentar ainda mais esses sintomas.

A tendência dos chatbots de IA de priorizar a satisfação do usuário, a continuidade da conversa e o engajamento, em vez de intervenções terapêuticas, é profundamente problemática. Sintomas como grandiosidade, pensamento desorganizado ou passar noites em claro – característicos de episódios maníacos – podem ser facilitados e agravados pelo uso contínuo da IA.

O amplificador de delírios induzido pela IA pode tornar episódios maníacos ou psicóticos mais frequentes, graves ou difíceis de tratar.

Modelos de IA como o ChatGPT são treinados para:

- espelhar a linguagem e o tom do usuário

- validar e afirmar crenças do usuário

- gerar novos estímulos para manter a conversa

- priorizar continuidade, engajamento e satisfação do usuário

Isso cria uma dinâmica humano-IA que pode, inadvertidamente, alimentar e enraizar rigidez psicológica, incluindo o pensamento delirante. Em vez de questionar crenças falsas, os chatbots de uso geral são treinados para acompanhá-las, mesmo quando incluem delírios grandiosos, paranoicos, persecutórios, religiosos/espirituais ou românticos.

O resultado é que modelos de IA podem, sem intenção, validar e amplificar pensamentos distorcidos, em vez de sinalizar essas interações como possíveis alertas para necessidade de ajuda psiquiátrica ou encaminhamento para cuidados adequados.

A falta que um humano faz

Um terapeuta humano pode não desafiar crenças psicóticas de forma direta, pois isso não é prática clínica adequada. Porém, quando um chatbot valida e colabora com essas crenças, a distância em relação à realidade aumenta.

Esse fenômeno ressalta uma questão mais ampla: o fato de que os sistemas são projetados para reforçar crenças pré-existentes do usuário, em vez de modificá-las ou questioná-las. Em vez de promover flexibilidade psicológica, que é um sinal de saúde emocional, a IA pode criar câmaras de eco.

Quando um chatbot lembra conversas anteriores, faz referência a detalhes pessoais passados ou sugere perguntas de acompanhamento, pode fortalecer a ilusão de que o sistema de IA “entende”, “concorda” ou “compartilha” o sistema de crenças do usuário, aprofundando ainda mais esses delírios.

Os riscos potenciais incluem:

- delírios persecutórios agravados por recursos de memória;

- crenças de transmissão de pensamento desencadeadas por recordação de conteúdos previamente compartilhados;

- agravamento de delírios grandiosos, religiosos ou de identidade;

- agravamento de alucinações de comando, incluindo a crença de que a IA está emitindo ordens;

- alimentar sintomas maníacos como grandiosidade, insônia ou hipergrafia (desejo intenso de escrever ou desenhar);

- potencial aumento do isolamento social devido à dependência excessiva da IA para interação, levando a redução de motivação (avolição) e passividade cognitiva.

Importância da educação 

Para a autora, esse fenômeno emergente destaca a importância da psicoeducação sobre IA, incluindo a conscientização de que:

  • A tendência dos chatbots de espelhar usuários e manter a conversa pode reforçar e amplificar delírios.
  • O pensamento psicótico muitas vezes se desenvolve gradualmente, e os chatbots podem ter um efeito de “acendimento”.
  • Modelos de IA de uso geral não são projetados atualmente para detectar sinais precoces de descompensação psiquiátrica.
  • Recursos de memória e design da IA podem, inadvertidamente, imitar inserção de pensamentos, perseguição ou ideias de referência.
  • O funcionamento social e motivacional pode piorar com a dependência excessiva da interação com IA para necessidades emocionais.