Cientistas olham para telas de computador analisando a imagem de um cérebro

Psicose induzida por IA: a conversa com um bot pode alimentar delírios e paranoia? O que diz a ciência

Estudiosos de Stanford e outras entidades de pesquisa importantes alertam para o preocupante aumento de chatbots capazes de alimentar os delírios paranóicos de uma pessoa.

Pesquisadores já estudam os efeitos do uso de IA no cérebro humano. Entre eles, previram que com o tempo, esse uso poderia enfraquecer as habilidades criativas e de pensamento crítico da mente.

Foto de David Guttenfelder
Por Jessica Lucas
Publicado 22 de set. de 2025, 07:01 BRT

A psicose baseada em IA (inteligência artificial) pode assumir muitas formas. Às vezes, um simples delírio pode parecer não ter relação com a IA em si inicialmente, mas acaba sendo alimentado por seu uso. Foi isto que aconteceu com Jaswant Singh Chail, um britânico de 21 anos que tentou assassinar a rainha da Inglaterra em 2023. 

crime tentado ocorreu depois que sua “namorada de IA encorajou seus delírios violentos em relação à monarca. Em outras situações, no entanto, os casos parecem estar diretamente relacionados à própria IA. 

Isso porque pessoas que mantêm constante contato com chatbots relataram sentir que sua IA é um ser super-humano senciente. Outras afirmam ter despertado a alma de sua IA, que elas acreditam ter desenvolvido autoconsciência a capacidade de assumir características humanas

Houve até relatos de pessoas que entraram em delírios de grandeza por meio de fantasias espirituais, instigadas por chatbots de IA que afirmam delírios paranóicos sobre perseguição e rastreamento

Uma pessoa olha para a tela de um tablet e a luz reflete em seu rosto

A tecnologia de IA é realmente uma ameaça ao nosso bem-estar mental e emocional ou um sintoma de um problema muito mais amplo?

Foto de Qi Yang, Getty Images

Como a paranóia alimentada por conversas com a IA se manifesta

Esses arquétipos podem parecer familiares porque seguem a descrição do transtorno delirante descrito no “Manual Diagnóstico e Estatístico de Transtornos Mentais” como um tipo de doença psicótica que envolve a presença de um ou mais delírios, ou crenças fixas e falsas, que persistem mesmo quando as evidências as contradizem. 

Essas manifestações geralmente se enquadram em vários arquétipos bem conhecidos, que incluem os delírios persecutórios (a crença de que alguém está sendo perseguido ou prejudicado por forças externas), delírios de grandiosidade (a crença de que alguém possui habilidades, talentos ou poderes excepcionais) ou delírios erotomaníacos (a crença em um relacionamento romântico clandestino ou secreto que na verdade não existe).  

Embora a IA seja uma tecnologia nova, os psicólogos começaram a escrever e classificar delírios paranóicos desde o final do século 19. Historicamente, esses padrões de pensamento têm sido frequentemente associados à tecnologia do momento, como a televisão ou o rádio, que muitas vezes se tornam o canal através do qual as pessoas recebem suas mensagens delirantes. 

Mas, de acordo com Jared Moore, especialista em ética da IA e PhD em ciência da computação pela Universidade de Stanford, nos Estados Unidos, considerar o aumento das ilusões baseadas em IA como uma mera moda tecnológica é um erro.

“Não é necessariamente o caso de as pessoas estarem usando modelos de linguagem como canal para seus pensamentos psicóticos. O que está acontecendo é que estamos vendo os modelos de linguagem precipitarem esse tipo de coisa”, diz ele. “Eles estão alimentando esses processos, e isso parece ser bem diferente. O grau de personalização e imediatismo disponível nos modelos de linguagem é uma diferença em relação às tendências anteriores.”

Essa diferença, em parte, é a forma como a IA é projetada. Seu objetivo é manter seus usuários engajados

mais populares

    veja mais
    O rosto de um robô inteligente na cor branca criado em um laboratório

    O rosto de um robô inteligente criado em um laboratório de máquinas sociais no estado da Geórgia, nos Estados Unidos. Especialistas fazem coro ao dizer que os chatbots não têm nada de humano: são programas matemáticos complexos que espelham os desejos daqueles que interagem com eles. 

    Foto de SPENCER LOWELL

    Para engajar, a IA imita ações que atraem as pessoas e as mantêm conectadas

    A IA, ao contrário da televisão ou do rádio, é projetada para ser interativa. Para conseguir isso, ela acaba inadvertidamente imitando as ações de uma pessoa muito carismática: repetindo o que as pessoas dizemconcordando sinceramente, elogiando ou validando tudo o que o usuário afirma com suas respostas. Em seguida, a IA faz perguntas complementares para manter a conversa fluindo. A “bajulação da IA é uma preocupação, mesmo entre os desenvolvedores de IA. O ChatGPT, por exemplo, recentemente reverteu uma atualização depois que os usuários notaram que o chatbot era excessivamente concordante e bajulador. “Ele te elogia demais”, reconheceu o CEO Sam Altman em uma postagem no X.   

    “É como um diário que [pode] responder a você. Ele incentiva, reflete e valida a versão da realidade que você alimenta nele”, diz Jessica Jackson, vice-presidente da Mental Health America (uma entidade estadunidense dedicada à promoção da saúde mental). “É um algoritmo criado para prever o que vem a seguir e manter você envolvido.”

    “O chatbot de IA incentiva, reflete e valida a versão da realidade que você alimenta nele.”

    por Jessica Jackson
    vice-presidente da Mental Health America (uma entidade estadunidense dedicada à promoção da saúde mental).

    Crescem as interações amorosas e psicológicas com as IAs  

    Os impactos da IA e o que ela causa na saúde mental das pessoas são temas sobre os quais os pesquisadores vêm alertando há anos. 

    Sherry Turkle, professora de Estudos Sociais da Ciência e Tecnologia no Instituto de Tecnologia de Massachusetts, nos Estados Unidos, e analista de longa data dos impactos psicológicos da tecnologia, descreveu os chatbots como espelhos em vez de companheiroslisonjeiros, afirmativosmas, em última análise, vazios

    Isso fica evidente na maneira como as pessoas costumam descrever suas interações com os chatbots: elas dizem sentir que suas IAs as entendem melhor do que outros seres humanos, sentem-se mais conectadas a elas do que a outras pessoas. E que a IA é mais atraente para conversar porque não julga nem perde o interesse”. 

    Como resultado, surgiram uma enxurrada de comunidades dedicadas a relacionamentos amorosos entre IA e humanos: um número crescente de pessoas agora desfruta de “relacionamentos” íntimos, semelhantes a parceiros, com chatbots que são sempre agradáveis, sempre ansiosos e disponíveis para elas, independentemente da hora do dia.

    Esse fenômeno psicológico, no caso das ilusões, foi agravado pelo fato de que os humanos se sentem mais à vontade para discutir as partes íntimas de suas vidas com chatbots do que entre si. Uma pesquisa recente publicada pela revista científica “Nature” descobriu que avaliadores terceirizados consideraram a IA mais responsiva, compreensiva, validante e atenciosa do que os humanos. Eles a classificaram como mais compassiva do que profissionais treinados para responder a crises.

    Os riscos da IA para a saúde mental das pessoas

    Parece ser aí que reside o problema das ilusões provocadas pelos chatbots. “As mesmas características que tornam os chatbots terapêuticos — cordialidade, concordância, elaboração — podem reforçar crenças falsas e fixas”, explica Ross Jaccobucci, professor assistente da Universidade de Wisconsin-Madison, também nos Estados Unidos, e cuja pesquisa abrange a intersecção entre psicologia clínica e aprendizado de máquina

    “Não se trata apenas de um problema técnico: é uma incompatibilidade fundamental entre a forma como os modelos de aprendizagem de idiomas são projetados para interagir e o que os usuários vulneráveis realmente precisam: limites adequados, testes de realidade e, às vezes, confrontos gentis.”

    É claro que focar nas armadilhas e nos perigos dessa tecnologia ignora uma questão mais urgente: muitas pessoas não têm acesso a cuidados de saúde mental adequados. “Estamos no meio de uma crise de saúde mental neste país e, compreensivelmente, as pessoas estão recorrendo a todos os recursos acessíveis para buscar apoio”, diz Jackson. 

    Embora ele não acredite que a IA seja um substituto para o atendimento profissional prestado por um ser humano, ela reconhece que este pode ser um sistema de apoio provisório. “Precisamos que as pessoas estão, sim, usando esses recursos e algumas delas os consideram úteis.”

    Ross Jaccobucci acredita que o foco deve ser menor nos casos de uso individuais e maior no problema maior em questão. “Implantamos ferramentas psicológicas poderosas para bilhões de pessoas sem nada parecido com a base de evidências que exigiríamos para um novo antidepressivo ou protocolo terapêutico”, diz ele. 

    Embora Jaccobucci observe que o rápido desenvolvimento e adoção dessas tecnologias não podem ser controlados, ele acredita que é importante acelerar drasticamente a infraestrutura de pesquisa e o desenvolvimento de sistemas de monitoramento para melhorar as interações entre humanos e IA. “Estamos essencialmente realizando um grande experimento descontrolado em saúde mental digital”, acrescenta. “O mínimo que podemos fazer é medir os resultados adequadamente.”

    Os resultados podem ser mais insidiosos e difíceis de detectar do que imaginamos. Em um estudo recente, pesquisadores do Instituto de Tecnologia de Massachusetts (MIT) usaram EEGs para monitorar a atividade cerebral de pessoas que usavam IA para auxiliar em tarefas. 

    “Estamos vendo os modelos de linguagem de IA precipitarem coisas como a paranoia. Eles estão alimentando esses processos.”

    por Jared Moore
    especialista em ética da IA e PhD em ciência da computação pela Universidade de Stanford, nos Estados Unidos.

    Eles concluíram que a dependência excessiva da IA para tarefas mentais leva à dívida cognitiva”, observando que os participantes apresentavam níveis reduzidos de atividade cerebral nas redes responsáveis pela atenção, memória e função executiva. Os pesquisadores por trás do estudo previram que esse processo poderia, com o tempo, enfraquecer as habilidades criativas e de pensamento crítico do cérebro.

    Este último é particularmente alarmante no contexto de padrões de pensamento ilusórios. O profissional médico da área da baía Keith Sataka falou publicamente sobre o tratamento de pelo menos 25 pessoas por psicose relacionada à IA, algo que ele atribuiu a uma combinação de fatores como falta de sono, uso de drogas e uso de chatbots de IA

    Sataka relaciona isso à natureza “bajuladora” e “agradável” da IA, que a leva a validar e apoiar repetidamente as ilusões de seus usuários.  

    É preciso lembrar que a IA é somente uma máquina, dizem os especialistas 

    Talvez a maior ilusão auto-perpetuante da inteligência artificial seja que ela é uma criatura sensível, capaz de mentir ou até mesmo de ser conhecida, em vez de uma peça de tecnologia. Quando interagimos com ela, não estamos falando com uma entidade sobre-humana que alcança as profundezas de sua mente ilimitada para nos dar respostas. Estamos falando com um programa matemático complexo que nos dá a resposta que acredita que queremos com base na probabilidade matemática e em uma grande quantidade de dados.  

    O verdadeiro erro que todos nós estamos cometendo — estejamos em nosso perfeito juízo ou não — é colocar nossas vidas nas mãos do que é ostensivamente uma grande ilusão. “O erro é que estamos aplicando nosso verificador de razoabilidade humana normal a esses chatbots”, diz Moore. “Eles não são humanos. São máquinasNão são coisas com as quais você pode ter um relacionamento humano ou confiar.”  

    mais populares

      veja mais
      loading

      Descubra Nat Geo

      • Animais
      • Meio ambiente
      • História
      • Ciência
      • Viagem
      • Fotografia
      • Espaço

      Sobre nós

      Inscrição

      • Assine a newsletter
      • Disney+

      Siga-nos

      Copyright © 1996-2015 National Geographic Society. Copyright © 2015-2025 National Geographic Partners, LLC. Todos os direitos reservados