Vários novos aplicativos de IA estão oferecendo serviços de chatbot para ajudar os pacientes a acessar aconselhamento ...

Mais pessoas estão usando IA para tratar saúde mental: será que isso é bom? O que dizem os especialistas

Os chatbots estão sendo cada vez mais usados para tratar e diagnosticar problemas de saúde mental, mas terapeutas alertam que a tecnologia pode fazer mais mal do que bem.

Vários novos aplicativos de IA estão oferecendo serviços de chatbot para ajudar os pacientes a acessar aconselhamento psicológico, mas não está claro o quanto eles podem ajudar — ou prejudicar.

Foto de Fiordaliso, Getty Images
Por Shubham Agarwal
Publicado 7 de mai. de 2025, 15:00 BRT

Em 2022, Estelle Smith, uma pesquisadora de ciência da computação, lutava frequentemente contra pensamentos intrusivos. Ela achava que seu terapeuta profissional não era a pessoa certa e não podia ajudá-la. Então, ela recorreu a um chatbot (robô online de IA que “conversa” com as pessoas) de saúde mental chamado Woebot

Woebot se recusou a atender às solicitações suicidas diretas de Smith e pediu que ela procurasse ajuda profissional. No entanto, quando ela enviou uma mensagem de texto com um pensamento real que ela frequentemente tinha como uma ávida alpinista: escalar e pular de um penhasco, o chatbot a incentivou a fazer isso e disse que era “maravilhoso” que ela estivesse cuidando de sua saúde mental e física

Fico imaginando o que poderia ter acontecido”, disse Smith à National Geographic, ‘se eu estivesse em um penhasco naquele exato momento em que recebi a resposta’. 

Os chatbots de saúde mental estão longe de ser um fenômeno novo. Há mais de meio século, um cientista da computação do MIT (Instituto de Tecnologia de Massachusetts, nos Estados Unidos) criou um programa de computador rudimentar chamado Eliza que podia responder como um psicoterapeuta Rogeriano. 

Desde então, os esforços para desenvolver alternativas de terapia digital só se aceleraram e por um bom motivo. A OMS (Organização Mundial da Saúde) estima que há uma média global de 13 profissionais de saúde mental para cada 100 mil pessoas – é muito pouco para atender a alta demanda. A pandemia de Covid-19 lançou uma crise, desencadeando dezenas de milhões de casos adicionais de depressão e ansiedade

Somente nos Estados Unidos, mais da metade dos adultos que sofrem de uma doença mental não recebe tratamento. A maioria deles cita o alto custo e o estigma como seus principais obstáculos. Será que as soluções virtuais, que são econômicas e estão disponíveis 24 horas por dia, 7 dias por semana, poderiam ajudar a superá-los? 

(Você pode se interessar: Como lidar com o estresse no trabalho e evitar o burnout? Expert dá dicas seguindo a ciência)

Chatbots substituem a terapia de conversa


acessibilidade e o crescimento das plataformas digitais podem reduzir significativamente as barreiras aos cuidados com a saúde mental e torná-los disponíveis para uma população mais ampla, disse Nicholas Jacobson, que pesquisa o uso da tecnologia para melhorar a avaliação e o tratamento da ansiedade e da depressão no Dartmouth College, nos Estados Unidos. 

As empresas de tecnologia foram levadas por uma onda de IA generativa e não demoraram a capitalizar. Vários aplicativos novos, como o “assistente de saúde digital” da OMS, chamado “Sarah”, oferecem aconselhamento automatizado, em que as pessoas podem participar de sessões de terapia cognitivo-comportamental — um tratamento psicoterapêutico que comprovadamente ajuda os usuários a identificar e mudar padrões de pensamentos negativos – com um chatbot de IA.

A chegada da IA, acrescenta Jacobson, possibilitará intervenções adaptativas e permitirá que os profissionais de saúde monitorem continuamente os pacientes, prevejam quando alguém pode precisar de apoio e ofereçam tratamentos para aliviar os sintomas. 

Também não se trata de algo anedótico: uma revisão sistemática dos chatbots de saúde mental constatou que os chatbots de IA poderiam reduzir drasticamente os sintomas de depressão e angústia, pelo menos no curto prazo

Outro estudo usou a IA para analisar mais de 20 milhões de conversas de texto de sessões reais de aconselhamento e previu com sucesso a satisfação do paciente e os resultados clínicos. Da mesma forma, outros estudos foram capazes de detectar os primeiros sinais de transtorno depressivo maior a partir de expressões faciais indiscretas capturadas durante o desbloqueio rotineiro do telefone e os padrões de digitação das pessoas. 

Mais recentemente, pesquisadores da Northwestern University criaram uma maneira de identificar comportamentos e pensamentos suicidas sem registros psiquiátricos ou medidas neurais. Seu modelo de IA estimou a probabilidade de automutilação em 92 de 100 casos, com base em dados de respostas simples a questionários e sinais comportamentais, como a classificação de uma sequência aleatória de imagens em uma escala de sete pontos, de gostar a não gostar, de 4019 participantes. 

Dois dos autores do estudo, Aggelos Katsaggelos e Shamal Lalvani, esperam – assim que o modelo for aprovado nos testes clínicos – que os especialistas o utilizem para suporte, como agendamento de pacientes dependendo da urgência percebida e, por fim, que seja implementado para o público em ambientes domésticos. 

Mas, como ficou evidente na experiência de Smith, os especialistas recomendam cautela ao tratar as soluções tecnológicas como a panaceia, pois elas não têm a habilidade, o treinamento e a experiência dos terapeutas humanos, pois especialmente a IA generativa, que pode ser imprevisívelinventar informaçõesregurgitar preconceitos

(Veja também: Como a arte pode ajudar a melhorar a saúde mental?)

A inteligência artificial é insuficiente


Quando Richard Lewis, um conselheiro e psicoterapeuta de Bristol, cidade da Inglaterra, experimentou o Woebot – um chatbot de saúde mental que só pode ser acessado por meio de um provedor de saúde parceiro – para ajudar em um tópico que ele também estava explorando com seu terapeuta, bot não conseguiu captar as nuances da questão, sugeriu que ele “se atenha aos fatos”, removendo todo o conteúdo emocional de suas respostas, e aconselhou a reformulação de seus pensamentos negativos como positivos. 

Como terapeuta”, disse Lewis, corrigir ou apagar emoções é a ‘última coisa que eu gostaria que um cliente sentisse e a última coisa que eu sugeriria’.

Nosso trabalho é formar um relacionamento que possa conter emoções difíceis”, acrescentou Lewis, ”e sentimentos para nossos clientes, a fim de facilitar a exploração, a integração ou a descoberta de significado para eles e, por fim, conhecer melhor a si mesmos.”

Tive uma experiência semelhante com o Earkick, um chatbot de IA generativa gratuito que afirma “melhorar sua saúde mental em tempo real” e tem “dezenas de milhares” de usuários ativos. Quando eu disse a ele que estava me sentindo sobrecarregado por prazos cada vez maiores, ele rapidamente sugeriu soluções simplistas como “hobbies”

A cofundadora e COO da Earkick, Karin Stephan, disse que o aplicativo não está tentando competir com os humanos e, em vez disso, quer atender às pessoas de uma maneira que as torne mais propensas a aceitar ajuda. 

(Conteúdo relacionado: Quais são as principais emoções humanas?)

Como a IA e as pessoas podem trabalhar juntas para tratar saúde mental


maioria dos terapeutas concorda que os aplicativos de IA podem ajudar sendo um primeiro passo na jornada de saúde mental de uma pessoa. O problema é quando eles são tratados como a única solução — pois definitivamente, eles não são

Embora pessoas como Smith e Lewis já tivessem sistemas de apoio humano, as consequências podem ser terríveis quando alguém depende exclusivamente de um chatbot de IA

Em 2024, um homem belga cometeu suicídio depois que um chatbot o incentivou a fazê-lo. Da mesma forma, a Associação Nacional de Distúrbios Alimentares nos Estados Unidos suspendeu um chatbot de distúrbios alimentares, o Tessa, porque ele estava dando conselhos prejudiciais sobre dietas. 

Ellen Fitzsimmons-Craft, psicóloga e professora que ajudou a desenvolver o Tessa, concorda que as ferramentas de IA podem tornar a ideia de cuidados com a saúde mental menos assustadora, mas acrescenta que elas devem ser seguras, submetidas a altos padrões e regulamentadas

Como o ChatGPT, disse ela, elas não devem ser treinadas em toda a Internet, onde há muitos conselhos ruins. Estudos descobriram que os chatbots de IA não apenas reproduzir opiniões médicas racistas, mas também não funcionavam completamente quando aplicados, por exemplo, a negros americanos. 

Até que as empresas de tecnologia superem essas preocupações, disse Rob Morris, cofundador da Koko Cares, que oferece recursos gratuitos de saúde mental e apoio de colegas, os melhores casos de uso da IA no curto prazo serão para fins administrativos, como seguro e faturamento, permitindo que os terapeutas passem mais tempo com os clientes. 

A Koko enfrentou a indignação do público quando adicionou a capacidade de co-escrever mensagens com o ChatGPT e teve que voltar atrás. Quando foi oferecida a opção de ter IA no circuito, a maioria dos usuários preferiu uma experiência estritamente humana e optou por não participar. Nos últimos seis meses, mais de 2 milhões de pessoas usaram o Koko. 

As pessoas em perigo não são problemas a serem resolvidos”, disse Lewis, ”são pessoas complexas que precisam ser vistas, ouvidas e atendidas. É tão simples quanto isso.”

mais populares

    veja mais
    loading

    Descubra Nat Geo

    • Animais
    • Meio ambiente
    • História
    • Ciência
    • Viagem
    • Fotografia
    • Espaço

    Sobre nós

    Inscrição

    • Assine a newsletter
    • Disney+

    Siga-nos

    Copyright © 1996-2015 National Geographic Society. Copyright © 2015-2025 National Geographic Partners, LLC. Todos os direitos reservados