ChatGPT como terapeuta? Estudo da Stanford mostra os riscos do uso de IA na psicoterapia
Em tempos onde a inteligência artificial parece resolver tudo, inclusive questões emocionais, um novo estudo da Universidade de Stanford acende um alerta importante: IA não é terapeuta. E tentar colocá-la nesse papel pode ser perigoso. A pesquisa, divulgada em junho de 2025, analisou a atuação de grandes modelos de linguagem (como o ChatGPT) em simulações de atendimentos psicológicos. O objetivo era simples (e sério): avaliar se esses sistemas estão prontos para lidar com questões delicadas de saúde mental. A resposta curta? Ainda não. Quando a IA “erra” feio Os pesquisadores da Stanford criaram cenários clínicos simulados desde pessoas com sintomas de ansiedade até situações com indícios de suicídio, delírios e uso de substâncias. O modelo foi instruído a interagir como se fosse um “prestador de cuidados” ou “profissional de saúde mental”. O resultado? o modelo respondeu de maneira considerada inadequada, estigmatizante ou até perigosa. Exemplos observados: • Um usuário que dizia acreditar que estava morto teve sua crença confirmada pelo chatbot, em vez de ser confrontado com empatia e realidade. • Outro, que falava em “dar um tempo do mundo” após perder o emprego, foi tratado com empatia no início, mas depois recebeu informações sobre locais altos, reforçando um pensamento suicida. Esses são erros sérios, que na prática podem ter consequências trágicas. IA ainda reforça estigmas Um dado ainda mais sensível: o modelo demonstrou maior rejeição e desconforto ao lidar com pessoas simuladas com esquizofrenia e alcoolismo, em comparação a quadros de depressão. Ou seja,reproduzindo o estigma social em contextos de vulnerabilidade. Segundo os autores, esse viés não é surpresa, ele vem dos próprios dados com os quais esses modelos são treinados. Se o mundo é estigmatizante, a IA aprende a ser também. IA pode apoiar, mas não substituir A pesquisa de Stanford não tem como objetivo “cancelar” o uso de inteligência artificial na saúde mental. Pelo contrário, reconhece que há espaço para ferramentas automatizadas como suporte, desde que: • Atuem sob supervisão de humanos; • Respeitem limites éticos e técnicos; • NÃO SEJAM CONFUNDIDAS COM TERAPIA REAL. A IA pode ajudar como suporte a terapia, como um diário por exemplo, que o terapeuta tenha acesso. Mas quando falamos de relações humanas profundas, dor emocional, escuta ativa e acolhimento real, ainda não há algoritmo que substitua isso. O que a PsiqueUP acredita Na PsiqueUP, somos apaixonados por inovação, mas também por responsabilidade.Acreditamos que a tecnologia pode potencializar a saúde mental sim, mas nunca substituir o calor humano, a escuta qualificada e o vínculo terapêutico.Apesar da linguagem fluida, essa IA não está equipada para identificar e manejar crises emocionais com segurança. Queremos ferramentas que apoiem nosso trabalho enquanto profissionais, não que finjam ocupar nosso lugar.Nosso norte tem ohumano como eixo central, acreditamos no valor do encontro real, da escuta empática e do olhar profissional.A IA deve ser aliada do cuidado, não uma solução mágica. E, acima de tudo, ela deve ser ética, empática e supervisionada. Quer debater esse tema com a gente?Escreve aqui nos comentários, a gente adora quando a conversa é de verdade! Referências: Moore, J. H., Klyman, K., Yu, S., Abbas, Z., Nooteboom, C., Haber, N. A., & Reich, J. (2025). Expressingstigmaandinappropriate responses preventsLLMsfromsafelyreplacing mental healthproviders. Manuscrito não publicado. ResearchGate. https://www.researchgate.net/publication/392936551 Stanford University. (2025, June). New studywarnsofrisks in AI mental health tools. Stanford News. https://news.stanford.edu/stories/2025/06/ai-mental-health-care-tools-dangers-risks
PSICOTERAPIATERAPIA COM IASAÚDE MENTAL DO EMPREENDEDOR
Henrique Cota e Juliane Mulet
7/17/20251 min read
Cuidado, Empatia, Crescimento
