IA é um bom ouvinte? Descubra os riscos por trás da terapia com chatbots

fale com o : pelo | via e-mail

Voltar a Página Anterior


Postado dia 21 de novembro de 2025 por


Nos últimos anos, a inteligência artificial na terapia passou a fazer parte da nossa rotina. De assistentes virtuais a diagnósticos médicos, a tecnologia agiliza processos e oferece respostas rápidas. Mas quando o assunto é emoção, dá para encontrar acolhimento real em uma máquina?

IA na terapia: apoio tecnológico ou fuga emocional?

Uma pesquisa da Talk Inc de 2024 mostrou que 1 em cada 10 brasileiros já recorreu a um chatbot de IA para desabafar, pedir conselhos ou simular uma conversa terapêutica. Esse uso não é isolado: o Brasil ocupa a 4ª posição no ranking global de uso do ChatGPT, atrás apenas dos EUA, Índia e Indonésia (forbes.com.br). Esses sistemas seduzem. Eles funcionam 24h por dia, respondem com gentileza, não julgam e ainda guardam seus dados. Por trás dessa eficiência, no entanto, cresce uma realidade preocupante: a solidão. A fundadora da Talk Inc relaciona esse comportamento ao isolamento social e à dificuldade de criar vínculos humanos reais.

Solidão digital: um fenômeno crescente e preocupante

Esse alerta já circula há algum tempo. Em 2023, a OMS classificou a solidão como prioridade de saúde global, destacando seus impactos físicos e mentais: aumento do risco de doenças cardiovasculares, declínio cognitivo e até demência (cnnbrasil.com.br). Um estudo comparou seus efeitos aos de fumar 15 cigarros por dia. Antes da pandemia, a própria OMS já apontava que cerca de 71% da população mundial com transtornos mentais não recebia tratamento adequado. A falta de acesso, somada ao avanço da tecnologia e à urgência por alívio emocional, fez muitas pessoas buscarem na IA um substituto para o cuidado profissional.

O que a IA não consegue fazer: escutar com empatia real

Essa busca não é nova. Na década de 1960, o programa Eliza já simulava diálogos terapêuticos com base na psicologia humanista de Carl Rogers. Mesmo com limitações óbvias, algumas pessoas acreditavam que estavam sendo ouvidas por um psicólogo. Hoje, a ideia de um “terapeuta perfeito” – sempre disponível, que não confronta e parece compreender tudo – continua fascinante. É compreensível. Vivemos cercados por estímulos, agendas cheias e escassez de conversas significativas. Quando a dor aperta, a tecnologia se oferece como companhia – mesmo que seja apenas uma simulação. No entanto, ouvir não é o mesmo que compreender. Um algoritmo pode reconhecer padrões e sugerir respostas plausíveis, mas compreender exige história, nuance, presença. E é justamente essa presença – sensível, humana, imperfeita – que torna a psicoterapia tão potente.

Leia mais: A Geração Z no trabalho e a preocupação com a saúde mental

Psicoterapia é vínculo humano – e isso não se replica

A Associação Brasileira de Psicanálise alerta: nenhum robô substitui a escuta qualificada e o olhar atento de um terapeuta. A psicoterapia não segue um roteiro previsível. Ela acolhe silêncios, gestos, resistências e dores que nem sempre se nomeiam. Enquanto isso, a IA replica o que já conhece – e não acessa o que transforma. Ainda assim, 60% das pessoas que usam IA dizem conversar como se estivessem falando com um ser humano. Isso mostra o tamanho do vazio e a força do desejo de conexão. Mas não podemos romantizar soluções tecnológicas para problemas emocionais tão profundos. A tecnologia pode apoiar, sim. Ela facilita o agendamento de sessões, amplia o acesso remoto e organiza prontuários. No entanto, o cuidado emocional continua sendo humano. Sentir-se acolhido requer mais do que respostas corretas – exige escuta, vínculo e presença verdadeira.

Onde está a regulação da IA na saúde mental?

Além disso, não há hoje regulamentação no Brasil específica sobre o uso de IA em contextos terapêuticos. A legislação vigente – como o Marco Civil da Internet e a Lei Geral de Proteção de Dados (LGPD) – trata da proteção de dados, mas não cobre as implicações éticas e clínicas do uso da tecnologia em cuidados psicológicos. Já na Europa, a AI Act, aprovada em 2024, começa a estabelecer diretrizes para o uso ético da IA na saúde – mas ainda há um longo caminho até que esse uso seja considerado seguro e adequado em escala global.

Tecnologia deve ser apoio, não substituição

Portanto, é importante reforçar que a tecnologia pode – e deve – ser aliada dos profissionais de saúde mental. Ainda assim, quando falamos em IA na terapia, é fundamental entender seus limites. Mas jamais deve ser vista como substituta do cuidado humano. A terapia exige escuta ativa, empatia real, intervenção estratégica, olhar clínico e presença – coisas que nenhuma máquina, por mais inteligente que seja, será capaz de oferecer. A pergunta que fica é: estamos mesmo interessados em cuidar da nossa saúde mental ou apenas tentando silenciar nossas dores com respostas rápidas?

Como a TELUS Health combina tecnologia com acolhimento humano

Aqui na CARE, a gente entende que cuidar da saúde mental é um processo que pede presença, escuta e sensibilidade. Por isso, nossos Programas de Apoio ao Empregado foram pensados para oferecer acolhimento de verdade – com psicólogos experientes, que escutam sem pressa e com ética, seja presencialmente, por teleatendimento ou de forma online. Utilizamos tecnologias como ferramentas que potencializam o cuidado, mas nunca como substitutos da escuta humana. A IA pode até sugerir palavras, mas são os profissionais de saúde mental quem acolhem silêncios. Aliás, este texto foi revisado com o apoio de uma inteligência artificial – mas foi pensado, escrito e organizado por pessoas, com sensibilidade e propósito. Porque mesmo na era digital, ainda é preciso alguém por trás do teclado para dar tom, contexto e sentido ao que realmente importa. Confira nosso editorial Minha Vida para mais insights e dicas que podem facilitar sua jornada. Este conteúdo foi elaborado pela equipe da TELUS, pensando em melhorar o seu bem-estar.

Está passando por alguma dessas situações ou precisa de ajuda em alguma outra questão?

Fale com o d .

Este é um recurso exclusivo e foi desenvolvido para ajudar você a melhorar sua saúde mental positiva, sua resiliência e o equilíbrio entre sua vida profissional e sua vida pessoal.

Se você sentir que é uma ameaça para si mesmo ou para outra pessoa, entre em contato com o d ou ligue para o telefone de emergência 190 ou para 188 para falar com o CVV – Centro de Valorização da Vida em todo o território brasileiro.