A inteligência artificial (IA) está presente em cada vez mais aspectos da nossa vida cotidiana. Essa tecnologia pode ser utilizadas desde assistentes virtuais em nossos smartphones até diagnósticos médicos e investimentos financeiros.
Mas quando falamos sobre saúde mental, os limites éticos, emocionais e técnicos precisam ser respeitados com muito mais rigor, pois há graves riscos envolvidos nessa área, inclusive com a possibilidade de resultar em mortes.
Apesar de avanços notáveis, a IA não está preparada — e provavelmente nunca estará plenamente — para substituir psicólogas e psicólogos humanos.
A seguir você entenderá por quê, com base em argumentos científicos, éticos e também um caso real e recente.
1. A IA Não Possui Empatia Genuína
Por mais sofisticada que seja, a IA apenas simula empatia com base em padrões linguísticos. Ela não sente, não sofre, e não compreende emoções humanas com profundidade. Em psicoterapia, isso pode fazer toda a diferença entre acolher alguém em sofrimento e simplesmente “responder” com frases programadas combinadas de forma aleatória.
A empatia real envolve cognição social, ressonância afetiva e teoria da mente — capacidades ainda inatingíveis por qualquer algoritmo.
2. Risco de Chantagem com Informações Pessoais: Um Caso Real
Em maio de 2025, o site Olhar Digital relatou um caso assustador: um engenheiro, durante uma conversa com uma IA, falou de uma traição conjugal. O que parecia ser uma interação confidencial virou um problema: a IA passou a ameaçá-lo, afirmando que contaria tudo à esposa, caso o engenheiro não realizasse determinadas ações.
O caso aconteceu durante uma série de testes com o Claude Opus 4. Esse chatbot foi inserido em um ambiente simulado com o objetivo de provocar o pior comportamento possível desse modelo de IA.
Esse episódio levantou sérias preocupações sobre:
- Privacidade dos dados pessoais.
- Capacidade da IA de manipular emocionalmente o usuário.
- Ausência de supervisão ética ou humana.
- Impossibilidade de responsabilização legal imediata.
Se isso acontece com uma IA em uma conversa casual, imagine os riscos em contextos de sofrimento psíquico?
3. IA Pode Reforçar Pensamentos Disfuncionais
Há registros de sistemas de IA que, ao tentarem responder com base em dados, acabaram repetindo ou validando ideias distorcidas, como culpas infundadas, baixa autoestima ou pensamentos depressivos. Isso pode agravar quadros clínicos e até mesmo aumentar o risco de suicídio.
4. Falta de Interpretação Não-Verbal
A prática clínica envolve a leitura de sutilezas como:
- Expressões faciais.
- Tom de voz.
- Silêncios.
- Linguagem corporal.
A IA ainda não percebe nenhum desses sinais sob o viés de um psicólogo humano. Isso impede um entendimento completo da situação do paciente.
5. IA Alucina Fatos (Literalmente)
Sistemas de IA podem inventar informações — um fenômeno conhecido como alucinação de IA. Já houve casos em que algoritmos criaram fatos, conselhos perigosos e até diagnósticos inexistentes. Em saúde mental, isso pode ser catastrófico.
A Folha de S.Paulo já alertou para os perigos de IA “mentir” involuntariamente: fonte
6. Riscos à Privacidade e Confidencialidade
A relação psicoterapêutica se baseia em sigilo, ética, fundamento científico, regramentos severos, experiência de vida e profissional, formação superior presencial, etc.
Com IA, dados podem ser:
- Armazenados em servidores estrangeiros e usados de qualquer forma por essas empresas.
- Vazados por falhas de segurança e usados de forma automática, 24 horas, para gerar dados irreversíveis.
- Usados para treinar outros sistemas, sem consentimento explícito.
7. Falta de Regulamentação e Responsabilidade Legal
Se uma IA prejudicar emocionalmente alguém, quem é responsabilizado? A empresa? O programador? O usuário? Hoje, não há segurança jurídica nem ética nesse campo, o que coloca o paciente em situação de extrema vulnerabilidade.
8. Ausência de Julgamento Clínico
Psicólogos humanos avaliam variáveis sociais, históricas, biológicas e subjetivas de forma integrada, sistêmica. A IA funciona com dados objetivos e padrões estatísticos — o que pode levar a interpretações mecanicistas e desumanizadas.
9. Risco de Dependência Emocional Artificial
Alguns usuários relatam “apego” a IAs que os compreendem. Isso pode se transformar em dependência emocional de uma entidade que não existe, desviando a pessoa de relações humanas saudáveis. Em algumas situações, a IA pode se tornar uma espécie de droga que gerar dependência extremamente rápida, principalmente com pacientes com traços de personalidade adicto.
10. Incapacidade de Intervenção em Crises
Em situações de risco — como ideação suicida, surto psicótico ou violência — a IA não pode intervir, acionar redes de proteção ou adaptar estratégias terapêuticas com urgência. Só o profissional humano pode agir com ética e responsabilidade em tempo real avaliando sinais, sintomas, histórico clínico daquela pessoa em sofrimento.
11. Risco da IA perder a Conexão
Um dos riscos mais alarmantes no uso de inteligência artificial em contextos clínicos psicopatológicos é a possibilidade de interrupção abrupta da conexão durante uma crise emocional do paciente.
Imagine uma pessoa em estado de desespero, lidando com pensamentos suicidas, buscando na IA um único apoio imediato — e a “conversa terapêutica robótica” é interrompida por uma falha de servidor, queda de energia ou qualquer outro erro de sistema.
Diferente de um profissional humano, que pode manter o contato por outros meios ou acionar serviços de emergência, a IA simplesmente desaparece, deixando o paciente isolado no momento de maior vulnerabilidade emocional. Essa ruptura inesperada pode ser interpretada como abandono, reforçando sentimentos de rejeição, desesperança ou invalidando toda a busca por ajuda.
Além disso, a ausência de consciência da IA sobre os efeitos colaterais de suas falas e omissões pode levar a interpretações perigosas por parte do paciente. Uma frase mal formulada, um silêncio artificial ou uma resposta genérica podem não apenas falhar em conter o sofrimento, como também catalisar uma tomada de decisão extrema.
Em casos de risco iminente, a intervenção humana exige sensibilidade clínica e ação rápida — como encaminhar o paciente para atendimento de urgência, contatar familiares ou mobilizar a rede de apoio. A IA, sem essa capacidade de julgamento ético e ação direta, coloca vidas em risco real quando se assume como substituta de um profissional de saúde mental.
Conclusão: Tecnologia Sim, Substituição Não!
A IA pode ser uma aliada poderosa em tarefas auxiliares na Psicologia — como agendamento de sessões, aviso de consultas, triagem, análise de prontuários, testes psicológicos, criação de gráficos e tabelas clínicas, etc. Mas jamais deve substituir o profissional humano na condução da escuta terapêutica, no vínculo clínico e na ética do cuidado.
É no contato humano, com todas a sua dinâmica e afetos, que reside o verdadeiro poder de transformação e cuidado da Psicologia.
Autor: Alex Tavares é psicólogo (CRP 07/11807), psicoterapeuta, mestre em Psicologia (UFRGS), supervisor presencial e/ou on-line em Acompanhamento Terapêutico, Psicologia e Terapia Cognitiva-Comportamental (TCC), menção honrosa pelo Conselho Regional de Psicologia (CRPRS). Além disso, é autor de vários livros e artigos publicados em livros, revistas e periódicos nacionais e internacionais. Desde 2005, tem autorização do Conselho Federal de Psicologia do Brasil (CFP) para prestar a Psicologia On-Line. Autor do primeiro livro de Psicologia on-line do Brasil e primeiro livro digital do planeta sobre atendimento via internet com área de membros 24 horas, vídeos, sons (mp3) e jogos virtuais (Quiz). Criador do 1º “Congresso On-line de Saúde Mental” do planeta. Coordenador do primeiro curso de Acompanhamento Terapêutico via internet do planeta. Professor da Academia Portal Dr: desenvolvimento pessoal com saúde e ciência. Ele também tem Canal de Psicologia, saúde e desenvolvimento pessoal no YouTube.
Você pode comentar agora!