ACOMPANHE-NOS     Campo Grande News no Facebook Campo Grande News no X Campo Grande News no Instagram Campo Grande News no TikTok Campo Grande News no Youtube
NOVEMBRO, TERÇA  11    CAMPO GRANDE 33º

Rede de apoio

A inteligência artificial atuando como “terapeuta”

Riscos e a importância do profissional qualificado.

Por Lia Rodrigues Alcaraz (*) | 11/11/2025 12:50
A inteligência artificial atuando como “terapeuta”
(Foto: Gerada por IA/Freepik)

Nos últimos anos, a presença da inteligência artificial (IA) na vida cotidiana tem se expandido de forma impressionante, alcançando inclusive o campo da saúde mental. Plataformas digitais e assistentes virtuais que prometem escutar, aconselhar e oferecer apoio emocional têm atraído um número crescente de pessoas em busca de conforto imediato. No entanto, houve pelo menos dois casos notórios e distintos envolvendo suicídios e interações com inteligência artificial (IA) que geraram repercussão na mídia: um nos Estados Unidos, envolvendo um adolescente de 14 anos e outro na Bélgica, envolvendo um homem adulto, a substituição de um terapeuta humano por uma IA levanta questões éticas e psicológicas profundas, sobretudo quanto aos efeitos negativos dessa prática e à necessidade de manter o acompanhamento com um profissional qualificado.

Em primeiro lugar, é importante reconhecer que a IA pode, de fato, desempenhar um papel auxiliar. Ela oferece acessibilidade, disponibilidade constante e respostas rápidas, o que pode ser útil em momentos de crise ou solidão. Entretanto, o problema surge quando o indivíduo passa a depender exclusivamente desse tipo de ferramenta para lidar com conflitos internos complexos. A IA não possui empatia genuína, nem a capacidade de interpretar nuances emocionais e inconscientes, elementos essenciais no processo terapêutico. Assim, o que parece uma solução prática pode se tornar uma forma de isolamento emocional e superficialidade nas relações humanas.

Para além disso, os riscos éticos e psicológicos são expressivos. O uso da IA em contextos de saúde mental pode expor dados sensíveis e íntimos a falhas de segurança, comprometendo a privacidade do usuário. Mais grave ainda é o fato de que uma máquina não pode realizar diagnósticos, interpretar mecanismos de defesa ou oferecer o manejo clínico adequado em situações de sofrimento psíquico intenso. Ao confiar cegamente nesses sistemas, as pessoas podem adiar o tratamento correto e agravar seu quadro emocional.

Portanto, a busca por um profissional qualificado, como o psicólogo ou o psicanalista, é uma questão fundamental, pois, o trabalho terapêutico humano envolve escuta ativa, acolhimento, transferência e construção de sentido, dimensões estas que ultrapassam qualquer algoritmo. A presença do terapeuta permite que o paciente seja visto em sua singularidade, algo que a IA, por mais avançada que seja, não é capaz de fazer.

Devemos refletir, embora a inteligência artificial possa funcionar como um suporte inicial ou complementar, ela jamais deve substituir o acompanhamento com um profissional da saúde mental. Confiar exclusivamente na tecnologia para tratar a dor psíquica é reduzir o humano ao cálculo, esquecendo que o processo de cura envolve vínculo, afeto e subjetividade aspectos que nenhuma máquina pode reproduzir com autenticidade.

(*) Lia Rodrigues Alcaraz é psicóloga formada pela UCDB (Universidade Católica Dom Bosco) em 2011, especialista em orientação analítica em 2015 e neuropsicóloga em formação em 2024. Trabalha como psicóloga clínica na Cassems (Caixa de Assistência dos Servidores do Estado de Mato Grosso do Sul) e em consultório.

 

Os artigos publicados com assinatura não traduzem necessariamente a opinião do portal. A publicação tem como propósito estimular o debate e provocar a reflexão sobre os problemas brasileiros.