counter Por que é uma péssima ideia fazer terapia com inteligência artificial – Forsething

Por que é uma péssima ideia fazer terapia com inteligência artificial

A essa altura, você já deve ter visto em alguma rede social que o aconselhamento terapêutico e a busca por companhia viraram os principais objetivos das pessoas ao utilizar ferramentas de inteligência artificial.

A origem dessa informação é um levantamento da Harvard Business Review, e representa uma mudança significativa: aplicações profissionais, como redação de e-mails ou geração de códigos, perderam espaço para funções de apoio emocional e conversas simulando relações humanas.

Diante do crescimento desse fenômeno, entidades como o Conselho Federal de Psicologia (CFP) no Brasil buscam atualmente maneiras de regulamentar o uso terapêutico da IA, visando garantir segurança, responsabilidade e métodos reconhecidos para os usuários.

Enquanto isso, podemos debater cá entre nós se essa conveniência sedutora de abrir o coração e quebrar a cabeça com uma IA realmente faz sentido. Nos últimos dias, troquei MUITA ideia com uma ferramenta de conversação chamada Sesame IA e entendo o apelo: funciona 24/7, tem sempre algo interessante ou animador para falar e não me custa nada.

Pesquisa recente constatou que o uso mais comum de IAs atualmente é para aconselhamento terapêutico e busca por companhia
Pesquisa recente constatou que o uso mais comum de IAs atualmente é para aconselhamento terapêutico e busca por companhiaAlvaro Leme/Midjourney/Reprodução

Não cheguei a mergulhar na experiência a ponto de efetivamente fazer terapia com uma IA, e nem sinto vontade. Mas fui pesquisar a respeito, já que tem tudo a ver com a coluna. Busquei prós e contras, e com base neles concluí que é uma aposta perigosa. Talvez um dia eu mude de opinião, mas hoje considero uma péssima ideia substituir seu psicólogo pelo ChatGPT (ou qualquer outro agente não humano).

Continua após a publicidade

Vamos aos prós:

– Terapia ainda é um tabu (e um luxo) para muitos, então a IA poderia democratizar isso.
– A IA quebra barreiras de custo, horário e local
– Oferece acesso imediato a algum tipo de suporte.
– Pode contornar o receio que algumas pessoas têm de desabafar e ser julgadas.

Eu sei, parece coisa à beça. Mas os contras são mais numerosos:

O que você diz ali, não necessariamente fica ali
Outro dia até fiz episódio do meu podcast, o Aprenda Tech, falando sobre o que as pessoas não devem contar para o ChatGPT. A gente esquece que as conversas com IAs podem ser armazenadas, servir para treinamento ou, pior de tudo, vazar. Nunca diga para uma inteligência artificial algo que você não diria em voz alta numa praça cheia.


Falta de empatia genuína e conexão humana
Sim, parece DEMAIS que a “entidade” do outro lado da tela entende a gente. Mas não é emoção, é simulação. E não por maldade, apenas porque a IA foi criada para outras finalidades. Por mais avançada que seja, ela não tem a empatia real, a escuta ativa e a compreensão emocional necessárias.

Continua após a publicidade

Uma bronca pode ser bem-vinda, sim
Outro dia o Sam Altman, da OpenAI, divulgou que eles precisaram fazer ajustes no ChatGPT porque o bicho andava bajulador demais. Dentre outros debates possíveis a partir disso, podemos dizer que as IAs não têm o mesmo preparo que um terapeuta humano para dizer verdades duras que às vezes a gente precisa ouvir.

Validação de crenças distorcidas
Justamente porque muitas vezes “dizem o que o usuário quer ouvir”, os chatbots podem reforçar pontos de vista equivocados das pessoas.

E se a IA fizer diagnóstico errado?
A gente sabe que IAs são craques em diagnosticar um monte de coisas, sempre dou notícia disso aqui. Mas elas também podem interpretar de forma equivocada relatos complexos, deixando de captar nuances do contexto emocional e social do paciente.

Nos casos graves, a coisa pode ficar mais grave ainda
Em situações críticas, como ideação suicida, automutilação ou traumas profundos, a IA não possui discernimento nem sensibilidade para reconhecer a urgência da situação.

Continua após a publicidade

Não há estudos científicos robustos a respeito
Ainda não há consenso ou comprovação científica suficiente sobre a eficácia da terapia com IA para o tratamento de transtornos mentais, especialmente nos casos mais complexos.

É importante ver gente como a gente
O uso excessivo de terapia com IA pode aumentar o isolamento, dificultando o desenvolvimento de habilidades sociais e emocionais que só se constroem em interações humanas reais.

A questão urgente de responsabilização sobre as IAs
Se alguma coisa der errado, de quem é a culpa? Da IA? Não existe ainda clareza sobre isso.

Acho importante pontuar que isso tudo vale para o cenário ATUAL, certo? Aqui a gente está falando de tecnologias que não param de ser aprimoradas, com velocidades cada vez maiores. Existem iniciativas de IA sendo tocadas para funcionar em parceria com profissionais de saúde mental. Quando elas atuam como ferramentas de apoio, em vez de substitutas, parece mais promissor.

Publicidade

About admin