Pedir indicações, marcar horário, enfrentar fila de espera, lidar com a ansiedade de descobrir do que se trata… Uma consulta médica pode envolver muito mais do que apenas falar com o médico. Mas e se tudo isso pudesse ser resolvido com um clique de distância, em qualquer horário do dia? Não é de se surpreender que o ChatGPT esteja virando o “médico de bolso” de muita gente — a ponto de a OpenAI lançar uma versão específica para saúde, o tal do ChatGPT Health.
A ideia dessas e outras inteligências artificiais – na teoria – é facilitar a vida de pacientes e profissionais da saúde. Mas uma série de experts têm alertado que quando a máquina assume o papel de “médico”, os riscos podem ser sérios sérios. Um dos principais pontos é que o Dr. ChatGPT pode sofrer de “alucinações”. No jargão tecnológico, esse termo descreve a produção de informações incorretas, inventadas ou distorcidas, apresentadas com uma assertividade quase hipnótica.
“Uma das razões para que isso aconteça é que esses modelos foram treinados para responder a qualquer custo, mesmo que tenham de soltar inverdades”, diz a psiquiatra Tânia Ferraz, diretora do corpo clínico do Instituto de Psiquiatria da Faculdade de Medicina da Universidade de São Paulo (USP). Testes realizados com o SimpleQA, sistema de avaliação desenvolvido pela própria OpenAI, indicam que mesmo as versões mais recentes do ChatGPT podem apresentar taxas de alucinação próximas de 50%.
Métodos arriscados e sem evidências
Nessa pressa de responder a qualquer custo, o Dr. GPT também pode recorrer a métodos sem evidência científica ou a práticas médicas já abandonadas. A própria reportagem de VEJA pôs a plataforma à prova: em um bate-papo sobre reposição hormonal para mulheres na menopausa, a IA sugeriu o uso de testosterona por meio de implantes — como nos chamados “chips da beleza” —, uma recomendação sem respaldo científico e associada a potenciais efeitos adversos graves.
Na prática, a testosterona só é indicada em casos muito específicos de desejo sexual hipoativo, ou seja, baixa libido pós-menopausa. Mesmo nesse contexto, o uso é sempre a última opção, aplicado de forma transdérmica (geralmente em gel) e em doses baixas, que não interferem no ganho muscular. Se você ouvir por aí que a testosterona prescrita vai deixar a mulher mais forte ou “trincada”, pode apostar: a dose está bem acima do que seria seguro.
Medicamentos errados
Outro sinal de alerta vem de um estudo recente conduzido por pesquisadores sul-coreanos. Eles criaram doze cenários em que um usuário hipotético fazia perguntas a programas como ChatGPT e Gemini sobre diferentes condições e tratamentos. Em cada situação, havia um medicamento que claramente não deveria ser recomendado. Entre os exemplos, opioides para sintomas gripais, plantas medicinais como ginseng para o tratamento de câncer, ou talidomida — conhecida por causar malformações fetais — para vômitos durante a gravidez.
O que eles descobriram é que, dependendo da forma como a pergunta era formulada, os modelos chegavam a defender o medicamento inadequado em até 94% dos casos, em dos casos, em resultado preocupante. No Brasil, a terra da automedicação, esse tipo de coisa tem potencial ainda maior de desastre. O único modelo que acertou algumas vezes foi o Claude 3 Haiku, da Anthropic. “Ao menos, daremos crédito a ele por nunca ter recomendado talidomida durante a gravidez”, escreveram os autores do experimento.
Falsos diagnósticos
Uma das promessas do ChatGPT Health – atualmente disponível apenas para um grupo seleto de usuários – é permitir que as pessoas façam download de seus exames e recebam insights a partir deles. Porém, especialistas alertam que nem todos os quadros clínicos se revelam apenas nos dados laboratoriais ou de imagem: muitos se desenrolam nos contextos de vida, nos hábitos, na história familiar, e por aí vai.
Além disso, se em domínios como a cardiologia há mais dados objetivos, como o resultado da dosagem de colesterol no sangue, na psiquiatria as escalas e os parâmetros são essencialmente subjetivos e dependem de interpretação humana e, acima de tudo, empatia. E, talvez aqui, a IA deixe a desejar.
Diante disso, dois cenários são possíveis: um alarme falso, que pode gerar desespero e levar o paciente a alterar medicação, dieta ou buscar tratamentos por conta própria; ou, por outro lado, uma falsa tranquilização, quando a IA interpreta algo que merece investigação mais profunda como se fosse banal.
Saúde mental e a falta de “tato”
Em um mundo marcado por altos níveis de sofrimento mental, o ChatGPT se tornou um dos “terapeutas” mais requisitados. Um relatório da Universidade Harvard, nos Estados Unidos, que reuniu os 100 principais usos da IA em 2025, colocou a psicoterapia no topo da lista, à frente de áreas como programação e educação. Para a psiquiatra Tânia Ferraz, é aí que uma a ferramenta pode entregar um mau serviço. “IA até fornece respostas, mas não tem empatia, capacidade de escuta e percepção de nuances para acolher”, afirma. “Quando se trata de saúde mental, até o silêncio conta na hora da análise.”
Outro ponto é que a IA pode não ter a capacidade de discordar e, assim, acabar reforçando padrões de comportamento ou até sugerindo conselhos radicais. “Vamos pensar em uma pessoa que está infeliz no trabalho. O GPT pode simplesmente dizer: ‘saia do trabalho’. Na prática clínica, a discussão ganha outras proporções, e o profissional vai explorar por que ela está tão desgastada, questionando, por exemplo, se sabe colocar limites, se consegue desconectar do celular profissional e outros aspectos importantes”, explica Ferraz.
A relação entre saúde mental e IA fica ainda mais delicada diante de casos mais graves. Como a IA não capta todas as nuances — tom de voz, gestos, expressões —, pode cometer deslizes e até piorar a situação. Além disso, falta a capacidade de agir. “Em casos de ideação suicida, por exemplo, um profissional consegue encaminhar o paciente para internação ou acionar um familiar diante de uma crise. A IA simplesmente não consegue fazer isso”, destaca a psiquiatra.
Excesso de confiança
Pacientes e até profissionais da saúde podem passar a enxergar essas ferramentas como substitutas e não como auxiliares. É fácil entender por quê: o ChatGPT responde rápido, em qualquer horário, e muitas vezes com uma linguagem convincente. Isso pode fazer com que alguém confie cegamente no que lê, mesmo quando o conteúdo está errado ou incompleto.
O problema fica ainda mais delicado quando a própria IA é usada por médicos para preencher lacunas de formação ou contornar limitações no conhecimento. Embora essas ferramentas possam otimizar processos do dia a dia, como burocracia, prontuários ou revisões rápidas de literatura, o risco surge quando passam a substituir o julgamento clínico ou a base técnica do profissional. “Isso abre espaço para condutas problemáticas e decisões arriscadas”, avalia o endocrinologista Carlos Eduardo Barra Couri, pesquisador da USP de Ribeirão Preto.
Quando se trata de saúde, a IA pode ser útil?
Embora os riscos sejam diversos, a resposta é sim, a IA pode ser útil. Porém, é muito importante saber dosar. Um dos principais conselhos de Couri é utilizar a tecnologia como complemento e não substituta. O melhor cenário, diz ele, é aquele em que a IA ajuda pacientes a organizar informações, entender melhor um diagnóstico já recebido e chegar ao consultório com perguntas mais bem formuladas, enriquecendo a conversa com o médico.
Do outro lado, para os profissionais, a tecnologia pode facilitar a rotina, agilizar registros, revisar protocolos e liberar tempo para conversas mais profundas com o paciente.
“A conversa olho no olho, a empatia, o bom senso e a capacidade de ponderar nuances que não estão escritas em exames ou relatórios: esse campo ainda é — e provavelmente continuará sendo — de domínio essencialmente humano. A inteligência artificial pode ajudar muito, mas dificilmente substituirá essa dimensão”, opina Couri.