Antigamente, o paciente procurava o médico sem nenhum tipo de informação sobre saúde; com a internet e a democratização do conhecimento, passou a chegar ao consultório muito mais informado, mas, muitas vezes, preocupado em demasia, acreditando ter uma doença grave, por ter pesquisado os sintomas no Google. Hoje, estamos em outro patamar: o “Dr. Google” vem sendo substituído pelo “Dr. GPT”, aparentemente tão sábio que dispensaria um profissional de verdade. Sem dúvida, estamos diante de um problema, pois os chatbots, embora conversem com naturalidade, criando a sensação de que se está dialogando com uma pessoa, não são capazes de raciocinar clinicamente e de fazer um diagnóstico.
O fato é que as ferramentas de inteligência artificial (IA) geram respostas que “soam bem”, mas não possuem entendimento real dos dados que processam. A inteligência – é forçoso dizer – é uma característica humana. Os sistemas foram treinados para produzir respostas coerentes, baseadas em padrões depreendidos de uma enorme quantidade de informações, mas eles não sabem pensar como um médico. Além disso, eventualmente, sofrem “alucinações”, ou seja, inventam títulos de artigos científicos, autores ou nomes de remédios, atribuem frases a estudiosos que não as proferiram, criam fatos históricos e científicos ou misturam informações verdadeiras com erros sutis. Os especialistas explicam que esses erros surgem porque, na ausência de dados suficientes ou atualizados, o modelo tenta preencher lacunas com padrões aprendidos. Quem for leigo no assunto pesquisado certamente não conseguirá perceber falhas desse tipo.
Além disso, a IA não tem responsabilidade legal por eventuais erros. Quem responderia pela falha em um diagnóstico feito por um chatbot? O paciente, que não soube elaborar a pergunta ou não enviou os dados necessários, ou o desenvolvedor do sistema, que não previu a possibilidade de erro? Quando vidas estão em jogo, essa indefinição é extremamente perigosa. Há pouco tempo, tomamos conhecimento pela imprensa de um processo judicial contra a OpenAI por causa do suicídio de um adolescente aparentemente facilitado pelo chatbot. Por certo, ninguém desenvolveria um sistema com essa finalidade, mas não foi possível prever essa nefasta consequência. Modelos de IA podem, ademais, reproduzir vieses presentes nos dados de treinamento, perpetuando desigualdades e erros sistemáticos.
Mesmo o GPT-5, recentemente apresentado pela OpenIA como uma versão aprimorada, mais apropriada para consultas sobre saúde, não substitui o médico. A máquina pode, isto sim, ajudar a entender os resultados de exames e mesmo ser útil na elaboração das perguntas a serem feitas ao médico. Os desenvolvedores garantem que a frequência de alucinações é 26% menor que a da versão anterior. Mesmo assim, o problema permanece.
É claro que nada disso invalida os inegáveis avanços que a IA tem produzido na medicina. O que enfatizamos é que a ferramenta seja usada por quem detém conhecimento, ou seja, o próprio médico. É o profissional quem sabe extrair dos sistemas aquilo que melhor podem realizar e, se for o caso, quem pode perceber eventuais erros ou vieses. O perigo está no uso feito pelo leigo, que imagina estar diante de um médico, quando não está.
A IA pode ser muito útil em tarefas repetitivas e de alta precisão, como detectar sinais de câncer em exames de imagem, afinal, diferentemente de um ser humano, a máquina nunca se cansa e pode ver cada detalhe de tomografias, ressonâncias magnéticas, radiografias ou mamografias e comparar milhares ou milhões de imagens em alguns segundos, detectando mudanças em tecidos e órgãos humanos, que podem ser indícios relevantes para o diagnóstico. É, porém, o médico quem usa a ferramenta e analisa o resultado do exame.
Na cirurgia robótica, a IA permite realizar, com alta precisão, intervenções minimamente invasivas, que um ser humano é incapaz de fazer sozinho. O cirurgião robô, porém, também não atua sozinho. Ele requer dois cirurgiões humanos, um para fazer o controle remoto da operação e outro ao lado do paciente. Além disso, é necessária a presença de uma equipe na sala de cirurgia, com enfermeiros e anestesista.
Enfim, a IA é um poderoso aliado da medicina, mas deve ser usada com critério. A ferramenta também pode auxiliar os profissionais em triagens, organização de dados e educação em saúde, mas a interpretação de exames e as decisões clínicas cabem exclusivamente aos médicos, que consideram o histórico do paciente, seus sintomas, hábitos e condições de vida e demais dados coletados na anamnese, coisa que o chatbot certamente não faz.
É normal que a IA exerça certo fascínio sobre as pessoas, mas não podemos confundir o grande avanço científico-tecnológico representado por esse tipo de ferramenta com soluções mágicas ao alcance de um clique, como se estivéssemos diante de um oráculo moderno. O cuidado com a saúde exige mais do que as máquinas podem oferecer: escuta real e empatia. Os médicos que se iniciam na profissão devem estar atentos também a esses atributos, que, muitas vezes, são, ainda que paradoxalmente, o que as pessoas buscam nos chatbots.