Com o lançamento do ChatGPT Health, a OpenAI estabelece um divisor de águas não apenas no mundo da tecnologia, mas também na relação mais sagrada da sociedade: o cuidado com a saúde.
Não se trata apenas de um “chatbot com estetoscópio”; é o início de uma era em que a negligência médica e a desatualização profissional não terão mais onde se esconder.
O ChatGPT Health, conforme afirma a Open AI, é um ambiente seguro e especializado, projetado para ser um “copiloto” de saúde pessoal. Diferente da versão comum, ele possui camadas de privacidade robustas e a capacidade de conectar-se a dados reais do usuário, como conexão com registros médicos e exames laboratoriais, sincronização com equipamentos vestíveis ligados à Apple Health, MyFitnessPal e sensores de sono.
O ChatGPT Health não olha apenas para o sintoma de hoje, mas para o histórico de meses, identificando tendências que passariam despercebidas em uma consulta de 15 minutos.
O Fim do Médico Mal Formado e Desatento
A mensagem para a classe médica é clara: o nível de exigência subiu. O GPT Health sinaliza o fim do médico medíocre. Sabe aquele profissional que não olha nos olhos, que mal escuta os sintomas e prescreve o mesmo protocolo de dez anos atrás? Esse médico acaba de se tornar obsoleto.
Enquanto um médico sobrecarregado pode querer encerrar a consulta rapidamente, a IA tem paciência infinita. Ela analisa cada detalhe relatado pelo paciente, forçando o médico humano a ser, no mínimo, tão detalhista quanto a máquina.
Um médico que não estuda está, na verdade, regredindo. A IA tem acesso às últimas diretrizes e estudos globais. O profissional que não se atualizar será facilmente questionado por um paciente bem-informado pelo GPT Health.
Nesse contexto, o “Doutor sabe-tudo” perde ainda mais espaço para o “Médico parceiro”. Se a IA sugere uma interação medicamentosa ou uma linha de diagnóstico baseada em dados que o médico ignorou, a autoridade cega é substituída pela evidência.
O Perigo do Autotratamento Digital
Apesar do seu poder, o GPT Health carrega um risco vital: ele não é um médico e nunca deve substituir a presença física de um. O maior perigo para o paciente é usar a ferramenta para originar seu próprio tratamento sem supervisão.
E vale lembrar: a IA pode sofrer “alucinações” ou ignorar nuances físicas que apenas o toque e o exame clínico presencial revelam. Substituir o auxílio médico pela IA é como tentar pilotar um avião usando apenas um simulador: parece real, mas a queda no mundo real é fatal.
A ferramenta foi feita para preparar o paciente. Use-a para entender seus exames, listar perguntas inteligentes e monitorar hábitos, mas a decisão final e a prescrição devem sempre vir de um profissional humano qualificado.
Na minha opinião, o GPT Health vai “limpar” o mercado. Os profissionais que restarem serão aqueles que entregam o que a IA não pode: julgamento ético em situações “cinzentas” e o toque humano. O médico ruim será substituído pela IA!
Já o médico bom será potencializado por ela. No fim das contas, quem ganha é o paciente, que finalmente deixará de ser apenas um número em uma ficha para se tornar o centro de um cuidado inteligente e, acima de tudo, atento.
* Carlos Eduardo Barra Couri é endocrinologista, pesquisador da USP de Ribeirão Preto e coordenador científico do Endodebate