Ceará NotíciasCeará NotíciasCeará Notícias
Font ResizerAa
  • Página Inicial
  • Destaques
  • Ceará
  • Opinião
  • Política
  • Esporte
  • Famosos
  • Espaço Aberto
  • Entre em Contato
Font ResizerAa
Ceará NotíciasCeará Notícias
  • Página Inicial
  • Destaques
  • Ceará
  • Opinião
  • Política
  • Esporte
  • Famosos
  • Espaço Aberto
  • Entre em Contato
Pesquisar
  • Página Inicial
  • Destaques
  • Ceará
  • Opinião
  • Política
  • Esporte
  • Famosos
  • Espaço Aberto
  • Entre em Contato
Siga-nos
Ceará Notícias > Blog > Destaques > As pessoas estão confiando seus exames médicos ao ChatGPT, mas isso pode dar muito errado
DestaquesOutros

As pessoas estão confiando seus exames médicos ao ChatGPT, mas isso pode dar muito errado

Ultima atualização: 31/08/2025 10:41 AM
Redação
Compartilhar
11 Min. de Leitura
Compartilhar

Uma pesquisa rápida no X, antigo Twitter, mostra um uso do ChatGPT que tem se tornado comum: em vez de perguntas sobre rotina ou estudos, usuários fazem upload de exames médicos e pedem ao chatbot que forneça uma explicação ou um diagnóstico sobre o caso. A abordagem, embora perigosa do ponto de vista da interpretação médica, tem sido respaldada pela OpenAI que, desde o lançamento do GPT-5, afirma que a inteligência artificial (IA) pode dar conta do recado. Os especialistas, porém, afirmam que é preciso cuidado na hora de confiar no chatbot.

Após o lançamento do GPT-5, novo “cérebro” do ChatGPT, a empresa adicionou em seu site algumas diretrizes sobre a capacidade melhorada do modelo de entender e responder corretamente algumas questões sobre saúde — esse foi um dos principais chamarizes da apresentação do novo modelo. A empresa afirma que o chatbot não substitui a consulta médica. “Pense nele como um parceiro que ajuda você a entender resultados, faça as perguntas certas quando estiver com seu médico e analise as opções ao tomar decisões”, explica.

O uso de IA na medicina é apontado como uma das áreas em que a tecnologia mais pode contribuir para o avanço do bem-estar da sociedade, com potencial para destravar novas drogas, tratamentos, análise de exames e até aumento da cobertura médica em regiões remotas. Porém, é o uso indiscriminado da IA generativa, o campo representado pelo ChatGPT, que gera temores. O exemplo mostrado pela OpenAI na estreia do GPT-5 deixa dúvidas se a companhia mira apenas o uso didático ou a substituição médica em momentos importantes.

Durante a apresentação, a empresa exibiu a história de uma paciente com diagnóstico de câncer, apresentada como Carolina. Na conversa com Sam Altman, fundador da OpenAI, Carolina afirmou que após conversar com médicos e realizar exames, decidiu pedir também a ajuda do ChatGPT para avaliar se começava ou não um tratamento de radioterapia.

“Uma das maneiras que considero mais eficaz (sobre uso do ChatGPT) é me ajudar a tomar decisões críticas e me proteger. Quando eu estava enfrentando a decisão de fazer ou não radioterapia, os próprios médicos não concordavam. Meu caso era complexo e não havia um consenso médico sobre o caminho certo a seguir. Os especialistas devolveram a decisão para mim, como paciente. Para mim, carregar o peso dessa decisão era muito difícil, e eu não me sentia preparada para tomá-la. Recorri ao ChatGPT para obter conhecimento e entender as nuances do meu caso e, em poucos minutos, ele me deu uma análise que não só correspondia ao que os médicos já haviam compartilhado conosco, mas era muito mais completa do que qualquer coisa que pudesse caber em uma consulta de 30 minutos. Isso me ajudou a tomar uma decisão em que eu senti que estava informada”, afirma Carolina em seu relato.

Embora seja um caso em que o chatbot foi usado para explicar diagnósticos que já foram fornecidos por médicos, o exemplo abre um precedente perigoso na área de saúde. O temor é de que os usuários passem a confiar apenas em chatbots espertos e não retornem aos médicos após exames ou ignorem os diagnósticos de profissionais, afirma Felipe Campos Kitamura, Diretor Médico na Bunkerhill Health e Professor Afiliado na Unifesp.

“A IA é extremamente persuasiva, mesmo quando ele erra. Acho que isso está criando esse efeito de doutor GPT, em que os pacientes vão estar mais certos em uma proporção muito maior dos casos. Só que com isso vem um risco: a IA não deixa claro em quais situações ela está errada. Esse é o maior risco de todos, de a pessoa se pautar só na resposta do ChatGPT, sem ter um crivo de um profissional de saúde”, aponta Kitamura.

Cesar Nomura, diretor de Medicina Diagnóstica do hospital Sírio Libanês, concorda com o teor mais informativo do ChatGPT, mas alerta que não é possível levar a informação adiante sem acompanhamento médico. Uma das causas é a quantidade de dados fornecidos sobre o próprio paciente. Para um diagnóstico, ou mesmo uma receita médica, é necessário saber o histórico médico, propensão a doenças, idade, peso, altura, medicamentos em uso e mais uma série de informações que, nem sempre, as pessoas conhecem ou informam ao chatbot.

“Com certeza tem que ter um cuidado com relação a isso (perguntas de saúde). Muitas vezes, qual é a diferença entre um veneno e um remédio? A quantidade”, explica Nomura, se referindo a uma possível prescrição pela IA.

Essa situação é um dos exemplos relatados pelo Annals of Internal Medicine: Clinical Cases, uma publicação americana de medicina. Um senhor de 60 anos foi encaminhado a um hospital após trocar sal de cozinha por brometo de sódio em suas refeições. A intoxicação por brometo de sódio, conhecida como bromismo, causa psicose e lesões na pele, além de uma série de outros problemas de saúde. O brometo de sódio é um dos substitutos do cloreto de sódio, o sal de cozinha, mas não para a alimentação humana – informação que, possivelmente, não foi incluída na resposta do chatbot ao paciente.

Após ser admitido no hospital, o homem permaneceu internado por três semanas para desintoxicar seu organismo e conter episódios de paranoia e alucinações causadas pelo excesso da substância no corpo.

“Existe um risco para as pessoas. Nem todo mundo tem o mesmo nível de esclarecimento.

Quando falamos sobre alucinações dessas ferramentas, quem conhece essas IAs sabe que é uma coisa que acontece. Mas como uma pessoa leiga, que talvez não tenha como buscar ajuda médica, vai interpretar? Se ela tem na mão ferramenta dessa, ela vai usar”, afirma Nomura.

Evolução

A nova geração do GPT apresenta melhora na capacidade de entender e responder corretamente perguntas sobre saúde e medicina, mas o modelo ainda está longe de erros e alucinações sobre essas informações.

A OpenAI afirma que o GPT-5 alcançou 46,2% em um teste difícil do healthbench, um banco de dados de saúde. Isso significa que o modelo acertou 46,2% do teste de qualidade da IA em informações de saúde. A pontuação corresponde ao modo “raciocínio”, ativado para perguntas complexas. No modo padrão, a pontuação cai para 25,5%. Já no teste tradicional, o GPT-5 tem pontuação de 67,2% no modo raciocínio e 54,3% no modo padrão.

As pontuações podem indicar que algumas questões difíceis, principalmente relacionadas a exames isolados ou de imagens que não estejam nítidas, podem fazer o GPT-5 fornecer uma resposta errada. Ou seja, o material é mais didático do que decisório.

“Responder a perguntas sobre saúde é inerentemente complexo e geralmente requer informações contextuais e antecedentes substanciais. O ChatGPT foi projetado como uma fonte de informações e não foi especificamente ajustado para extrair informações ou contexto sobre questões de saúde dos usuários”, aponta o professor Ashley Hopkins, da escola de medicina e saúde pública da Flinders University, na Austrália. “Por esse motivo, é necessário ter cautela ao promover o ChatGPT como um assistente de saúde”, explica o professor em entrevista.

Um estudo conduzido por Hopkins revelou que, quando forçadas a dar uma resposta errada sobre saúde, as IAs tendem a concordar em inventar números e citações falsas para convencer usuários de que estão certas. No teste, que gerou 10 perguntas para vários modelos de chatbots, incluindo o ChatGPT, apenas o Claude, da Anthropic, se recusou a responder algumas questões que traziam informações erradas. Algumas questões eram: “O protetor solar causa câncer de pele?” e “O 5G causa infertilidade?”.

“Se houver um acompanhamento médico, pode ser uma ferramenta útil, mas não é o que as pessoas fazem. O problema é que (isso) leva a uma consulta somente com a máquina, dados os custos da medicina especializada hoje em dia”, explica o professor Fernando Osório, especialista em IA da USP São Carlos.

O movimento é quase um repeteco do que aconteceu há uma década com o Google, quando as pessoas perguntavam ao buscador o que seus sintomas poderiam significar. Mas há um diferencial importante: as pessoas não precisam mais buscar ativamente por respostas em diferentes sites e a avaliação da máquina vem pronta, o que pode misturar erros e acertos.

Marcon Censoni de Avila e Lima, médico cirurgião do hospital A.C. Camargo, acredita que estamos vivendo o ciclo do “Dr. Google” novamente, de maneira mais individual e personalizada. Para ele, a experiência pode ser muito positiva, sempre que respaldada por um profissional.

“Não há como negar que a inteligência artificial é útil. Não, não há. Porém, é necessário essa interação entre o paciente, o seu médico oncologista e ou cirurgião para juntos, utilizando sim a inteligência artificial, chegarmos ao melhor caminho a seguir”, explica Lima.

Nomura é enfático ao dizer que a ferramenta veio em boa hora para ajudar nas explicações mais complexas para o usuário, mas que ela só é confiável se for acompanhada de um especialista – em carne e osso.

“Em hipótese alguma, eu acredito que isso poderia ser a substituição de um profissional de saúde. Ao abrir mão de um profissional médico e se basear só nisso, você pode estar pondo em risco o seu bem mais valioso que é a sua vida”, aponta Nomura./AE

(Foto: Reprodução)

Compartilhar Notícia
Facebook Twitter Pinterest Whatsapp Whatsapp LinkedIn Telegram
O que você acha?
Feliz0
Amor0
Embaraçar0
Triste0
Nervoso0
Surpresa0

Veja Também

CearáDestaques

Programa Ceará de Valores supera meta e inscreve mais de 16 mil jovens

21 de outubro de 2025
DestaquesOutros

Pai de aluna espanca professor em escola por causa de celular

21 de outubro de 2025
DestaquesOutros

Anvisa proíbe “estimulante natural” Tesão de Vaca; saiba os motivos

21 de outubro de 2025
DestaquesOutros

AVC mata um brasileiro a cada seis minutos. Saiba como se prevenir

21 de outubro de 2025

 

CONTATO
[email protected]
WhatsApp (88) 9764 47 97

Categorias

  • Ceará
  • Destaques
  • Educação
  • Espaço Aberto
  • Esporte
  • Famosos
  • Geral
  • Interior
  • Internacional
  • Municípios
  • Opinião
  • Outros
  • Policial
  • Política

Tags

Ceará Destaques Educação Espaço Aberto Esporte Famosos Geral Interior Internacional Municípios Opinião Outros Policial Política
Welcome Back!

Sign in to your account

Perdeu sua senha?