Raios X deepfake são tão reais que nem os médicos conseguem perceber a diferença

Raios X deepfake são tão reais que nem os médicos conseguem perceber a diferença

Um novo estudo publicado em 24 de março em Radiologiao jornal da Sociedade Radiológica da América do Norte (RSNA), mostra que tanto os radiologistas quanto os modelos multimodais de grande linguagem (LLMs) têm dificuldade em diferenciar os raios X reais das imagens “deepfake” geradas pela inteligência artificial (IA). As descobertas levantam preocupações sobre os riscos representados pelas imagens médicas sintéticas e destacam a necessidade de melhores ferramentas e formação para ajudar a proteger a precisão das imagens médicas e preparar os profissionais de saúde para reconhecer deepfakes.

Um “deepfake” é um arquivo de vídeo, foto, imagem ou áudio que parece autêntico, mas foi criado ou alterado usando IA.

“Nosso estudo demonstra que esses raios X falsos são realistas o suficiente para enganar os radiologistas, os especialistas em imagens médicas mais altamente treinados, mesmo quando eles estavam cientes da presença de imagens geradas por IA”, disse o principal autor do estudo, Mickael Tordjman, MD, pós-doutorado, Icahn School of Medicine em Mount Sinai, Nova York. “Isso cria uma vulnerabilidade de alto risco para litígios fraudulentos se, por exemplo, uma fratura fabricada puder ser indistinguível de uma fratura real. Há também um risco significativo de segurança cibernética se hackers obtiverem acesso à rede de um hospital e injetarem imagens sintéticas para manipular diagnósticos de pacientes ou causarem caos clínico generalizado, minando a confiabilidade fundamental do registro médico digital”.

Detalhes do estudo e teste de imagem

A pesquisa incluiu 17 radiologistas de 12 instituições de seis países (Estados Unidos, França, Alemanha, Turquia, Reino Unido e Emirados Árabes Unidos). Sua experiência variou de iniciantes a especialistas com até 40 anos de prática. No total, o estudo examinou 264 imagens de raios X, divididas igualmente entre varreduras reais e geradas por IA.

Os participantes revisaram dois conjuntos de imagens separados, sem sobreposição. Um conjunto continha uma mistura de imagens reais e raios X gerados pelo ChatGPT de diferentes partes do corpo. O segundo conjunto focou em radiografias de tórax, metade reais e metade criadas usando RoentGen, um modelo de difusão de IA generativa de código aberto desenvolvido por pesquisadores da Stanford Medicine.

Precisão de detecção para radiologistas e IA

Quando os radiologistas não foram informados de que foram incluídas imagens falsas, apenas 41% reconheceram os raios X gerados por IA após avaliarem a sua qualidade técnica. Assim que foram informados da presença de imagens sintéticas, a precisão média em distinguir o real do falso aumentou para 75%.

O desempenho variou amplamente entre os indivíduos. Os radiologistas identificaram corretamente entre 58% e 92% das imagens geradas pelo ChatGPT. Os sistemas de IA mostraram limitações semelhantes. Quatro LLMs multimodais – GPT-4o (OpenAI), GPT-5 (OpenAI), Gemini 2.5 Pro (Google) e Llama 4 Maverick (Meta) – alcançaram taxas de precisão que variam de 57% a 85%. Mesmo o ChatGPT-4o, que foi usado para gerar as imagens deepfake, não detectou todas elas, embora tenha tido um desempenho melhor que os outros modelos.

Para as radiografias de tórax geradas pela RoentGen, os radiologistas alcançaram taxas de precisão entre 62% e 78%, enquanto os modelos de IA variaram de 52% a 89%.

A experiência não garante a detecção

O estudo não encontrou nenhuma ligação entre os anos de experiência de um radiologista e sua capacidade de identificar raios X falsos. No entanto, os radiologistas musculoesqueléticos tiveram desempenho significativamente melhor do que outros subespecialistas.

Pistas visuais em raios X Deepfake

Os pesquisadores identificaram vários padrões que podem aparecer em imagens sintéticas.

“Imagens médicas falsas muitas vezes parecem perfeitas demais”, disse Tordjman. “Os ossos são excessivamente lisos, as espinhas anormalmente retas, os pulmões excessivamente simétricos, os padrões dos vasos sanguíneos excessivamente uniformes e as fraturas parecem incomumente limpas e consistentes, muitas vezes limitadas a um lado do osso”.

Riscos e salvaguardas para imagens médicas

Os resultados destacam sérios riscos se os raios X falsos forem mal utilizados. Imagens fabricadas poderiam ser usadas em processos judiciais ou inseridas em sistemas hospitalares para influenciar diagnósticos e interromper cuidados.

Para reduzir estas ameaças, os investigadores recomendam proteções digitais mais fortes. Isso inclui marcas d’água invisíveis incorporadas diretamente nas imagens e assinaturas criptográficas vinculadas ao tecnólogo no momento da captura da imagem, o que pode ajudar a verificar a autenticidade.

O futuro da IA ​​em imagens médicas

“Potencialmente, estamos vendo apenas a ponta do iceberg”, disse Tordjman. “O próximo passo lógico nesta evolução é a geração de imagens 3D sintéticas por IA, como tomografia computadorizada e ressonância magnética. Estabelecer conjuntos de dados educacionais e ferramentas de detecção agora é fundamental.”

Para apoiar a educação e a conscientização, os pesquisadores lançaram um conjunto de dados deepfake com curadoria que inclui questionários interativos para fins de treinamento.

Share this post

Post Comment