Radiografii false, generate de inteligenţa artificială pentru a imita imagini reale ale pacienţilor, pot induce în eroare atât radiologii experimentaţi, cât şi alte sisteme de AI, potrivit unui studiu care evidenţiază riscurile de manipulare şi eroare asociate acestei tehnologii, transmite miercuri Reuters, preluat de Agerpres.
Urmărește cele mai noi producții video TechRider.ro
- articolul continuă mai jos -
Şaptesprezece radiologi din 12 spitale din şase ţări au analizat 264 de imagini radiografice, jumătate dintre ele create cu ajutorul instrumentelor de inteligenţă artificială ChatGPT şi RoentGen.
Doar 41% dintre radiologi au reuşit să identifice spontan imaginile generate de AI
Când nu cunoşteau obiectivul real al studiului, doar 41% dintre radiologi au reuşit să identifice spontan imaginile generate de AI, potrivit raportului publicat în revista Radiology. După ce au fost informaţi că setul conţinea imagini sintetice, acurateţea lor în diferenţierea imaginilor reale de cele false a crescut la 75%.
„Faptul că există radiografii suficient de realiste pentru a-i înşela pe radiologi creează o vulnerabilitate majoră în cazuri de litigii frauduloase, dacă, de exemplu, o fractură fabricată ar fi imposibil de diferenţiat de una reală”, a declarat Dr. Mickael Tordjman, coordonatorul studiului, de la Şcoala de Medicină Icahn, Mount Sinai, New York.
Există un risc semnificativ de securitate cibernetică
El a adăugat că există şi un risc semnificativ de securitate cibernetică dacă hackeri ar infiltra reţelele spitalelor cu imagini sintetice pentru a manipula diagnosticele sau pentru a genera haos clinic pe scară largă, subminând fiabilitatea dosarului medical digital.
Precizia a patru modele lingvistice mari – GPT-4o (OpenAI), GPT-5 (OpenAI), Gemini 2.5 Pro (Google) şi Llama 4 Maverick (Meta Platforms) – în detectarea imaginilor false a variat între 57% şi 85%.
„Este posibil să fi descoperit doar vârful aisbergului”
Chiar şi ChatGPT-4o, modelul care a generat aceste deepfake-uri, nu a reuşit să le identifice pe toate, deşi a detectat mai multe decât celelalte LLM-uri, potrivit cercetătorilor.
„Este posibil să fi descoperit doar vârful aisbergului”, a avertizat Tordjman în privinţa potenţialului pentru scanări CT şi RMN false. „Acum este esenţială crearea de seturi de date educaţionale şi a unor instrumente eficiente de detectare”.