AI-ul poate crea radiografii false care induc în eroare atât medicii, cât și alte sisteme AI

Radiografie
Radiografie / credit foto: Anyaberkut | Dreamstime.com

Radiografii false, generate de inteligenţa artificială pentru a imita imagini reale ale pacienţilor, pot induce în eroare atât radiologii experimentaţi, cât şi alte sisteme de AI, potrivit unui studiu care evidenţiază riscurile de manipulare şi eroare asociate acestei tehnologii, transmite miercuri Reuters, preluat de Agerpres.

Urmărește cele mai noi producții video TechRider.ro

- articolul continuă mai jos -

Şaptesprezece radiologi din 12 spitale din şase ţări au analizat 264 de imagini radiografice, jumătate dintre ele create cu ajutorul instrumentelor de inteligenţă artificială ChatGPT şi RoentGen.

Doar 41% dintre radiologi au reuşit să identifice spontan imaginile generate de AI

Când nu cunoşteau obiectivul real al studiului, doar 41% dintre radiologi au reuşit să identifice spontan imaginile generate de AI, potrivit raportului publicat în revista Radiology. După ce au fost informaţi că setul conţinea imagini sintetice, acurateţea lor în diferenţierea imaginilor reale de cele false a crescut la 75%.

„Faptul că există radiografii suficient de realiste pentru a-i înşela pe radiologi creează o vulnerabilitate majoră în cazuri de litigii frauduloase, dacă, de exemplu, o fractură fabricată ar fi imposibil de diferenţiat de una reală”, a declarat Dr. Mickael Tordjman, coordonatorul studiului, de la Şcoala de Medicină Icahn, Mount Sinai, New York.

Există un risc semnificativ de securitate cibernetică

El a adăugat că există şi un risc semnificativ de securitate cibernetică dacă hackeri ar infiltra reţelele spitalelor cu imagini sintetice pentru a manipula diagnosticele sau pentru a genera haos clinic pe scară largă, subminând fiabilitatea dosarului medical digital.

Precizia a patru modele lingvistice mari – GPT-4o (OpenAI), GPT-5 (OpenAI), Gemini 2.5 Pro (Google) şi Llama 4 Maverick (Meta Platforms) – în detectarea imaginilor false a variat între 57% şi 85%.

„Este posibil să fi descoperit doar vârful aisbergului”

Chiar şi ChatGPT-4o, modelul care a generat aceste deepfake-uri, nu a reuşit să le identifice pe toate, deşi a detectat mai multe decât celelalte LLM-uri, potrivit cercetătorilor.

„Este posibil să fi descoperit doar vârful aisbergului”, a avertizat Tordjman în privinţa potenţialului pentru scanări CT şi RMN false. „Acum este esenţială crearea de seturi de date educaţionale şi a unor instrumente eficiente de detectare”.

  • TechRider este o redacție dinamică, specializată în știri și analize despre tehnologie, gadgeturi și inovații. Echipa sa de jurnaliști pasionați oferă conținut relevant și actualizat, acoperind subiecte de la inteligența artificială la recenzii de produse, într-un stil accesibil și captivant pentru publicul român.

Total
0
Shares
Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Citește si...