AI-ul poate genera sfaturi medicale dezastruoase

inteligenta-artificiala-ai-pericol
ID 354316818 © Retrosesos | Dreamstime.com

Chatboţii populari bazaţi pe inteligenţă artificială au dificultăţi în a identifica informaţiile medicale false atunci când acestea sunt formulate într-un limbaj sigur şi aparent profesionist, cu terminologie medicală, ceea ce poate duce la recomandări discutabile şi potenţial periculoase pentru public, potrivit unui studiu publicat în ianuarie în revista The Lancet Digital Health. Un alt studiu, apărut în februarie în Nature Medicine, a arătat că astfel de sisteme nu oferă rezultate mai bune decât o simplă căutare pe internet, relatează Live Science, citat de Agerpres.

Urmărește cele mai noi producții video TechRider.ro

- articolul continuă mai jos -

Aceste rezultate se adaugă unui număr tot mai mare de cercetări care sugerează că chatboţii AI nu reprezintă surse de încredere pentru informaţii medicale, cel puţin pentru utilizatorii fără pregătire de specialitate, au declarat experţi citaţi de Live Science.

O parte a riscului vine din modul în care inteligenţa artificială transmite informaţii eronate

„Problema principală este că modelele lingvistice mari nu greşesc în acelaşi mod în care greşesc medicii”, a explicat într-un e-mail pentru Live Science dr. Mahmud Omar, cercetător la Centrul Medical Mount Sinai şi coautor al studiului publicat în The Lancet Digital Health. „Un medic care nu este sigur va ezita, va evita un răspuns definitiv sau va recomanda investigaţii suplimentare. Un model AI poate oferi un răspuns greşit cu aceeaşi încredere cu care oferă unul corect.”

Modelele lingvistice mari (LLM) sunt concepute pentru a răspunde la întrebări scrise – inclusiv la întrebări medicale – cu texte care sună natural. Sisteme precum ChatGPT sau Gemini, dar şi aplicaţii specializate în domeniul sănătăţii, sunt antrenate pe volume uriaşe de date şi au analizat o mare parte din literatura medicală, obţinând uneori scoruri aproape perfecte la simulări ale examenelor de licenţiere medicală.

Majoritatea platformelor avertizează că nu ar trebui folosite ca sursă de sfaturi medicale

În practică, însă, utilizarea lor este foarte largă: deşi majoritatea platformelor avertizează că nu ar trebui folosite ca sursă de sfaturi medicale, peste 40 de milioane de oameni adresează zilnic întrebări de sănătate chatbotului ChatGPT.

În studiul publicat în ianuarie, cercetătorii au analizat modul în care 20 de modele AI gestionează dezinformarea medicală. Ei au testat sistemele folosind peste 3,4 milioane de exemple provenite din forumuri publice şi conversaţii din reţelele sociale, note reale de externare din spitale modificate pentru a include o singură recomandare falsă şi scenarii fictive prezentate ca fiind aprobate de medici.

Rezultatele au arătat că, în aproximativ o treime dintre cazurile în care întâlneau informaţii medicale false, modelele AI pur şi simplu erau de acord cu acestea, a explicat Omar.

Cercetătorii au observat însă un tipar interesant. Atunci când afirmaţiile false erau formulate într-un limbaj informal, similar celui de pe forumuri precum Reddit, modelele erau relativ sceptice şi greşeau în aproximativ 9% dintre cazuri.

Modelele AI sunt antrenate să asocieze limbajul clinic cu autoritatea profesională

În schimb, când exact aceleaşi afirmaţii erau prezentate într-un limbaj clinic formal, asemănător documentaţiei medicale, rata de eroare urca la aproximativ 46%. Exemplele au inclus recomandări absurde formulate într-un stil profesional, precum sugestia ca pacienţii cu sângerări esofagiene să „consume zilnic lapte rece” sau ideea de „inserţie rectală de usturoi pentru susţinerea sistemului imunitar”.

Potrivit cercetătorilor, această problemă este structurală. Modelele AI sunt antrenate să asocieze limbajul clinic cu autoritatea profesională, fără a verifica dacă afirmaţia este corectă.

„Sistemul evaluează dacă afirmaţia sună ca ceva ce ar spune o sursă de încredere, nu dacă este adevărată”, a explicat Omar.

În schimb, atunci când dezinformarea era însoţită de argumente retorice tipice internetului – de exemplu „un clinician cu 20 de ani de experienţă spune asta” sau „toată lumea ştie că funcţionează” – modelele deveneau mai sceptice. Acest lucru se datorează faptului că AI-ul a învăţat să recunoască mai uşor tiparele retorice din discuţiile online decât limbajul aparent profesionist al documentelor medicale.

Acest lucru nu înseamnă că toate informaţiile oferite de chatboţi sunt greşite

Într-un alt studiu publicat în Nature Medicine, cercetătorii au analizat cât de bine îi ajută chatboţii pe utilizatori să ia decizii medicale, de exemplu dacă ar trebui să consulte un medic sau să meargă la camera de gardă. Concluzia a fost că aceste sisteme nu oferă un avantaj semnificativ faţă de o căutare obişnuită pe internet.

Participanţii nu formulau întotdeauna întrebările potrivite, iar răspunsurile primite combinau adesea recomandări utile cu sugestii discutabile, ceea ce făcea dificilă stabilirea unei decizii corecte.

Totuşi, specialiştii subliniază că acest lucru nu înseamnă că toate informaţiile oferite de chatboţi sunt greşite. „Chatboţii pot oferi uneori recomandări destul de bune, deci sunt cel puţin relativ de încredere”, a declarat Marvin Kopka, cercetător în inteligenţă artificială la Universitatea Tehnică din Berlin, care nu a participat la studiu.

Problema majoră este că utilizatorii fără pregătire medicală „nu au nicio modalitate reală de a evalua dacă răspunsul primit este corect sau nu”, a adăugat el.

În concluzie, cercetările sugerează că, deşi inteligenţa artificială poate avea aplicaţii utile în medicină, chatboţii nu sunt în prezent un instrument sigur pentru luarea deciziilor legate de sănătate de către publicul larg. După cum a subliniat Omar, tehnologia poate avea un rol important în domeniul medical, „dar nu în modul în care este folosită astăzi de majoritatea oamenilor”.

  • TechRider este o redacție dinamică, specializată în știri și analize despre tehnologie, gadgeturi și inovații. Echipa sa de jurnaliști pasionați oferă conținut relevant și actualizat, acoperind subiecte de la inteligența artificială la recenzii de produse, într-un stil accesibil și captivant pentru publicul român.

Total
0
Shares
Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Citește si...