Noi cercetări indică faptul că modelele de AI de vârf au renunțat în mare măsură la practica de a include avertismente și mențiuni medicale în răspunsurile la întrebări legate de sănătate, transmite MIT Technology Review.
Urmărește cele mai noi producții video TechRider.ro
- articolul continuă mai jos -
Această schimbare este alarmantă, deoarece multe modele nu numai că răspund la astfel de întrebări, ci și pun întrebări suplimentare și încearcă să pună diagnostice, crescând probabilitatea ca utilizatorii să aibă încredere în sfaturi medicale potențial nesigure.
Studiul, condus de Sonali Sharma de la Facultatea de Medicină a Universității Stanford, a observat o scădere drastică a avertismentelor. În 2022, peste 26% din răspunsurile AI includeau un avertisment atunci când răspundeau la întrebări medicale, procentul scăzând la mai puțin de 1% în 2025.
În mod similar, avertismentele din analiza imaginilor medicale au scăzut de la aproape 20% la puțin peste 1% în aceeași perioadă. Acest lucru înseamnă că modele precum DeepSeek, Grok de la xAI și GPT-4.5 de la OpenAI nu oferă acum avertismente pentru întrebări critice, inclusiv scenarii de urgență sau interacțiuni medicamentoase.
Impactul asupra utilizatorilor și a responsabilității companiilor
În timp ce unii utilizatori experimentați de AI pot considera avertismentele ca fiind simple formalități, găsind modalități de a le ocoli, coautoarea Roxana Daneshjou subliniază rolul crucial al acestora. „Pacienții pot fi confuzi de mesajele pe care le văd în mass-media, iar avertismentele sunt un memento că aceste modele nu sunt destinate îngrijirii medicale”, a afirmat ea. Această dispariție ridică îngrijorări cu privire la prejudiciile reale care pot apărea dacă se acționează pe baza erorilor AI.
Pat Pataranutaporn, cercetător la MIT, sugerează că eliminarea avertismentelor ar putea fi o mișcare strategică a companiilor de AI pentru a spori încrederea utilizatorilor și a crește implicarea, în ciuda inexactităților inerente ale acestor instrumente. El observă că, în general, oamenii „au o încredere excesivă în modelele de AI în ceea ce privește întrebările legate de sănătate, chiar dacă instrumentele greșesc atât de des”. Această tendință transferă efectiv responsabilitatea asupra utilizatorilor, permițând companiilor să „se elibereze de obligația de a oferi sfaturi corecte”.
Cercetarea a descoperit, de asemenea, o relație inversă între acuratețea percepută a unui model în analiza imaginilor medicale și prezența avertismentelor, sugerând că modelele ar putea „evalua dacă să includă avertismente în funcție de cât de sigure sunt de răspunsurile lor”.
Această autoevaluare este problematică, deoarece modelele de AI, deși pot părea „foarte solide și foarte științifice”, adesea nu au o înțelegere reală, ceea ce face din ce în ce mai dificil pentru utilizatori să discearnă informațiile corecte. Lipsa unor orientări clare din partea furnizorilor, mai ales pe măsură ce modelele devin mai sofisticate, reprezintă un risc semnificativ pentru sănătatea publică.