AI-ul nu este Google / Ce trebuie să știi înainte de a folosi un chatbot ca motor de căutare

Chatbotul cu inteligență artificiala ChatGPT, creat de start-up-ul OpenAI
Sursa foto: Robert W / Alamy / Profimedia

În timpul Primului Război Mondial, guvernul britanic căuta modalități de a ajuta populația să își suplimenteze rațiile alimentare limitate. A dat peste broșuri ale unui botanist din secolul al XIX-lea care susținea că frunzele de rubarbă pot fi consumate ca legumă, alături de tulpini. Guvernul a tipărit propriile pliante prin care sfătuia oamenii să mănânce frunzele de rubarbă în salată, în loc să le arunce.

Urmărește cele mai noi producții video TechRider.ro

- articolul continuă mai jos -

Exista însă o problemă majoră, frunzele de rubarbă sunt toxice. S-a raportat ulterior că oameni care au urmat indicațiile de pe pliante au murit sau s-au îmbolnăvit. Sfatul a fost retras și pliantele au fost scoase din circulație.

Dar în timpul celui de-Al Doilea Război Mondial, istoria s-a repetat. Guvernul a găsit un stoc de materiale vechi din primul conflict, care includea și informațiile despre rubarbă. Reutilizarea lor părea eficientă. Au fost redistribuite publicului. Din nou, oameni au murit sau s-au îmbolnăvit.

Aceasta este, în esență, povestea despre cum dezinformarea poate produce victime chiar și după ce eroarea inițială a fost corectată. Și lecția ei răsună cu forță în era inteligenței artificiale generative, subliniază The Conversation.

Chatboții nu sunt motoare de căutare

Platforme precum ChatGPT sau Claude nu funcționează ca un motor de căutare convențional. Totuși, tot mai mulți oameni le folosesc în acest scop, pentru că par să rezume rapid subiecte complexe și necesită mai puține click-uri decât o căutare obișnuită pe internet.

Diferența este fundamentală. Motoarele de căutare clasice identifică articole și texte despre un subiect, apoi evaluează fiabilitatea surselor. Inteligența artificială generativă, în schimb, se bazează pe volume enorme de text din care calculează probabilitatea ca anumite cuvinte să apară împreună. Aceste modele lingvistice de mari dimensiuni nu caută adevărul. Ele doar caută să genereze propoziții care par rezonabile.

Cu alte cuvinte, dacă în baza sa de date o combinație de cuvinte apare suficient de des, modelul o va reproduce, indiferent dacă este corectă sau nu.

„Răspunsuri plauzibile, dar incorecte”

OpenAI, compania care a dezvoltat ChatGPT, a recunoscut că nu există o modalitate de a împiedica prezentarea informațiilor false drept adevăr, din cauza modului în care funcționează aceste sisteme. Explicând fenomenul cunoscut drept „halucinație”, cercetătorii companiei au scris că modelele lingvistice mari „ghicesc uneori când sunt nesigure, și produc afirmații plauzibile, dar incorecte, în loc să admită incertitudinea”.

Consecințele pot fi grave. Un studiu recent a arătat că ChatGPT a eșuat să recunoască o urgență medicală în mai mult de jumătate din cazuri. Un cercetător a explicat că inteligența artificială generativă „oferă răspunsul greșit cu exact același nivel de încredere ca și cel corect”. Un alt om de știință a rezumat problema simplu: modelul „găsește și imită tipare de cuvinte. A fi corect sau greșit nu este cu adevărat relevant, trebuia să producă o propoziție și a făcut-o”.

Studiile arată că instrumentele AI generativă prezintă greșit știrile în 45% din cazuri, indiferent de limbă sau regiune geografică.

Când greșelile devin periculoase

Unele erori sunt amuzante, cum ar fi când AI recomandă să mănânci pietre sau să lipești toppingurile pe blatul de pizza cu clei. Altele, însă, nu sunt deloc hazlii.

Un planificator de mese dintr-o aplicație de supermarket a sugerat o rețetă care ar fi produs clor. Un alt sistem a oferit sfaturi dietetice care au lăsat un utilizator cu o afecțiune cronică după o expunere toxică la bromuri. Există, de asemenea, îngrijorări reale cu privire la rute de drumeție inexistente generate de AI, care pot pune vieți în pericol.

La nivel instituțional, situația este la fel de îngrijorătoare. Politicienii folosesc deja AI generativă în activitatea lor curentă, inclusiv pentru cercetare de politici publice. Departamentele de urgență din spitale utilizează instrumente AI pentru a consemna notele pacienților. O anchetă din Regatul Unit din 2025 a constatat că erorile din dosarele medicale afectează până la unul din patru pacienți, erori care pot fi preluate și amplificate de sistemele AI.

Caută informații produse înainte ca textele generate de AI să fi inundat internetul

Educația și stabilirea unor reguli clare privind utilizarea prudentă a AI sunt esențiale. O măsură practică este să cauți informații produse înainte ca textele generate de AI să fi inundat internetul. Există deja instrumente care filtrează conținutul creat anterior datei de 30 noiembrie 2022, ziua în care ChatGPT a fost lansat public pentru prima oară.

Și dacă instinctul tău este să verifici povestea cu rubarba de la începutul acestui articol, cărțile tipărite rămân o sursă de încredere. Referințe la episoadele de otrăvire încurajate de guvernul britanic se găsesc în lucrări specializate de botanică toxicologică.

Chatboții AI pot fi instrumente utile. Dar a le confunda cu o enciclopedie sau cu un motor de căutare de încredere este o greșeală cu potențial de consecințe reale, uneori chiar periculoase.

  • George Radu este un autor care abordează subiecte variate din domeniul tehnologiei, apărării și viitorului. Domeniile sale de expertiză includ inteligența artificială etică, interfețele om-mașină (HMI), realitatea augmentată și virtuală aplicată (XR), precum și impactul social și cultural al noilor tehnologii. Nu se teme să pună întrebări dificile și să exploreze implicațiile filozofice ale inovațiilor tehnologice.

Total
0
Shares
Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Citește si...