Tot mai mulți specialiști compară lansarea ChatGPT cu detonarea primei bombe atomice / Ambele au „poluat” la fel de mult

ChatGPT pe ecranul unui laptop
Photo by Aidin Geranrekab on Unsplash

Cercetătorii în domeniul inteligenței artificiale consideră că lansarea ChatGPT în urmă cu aproape 3 ani a schimbat lumea la fel de mult precum a schimbat-o prima bombă atomică. Maurice Chiodo, cercetător la Universitatea din Cambridge, spune că „oricine se folosește de inteligența artificială generativă poluează sursa de date pentru toată lumea”, relatează The Register.

Urmărește cele mai noi producții video TechRider.ro

- articolul continuă mai jos -

Unii cercetători din domeniul AI susțin că lumea are nevoie de surse de date curate, similare cu oțelul cu fond redus de radiații, pentru a menține funcționarea modelelor Ai și pentru a păstra concurența.

„Nu este vorba doar de securitatea epistemică a informațiilor și de ceea ce vedem ca fiind adevărat, ci de ceea ce este necesar pentru a construi un AI generativ, un model de gamă largă, astfel încât să producă un rezultat care să fie comprehensibil și care să fie cumva utilizabil”, a spus Chiodo.

Ce legătură este între AI și oțelul cu fond redus de radiații?

Testul Trinity, desfășurat în New Mexico pe 16 iulie 1945, a marcat începutul erei atomice. Un efect al acestui moment istoric a fost contaminarea metalelor fabricate după acea dată, ca urmare a particulelor radioactive transportate în atmosferă de la Trinity și alte arme nucleare, care au pătruns în mediul înconjurător.

Metalele contaminate au interferat cu funcționarea echipamentelor medicale și tehnice sensibile. Astfel, până de curând, oamenii de știință implicați în producția acestor dispozitive căutau metale necontaminate de radiația de fond, denumite „oțel cu radiație de fond scăzută”, „plumb cu radiație de fond scăzută” și altele similare.

La scurt timp după apariția ChatGPT, specialiștii în tehnologie au început să se întrebe dacă nu cumva explozia recentă a modelelor AI a creat și o formă de „contaminare”.

Îngrijorarea lor a fost aceea că modelele AI sunt antrenate cu date sintetice create de alte modele AI. Generațiile următoare de modele AI ar putea deveni astfel tot mai puțin fiabile, un fenomen cunoscut sub numele de „colapsul modelelor AI”.

„Poți construi un model foarte utilizabil care minte”

Plecând de la acest model, cercetătorul de la Universitatea din Cambridge spune că este necesară o bază de date cât mai curată pentru ca inteligența artificială să producă rezultate corecte. „Poți construi un model foarte utilizabil care minte. Poți construi un model destul de inutil care spune adevărul”, mai spune acesta.

Tot acesta recunoaște că este dificil să facem ordine în mediul AI, și trebuie să începem prin etichetarea forțată a conținutului realizat cu ajutorul inteligenței artificiale. Dar și aici apar probleme, precum riscuri de confidențialitate și securitate.

„Oricine poate distribui date oriunde pe internet, iar din cauza acestei colectări masive de date, este foarte greu să forțezi toate modelele de limbaj mari (LLM) să adauge întotdeauna un watermark în textele pe care le generează”, a subliniat acesta.

Guvernele trebuie să se implice în dezvoltarea corectă a AI

Chiodo spune că este esențial să existe anumite reglementări în domeniul inteligenței artificiale, iar guvernelor ar trebui să le pese mai mult de ce se petrece în acest domeniu.

După cum observă acesta, există și alte riscuri legate de păstrarea unei baze centralizate, administrate de guvern, cu date necontaminate.

„Există riscuri legate de confidențialitate și securitate pentru aceste cantități vaste de date, deci ce păstrezi, ce nu păstrezi, cum ești atent cu ce păstrezi, cum o păstrezi în siguranță, cum asiguri stabilitatea politică. oți pune aceste date în mâinile unor guverne care astăzi sunt de încredere, dar mâine nu vor mai fi”, a declarat el.

„Dacă guvernului îi pasă de dezvoltarea pe termen lung, bună, productivă și competitivă a AI, a modelelor de servicii mari, atunci ar trebui să îi pese foarte mult de crearea de reglementări, ghiduri pentru ceea ce se va întâmpla cu seturile de date, cum am putea păstra unele seturi de date curate, cum am putea acorda acces la date”.

Uniunea Europeană deja are în lucru „AI Act”, primul set de reglementări din acest domeniu realizat la nivel european. Prin acest act, Uniunea Europeană impune anumite limite pentru inteligența artificială generativă, dar și încurajează start-up-uri din industrie să dezvolte și să testeze modele de AI cu scop general.

Total
0
Shares
Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Citește si...