Regândirea inteligenței artificiale / Cercetători propun un model mai eficient, inspirat de creierul uman

Inteligența artificială în modul computer
Imagine generată cu DeepAI

Pe măsură ce modelele de inteligență artificială devin tot mai mari și mai costisitoare, atât din punct de vedere financiar, cât și energetic, o nouă abordare vine să schimbe paradigma: mai puțin înseamnă mai mult. O echipă de la Rensselaer Polytechnic Institute (RPI), New York, și City University din Hong Kong susține că viitorul AI nu stă în extinderea pe orizontală (mai multe date, mai multe straturi), ci pe verticală,adăugând rețelelor o „adâncime” internă, similară arhitecturii cerebrale, și bucle de feedback pentru autoanaliză și reglaj intern, relatează TechXplore.

Urmărește cele mai noi producții video TechRider.ro

- articolul continuă mai jos -

Cercetarea, publicată în revista Patterns sub titlul „Dimensionality and dynamics for next-generation neural networks”, propune un nou cadru de dezvoltare a rețelelor neuronale artificiale. Acesta le-ar permite să învețe mai eficient, să se adapteze mai ușor și să devină mai sustenabile, reducând uriașul consum de resurse asociat în prezent cu antrenarea modelelor de tipul GPT sau DALL·E.

Inteligență artificială cu amprentă redusă

„Această arhitectură AI nu doar că îmbunătățește eficiența, ci deschide și noi orizonturi practice,” explică profesorul Ge Wang, coordonatorul studiului și director al Centrului de Imagistică Biomedicală din cadrul RPI. „Poate contribui esențial la evoluția inteligenței artificiale de nouă generație și ne poate ajuta, în același timp, să înțelegem mai bine cum funcționează creierul uman”.

Prin introducerea unei dimensiuni verticale și a unor mecanisme recursive de reglare, sistemele AI ar putea deveni mai „conștiente” de propriile decizii, capabile să reflecte și să-și ajusteze răspunsurile, un pas important către modele mai transparente și mai explicabile.

Unul dintre cele mai promițătoare efecte ale noii arhitecturi este reducerea masivă a consumului de resurse. Modelele de tip „deep learning” actuale necesită centre de date gigantice și cantități uriașe de energie. O abordare inspirată de eficiența creierului uman ar putea democratiza accesul la tehnologii avansate de AI și ar reduce impactul asupra mediului.

Aplicații în medicină, educație și neuroștiințe

Noile modele propuse de echipa RPI ar putea avea aplicații revoluționare în medicina personalizată, robotică și educație adaptivă. Dar una dintre direcțiile cele mai interesante vizează chiar neuroștiințele: rețelele inspirate de creier ar putea deveni un instrument valoros în studiul bolilor neurologice, precum Alzheimer sau epilepsia.

„Această cercetare nu este doar despre AI mai performantă, ci despre AI care e sustenabilă, accesibilă și capabilă să ne ofere explicații. Și, pe parcurs, s-ar putea să învățăm mai multe și despre noi înșine,” concluzionează Wang.

Studiul semnat de Ge Wang și fostul său doctorand Fenglei Fan, acum profesor la City University din Hong Kong, consolidează poziția RPI ca un jucător-cheie în avangarda cercetării AI. Institutul este deja implicat în proiecte majore precum parteneriatul cu IBM sau inițiativa Future of Computing, care vizează dezvoltarea unei inteligențe artificiale în slujba umanității – mai puțin opacă, mai eficientă și mai apropiată de modul de gândire uman.

Total
0
Shares
1 comentariu
  1. Un alt articol bun numai de gargară. E singura dată când o să zic asta, așa ca vă rog ciuliți urechile și trageți bine ochii aici, că oricum nu-mi veți aproba comentariul ăsta ca și pe celelalte pe care am încercat sa le las pe G4Media și aici, deși nu încalcalau dreptul la liberă exprimare în niciun fel.

    AI-ul e reprezentat de modele statistice. Ele nu gândesc, ci manifestă într-o manieră practică, predictivă recurent în cazul GenAI, diferite distribuții de date. Toate descoperirile în domeniul acesta vin fie cu demonstrații (cum o face elegant articolula acesta abia acceptat la ICLR, o conferință de top din domeniu: https://openreview.net/forum?id=aZ1gNJu8wO, indicând o ipoteză despre felul în care modelele categoric ȘI memorează comportamente din datele din care învață), fie prin caracter empiric, reproductibil.

    Lucrarea la care face referire articolul pe care l-ați preluat este un „what if” pe care lumea deja l-a gândit de zeci de ani prin diverse arhitecturi, fără a da roade prin complexitatea ridicată a modelelor. Unde sunt experimentele lucrării la care faceți referire? Unde sunt rezultatele? Unde-i caracterul matematic? Cine a mai auzit de jurnalul pe care-l citați?

    Vă folosiți încontinuu de astfel de surse nelegitime, uneori chiar obscure, ca să propagați idei ușor de click-uit.

    Cum numiți asta jurnalism când e doar muncă de mântuială?

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Citește si...