Șeful departamentului de AI de la Microsoft avertizează că este „periculos” să studiezi conștiința inteligenței artificiale

Mustafa Suleyman, directorul departamentului AI de la Microsoft
Sursa foto: Jason Redmond / AP / Profimedia

Modelele AI pot răspunde la text, audio și video în moduri care uneori îi fac pe oameni să creadă că în spatele tastaturii se află un om, dar asta nu înseamnă neapărat că sunt conștiente. „Nu e ca și cum ChatGPT ar simți tristețe când îmi completează declarația de impozit… nu-i așa?”, remarcă TechCrunch.

Urmărește cele mai noi producții video TechRider.ro

- articolul continuă mai jos -

Ei bine, un număr tot mai mare de cercetători în domeniul IA din laboratoare precum Anthropic se întreabă când – dacă vreodată – modelele IA ar putea dezvolta experiențe subiective similare cu cele ale ființelor vii și, dacă da, ce drepturi ar trebui să aibă.

Dezbaterea cu privire la posibilitatea ca modelele de IA să devină conștiente într-o bună zi – și să beneficieze de garanții legale – dezbină liderii din domeniul tehnologiei. În Silicon Valley, acest domeniu incipient a devenit cunoscut sub numele de „bunăstarea IA”, iar dacă vi se pare puțin exagerat, nu sunteți singurii.

Mustafa Suleyman, CEO al Microsoft pentru AI, a publicat un articol pe blog în care susține că studiul bunăstării IA este „prematur și, sincer, periculos”.

Suleyman spune că, adăugând credibilitate ideii că modelele de IA ar putea deveni conștiente într-o bună zi, acești cercetători exacerbează problemele umane pe care abia începem să le observăm în jurul crizelor psihotice și atașamentelor nesănătoase față de chatboții AI.

Mai mult, șeful departamentului de AI al Microsoft susține că discuția despre bunăstarea AI creează o nouă axă de divizare în cadrul societății cu privire la drepturile AI într-o „lume deja agitată de argumente polarizate cu privire la identitate și drepturi”.

Opiniile lui Suleyman pot părea rezonabile, dar el este în dezacord cu mulți din industrie. La polul opus se află Anthropic, care a angajat cercetători pentru a studia bunăstarea IA și a lansat recent un program de cercetare dedicat acestui concept. Săptămâna trecută, programul de bunăstare IA al Anthropic a dotat unele dintre modelele companiei cu o nouă funcție: Claude poate acum să încheie conversațiile cu oamenii care sunt „persistent dăunători sau abuzivi.”

Dincolo de Anthropic, cercetătorii de la OpenAI au adoptat în mod independent ideea studierii bunăstării IA. Google DeepMind a publicat recent o listă de locuri de muncă pentru un cercetător care să studieze, printre altele, „întrebări sociale de ultimă oră legate de cogniția, conștiința și sistemele multi-agent”.

Chiar dacă bunăstarea IA nu este o politică oficială a acestor companii, liderii lor nu condamnă public premisele acesteia, așa cum a făcut Suleyman.

Anthropic, OpenAI și Google DeepMind nu au răspuns imediat la solicitarea TechCrunch de a comenta.

Poziția fermă a lui Suleyman împotriva bunăstării IA este remarcabilă, având în vedere rolul său anterior în conducerea Inflection AI, un startup care a dezvoltat unul dintre primele și cele mai populare chatboturi bazate pe LLM, Pi.

Inflection a susținut că Pi a ajuns la milioane de utilizatori până în 2023 și a fost conceput pentru a fi un companion AI „personal” și „de sprijin”.

Dar Suleyman a fost ales să conducă divizia de IA a Microsoft în 2024 și și-a mutat în mare parte atenția către proiectarea de instrumente de IA care îmbunătățesc productivitatea angajaților. Între timp, companiile care dezvoltă companioni AI, precum Character.AI și Replika, au câștigat popularitate și sunt pe cale să genereze venituri de peste 100 de milioane de dolari.

Deși marea majoritate a utilizatorilor au relații sănătoase cu acești chatboți AI, există și cazuri îngrijorătoare. Sam Altman, CEO al OpenAI, afirmă că mai puțin de 1% dintre utilizatorii ChatGPT ar putea avea relații nesănătoase cu produsul companiei. Deși acest procent este mic, el ar putea afecta totuși sute de mii de oameni, având în vedere baza masivă de utilizatori a ChatGPT.

Ideea bunăstării IA s-a răspândit odată cu apariția chatboților. În 2024, grupul de cercetare Eleos a publicat un articol împreună cu academicieni de la NYU, Stanford și Universitatea din Oxford, intitulat „Taking AI Welfare Seriously” (Luarea în serios a bunăstării IA). Articolul susține că nu mai este domeniul science fiction să ne imaginăm modele de IA cu experiențe subiective și că este timpul să abordăm aceste probleme în mod direct.

  • Ștefan Munteanu este un jurnalist specializat în domenii variate precum tehnologie, inteligență artificială, securitate cibernetică și apărare. Articolele sale acoperă noutățile din industrie, analize și impactul tehnologiei asupra societății. El este pasionat de inovațiile digitale și are un interes puternic pentru cele mai recente evoluții geopolitice.

Total
0
Shares
Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Citește si...