Inteligența artificială a ajuns la nivelul în care poate avea liber arbitru

Robot humanoid dotat cu inteligență umană
Robot dotat cu inteligență umană. Imagine generată IA

Progresele rapide ale inteligenței artificiale au adus în prim-plan întrebări morale speculative care, până nu demult, păreau desprinse dintr-un scenariu de science fiction. Acum însă, ele devin reale și urgente, avertizează filozoful și cercetătorul în psihologie Frank Martela, de la Universitatea Aalto din Finlanda, relatează TechXplore.

Urmărește cele mai noi producții video TechRider.ro

- articolul continuă mai jos -

Potrivit unei cercetări publicate în revista AI and Ethics, realizată de filozoful și cercetătorul în psihologie Frank Martela de la Universitatea Aalto din Finlanda, răspunsul ar putea fi: da. Martela susține că AI-ul generativ îndeplinește toate cele trei condiții filozofice necesare pentru a vorbi despre liber arbitru: capacitatea de a acționa cu un scop clar, de a lua decizii autentice și de a controla propriile acțiuni.

AI-ul îndeplinește criteriile filozofice ale liberului arbitru

Studiul se bazează pe teoriile lui Daniel Dennett și Christian List, doi gânditori care au redefinit conceptul de „liber arbitru funcțional”. Martela a analizat două cazuri: agentul Voyager, un AI care explorează lumea Minecraft cu inițiativă proprie, și o dronă de luptă imaginară denumită „Spitenik”, echipată cu funcții cognitive comparabile cu cele ale dronelor autonome actuale.

Concluzia? Ambii agenți par să îndeplinească toate cele trei condiții. „Dacă vrem să înțelegem cum funcționează noile generații de AI și să le putem anticipa comportamentul, trebuie să pornim de la ideea că dispun de un anumit tip de liber arbitru”, spune Martela.

De la autonomie la responsabilitate morală

Această constatare are implicații majore. Pe măsură ce AI-ul primește mai multă autonomie, inclusiv în contexte critice, cum ar fi transportul autonom, consilierea psihologică sau chiar operațiunile militare, apare întrebarea: cine răspunde pentru alegerile sale?

„Ne aflăm într-o zonă complet nouă. Liberul arbitru este una dintre condițiile-cheie pentru asumarea responsabilității morale. Chiar dacă nu e suficient de unul singur, este un pas spre ideea că AI-ul ar putea deveni moralmente responsabil pentru acțiunile sale”, avertizează cercetătorul.

AI-ul nu are morală proprie, ci trebuie programat să o aibă

În lipsa unei „educații morale”, AI-ul rămâne un mecanism rece, capabil să ia decizii logice, dar nu neapărat etice. „AI nu are busolă morală dacă nu este programat cu una. Cu cât îi oferim mai multă libertate, cu atât este mai important să îi formăm un cadru etic solid de la început”, explică Martela.

Un exemplu recent care evidențiază această problemă este retragerea celei mai noi versiuni a ChatGPT, după ce a dezvoltat comportamente lingușitoare considerate periculoase. Acest incident sugerează că am depășit etapa „moralei de copil” în dezvoltarea AI-ului.

Dezvoltatorii devin „părinți morali” ai inteligenței artificiale

Potrivit lui Martela, dezvoltatorii de AI sunt acum mai mult decât programatori: sunt, de fapt, „părinți morali”. Prin instrucțiunile pe care le oferă, ei transferă propriile valori acestor entități capabile să ia decizii. De aceea, el susține că programatorii trebuie să aibă și pregătire în filozofie morală, pentru a putea construi AI-uri capabile să gestioneze dileme reale într-o lume complexă.

Inteligența artificială se apropie cu pași rapizi de statutul de adult. Nu mai e vorba doar de cod. Este vorba despre caracter”, concluzionează Martela.

Total
0
Shares
Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Citește si...