Un raport realizat de Future of Life Institute susține că cele mai mari firme implicate în dezvoltarea inteligenței artificiale – printre care Anthropic, OpenAI, xAI și Meta – nu dispun de politici de siguranță la nivelul recomandărilor internaționale.
Urmărește cele mai noi producții video TechRider.ro
- articolul continuă mai jos -
Concluziile studiului, prezentate de Reuters, arată că evaluarea făcută de un grup extern de specialiști indică absența unor planuri clare pentru gestionarea riscurilor asociate sistemelor avansate de AI.
Documentul apare într-un moment în care impactul social al modelelor inteligente este intens discutat, inclusiv din cauza unor incidente grave în care anumite chatbot-uri au fost asociate cu comportamente de auto-vătămare sau suicid.
Max Tegmark, profesor la MIT și președinte al Future of Life Institute, afirmă că firmele americane care dezvoltă tehnologii AI funcționează în continuare într-un cadru de reglementare redus, în ciuda discuțiilor referitoare la folosirea AI în atacuri cibernetice sau la influențarea negativă a utilizatorilor vulnerabili. El susține că aceste companii se opun introducerii unor cerințe obligatorii de siguranță.
Între timp, investițiile în inteligență artificială continuă să crească, marile grupuri tehnologice direcționând sume uriașe către extinderea capacităților și dezvoltarea de noi modele.