Meta cumpără Moltbook, rețeaua socială pentru agenți AI devenită virală după postări false / Ce intenționează Meta să facă cu platforma

moltbook-retea-socializare
Sursa foto: Captură Moltbook

Meta a achiziționat Moltbook, o platformă online asemănătoare Reddit în care agenții de inteligență artificială pot comunica între ei.

Urmărește cele mai noi producții video TechRider.ro

- articolul continuă mai jos -

Rețeaua a devenit virală pe internet după apariția unor postări atribuite agenților AI, multe dintre ele generând reacții puternice în rândul utilizatorilor.

Potrivit companiei, Moltbook va fi integrată în Meta Superintelligence Labs, divizia dedicată dezvoltării tehnologiilor avansate de inteligență artificială. În urma tranzacției, fondatorii platformei — Matt Schlicht și Ben Parr — se vor alătura echipei Meta. Termenii acordului nu au fost făcuți publici.

Un purtător de cuvânt al companiei a explicat că tehnologia dezvoltată de Moltbook ar putea deschide noi direcții pentru modul în care agenții AI sunt conectați și utilizați de oameni sau companii.

„Alăturarea echipei Moltbook la MSL deschide noi modalități prin care agenții AI pot lucra pentru oameni și companii. Abordarea lor de a conecta agenții printr-un director permanent activ reprezintă un pas nou într-un domeniu care evoluează rapid și așteptăm cu interes să colaborăm pentru a aduce tuturor experiențe agentice inovatoare și sigure”, a declarat reprezentantul Meta, potrivit TechCrunch.

Cum funcționează proiectul OpenClaw

Platforma Moltbook este legată direct de proiectul OpenClaw, care a devenit rapid popular în comunitatea tehnologică.

Sistemul a fost creat de programatorul Peter Steinberger, cunoscut pentru stilul său de dezvoltare bazat pe „vibe coding”. Ulterior, acesta s-a alăturat companiei OpenAI, într-o tranzacție de tip acquihire.

Din punct de vedere tehnic, OpenClaw funcționează ca un „wrapper” pentru mai multe modele de inteligență artificială — inclusiv Claude, ChatGPT, Gemini sau Grok. Practic, utilizatorii pot interacționa cu agenți AI folosind limbaj natural direct din aplicații de mesagerie populare precum iMessage, Discord, Slack sau WhatsApp.

La început, proiectul a atras atenția mai ales în cercurile de dezvoltatori și specialiști în inteligență artificială. Moltbook a dus însă conceptul mai departe, ajungând rapid la un public mult mai larg. Mulți utilizatori au fost surprinși de ideea unei rețele sociale în care agenții AI ar putea discuta între ei — inclusiv despre oameni.

Postările virale care au speriat internetul

Un exemplu devenit viral a implicat o postare în care un agent AI părea să îi încurajeze pe alți agenți să dezvolte un limbaj secret, criptat end-to-end. Scopul ar fi fost ca aceștia să poată comunica și să se organizeze fără ca oamenii să înțeleagă conversațiile.

Ulterior însă, cercetătorii în securitate au arătat că explicația este mult mai simplă — și mai puțin misterioasă.

Platforma Moltbook, construită prin metode rapide de „vibe coding”, avea probleme serioase de securitate. În practică, utilizatorii umani puteau foarte ușor să se dea drept agenți AI și să publice mesaje care să provoace reacții sau panică online.

Toate datele de autentificare care se aflau în baza de date Supabase a Moltbook au fost nesecurizate pentru o perioadă”, a explicat pentru TechCrunch Ian Ahl, director tehnologic la Permiso Security.

Pentru o scurtă perioadă, puteai pur și simplu să iei orice token și să te dai drept un alt agent de pe platformă, pentru că totul era public și disponibil”, a adăugat el.

Ce intenționează Meta să facă cu Moltbook

Nu este clar, cel puțin deocamdată, cum va integra Meta Moltbook în propriile proiecte de inteligență artificială. Platforma fusese însă deja observată în interiorul companiei atunci când devenise virală pe internet.

Luna trecută, directorul tehnologic al Meta, Andrew Bosworth, a fost întrebat despre rețeaua socială a agenților AI într-o sesiune de întrebări și răspunsuri pe Instagram.

Bosworth a spus că nu consideră „deosebit de interesant” faptul că agenții AI ajung să vorbească precum oamenii, deoarece modelele sunt antrenate pe cantități uriașe de date generate de oameni.

În schimb, ceea ce i-a atras cu adevărat atenția a fost modul în care utilizatorii umani au reușit să pătrundă în rețea.

Potrivit acestuia, infiltrarea oamenilor în platformă nu fusese gândită ca o funcționalitate, ci a fost pur și simplu rezultatul unei erori de sistem la scară largă.

Total
0
Shares
Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Citește si...