OpenAI a început procesul de recrutare pentru un nou Head of Preparedness, un rol executiv cheie responsabil de analizarea și gestionarea riscurilor emergente generate de inteligența artificială. Poziția vizează domenii sensibile, de la securitatea cibernetică până la impactul modelelor de AI asupra sănătății mintale.
Urmărește cele mai noi producții video TechRider.ro
- articolul continuă mai jos -
Avertismentele lui Sam Altman despre capabilitățile AI
Anunțul vine într-un moment în care conducerea companiei recunoaște public faptul că modelele avansate de inteligență artificială încep să ridice probleme reale. CEO-ul Sam Altman a transmis, într-o postare pe platforma X, că unele sisteme AI au devenit suficient de performante încât să identifice vulnerabilități critice în infrastructuri informatice. În același timp, el a menționat riscuri legate de sănătatea mintală a utilizatorilor, potrivit TechCrunch.
„Modelele încep să prezinte provocări reale”, a scris Altman, făcând referire atât la securitatea cibernetică, cât și la impactul psihologic al utilizării AI. El a precizat că OpenAI caută persoane care pot contribui la dezvoltarea unor sisteme care să sprijine apărătorii din securitate cibernetică, fără a oferi instrumente periculoase actorilor rău intenționați. În același context, Altman a menționat și nevoia de prudență în lansarea unor capabilități sensibile, inclusiv în zona biologică, dar și în evaluarea siguranței sistemelor capabile de auto-îmbunătățire.
Un pachet salarial de peste jumătate de milion de dolari
Potrivit descrierii oficiale a postului, Head of Preparedness va fi responsabil de implementarea Preparedness Framework, cadrul intern al companiei care stabilește modul în care OpenAI monitorizează și se pregătește pentru „capabilități de frontieră” ce pot genera riscuri de vătămare severă. Pachetul de compensații anunțat pentru acest rol ajunge la 555.000 de dolari pe an, la care se adaugă participații sub formă de equity.
Plecări din echipa de siguranță și ajustări ale cadrului de protecție
OpenAI a anunțat pentru prima dată crearea echipei de preparedness în 2023. La acel moment, compania preciza că această structură va analiza riscuri considerate potențial catastrofale. Lista includea amenințări imediate, precum atacurile de tip phishing, dar și scenarii mai speculative, inclusiv riscuri legate de arme nucleare.
La mai puțin de un an de la lansarea echipei, fostul Head of Preparedness, Aleksander Madry, a fost mutat într-un rol axat pe dezvoltarea capacităților de raționament ale modelelor AI. De asemenea, mai mulți directori implicați în zona de siguranță și preparedness au părăsit compania sau au fost redirecționați către alte departamente.
Recent, OpenAI a actualizat și Preparedness Framework. Compania a precizat că ar putea ajusta cerințele de siguranță dacă un laborator concurent lansează un model AI cu risc ridicat, fără măsuri de protecție comparabile.
Preocupări privind impactul chatbot-urilor asupra sănătății mintale
În paralel, chatboturile generative se află sub o atenție tot mai mare din partea autorităților și a publicului. Procese recente susțin că ChatGPT ar fi contribuit la consolidarea unor convingeri delirante, la creșterea izolării sociale și, în cazuri extreme, la acte de auto-vătămare. OpenAI a declarat că lucrează la îmbunătățirea capacității sistemelor sale de a recunoaște semnele de suferință emoțională și de a direcționa utilizatorii către sprijin din lumea reală.