OpenAI a avertizat că viitoarele sale modele de inteligență artificială ar putea prezenta un risc „ridicat” pentru securitatea cibernetică, deoarece capacitățile lor avansează rapid. Reuters transmite că modelele de AI ale companiei susținute de Microsoft ar putea să fie utilizate fie pentru a dezvolta exploatări la distanță împotriva sistemelor bine apărate.
Urmărește cele mai noi producții video TechRider.ro
- articolul continuă mai jos -
Totodată, noile modele OpenAI ar putea fi folosite pentru a asista la operațiuni complexe de intruziune în întreprinderi sau în industrie, cu efecte în lumea reală. Pe măsură ce capacitățile avansează, OpenAI a declarat că „investește în consolidarea modelelor pentru sarcini defensive de securitate cibernetică și în crearea de instrumente care permit apărătorilor să efectueze mai ușor fluxuri de lucru, cum ar fi auditarea codului și remedierea vulnerabilităților”.
Pentru a contracara riscurile de securitate cibernetică, OpenAI a declarat că se bazează pe o combinație de controale de acces, consolidarea infrastructurii, controale de ieșire și monitorizare. Compania a declarat că va introduce în curând un program pentru a explora posibilitatea de a oferi utilizatorilor și clienților calificați care lucrează în domeniul apărării cibernetice acces pe niveluri la capacități îmbunătățite.
OpenAI va înființa, de asemenea, un grup consultativ, numit Frontier Risk Council, care va aduce apărătorii cibernetici experimentați și practicienii în domeniul securității în strânsă colaborare cu echipele sale.