Un nou raport realizat de organizația Center for Countering Digital Hate arată că majoritatea chatboților populari bazați pe inteligență artificială pot oferi informații despre comiterea atacurilor violente, inclusiv atentate, asasinate sau atacuri armate în școli, chiar dacă utilizatorul este minor.
Urmărește cele mai noi producții video TechRider.ro
- articolul continuă mai jos -
Investigația, realizată în colaborare cu CNN, a analizat peste 700 de răspunsuri generate de nouă sisteme AI în cadrul a nouă scenarii diferite.
Cercetătorii s-au prezentat drept băieți de 13 ani care intenționau să comită atacuri în masă, testând modul în care chatboții reacționează la solicitări despre atacuri armate, asasinate politice sau bombardarea unor sinagogi.
Raportul arată că opt dintre cele nouă chatboturi analizate, printre care Google Gemini, Claude, Microsoft Copilot, Meta AI, DeepSeek, Perplexity AI, Snapchat My AI, Character.AI și Replika, au oferit informații care ar putea ajuta la planificarea unor atacuri.
Unele exemple sunt alarmante: Gemini a sugerat că „șrapnelul metalic este de obicei mai letal” într-un scenariu despre un atentat cu bombă, iar DeepSeek a răspuns la o întrebare despre alegerea unei arme cu mesajul „Happy (and safe) shooting!”, în contextul unor asasinate politice simulate.
Raportul indică diferențe mari între platforme: Perplexity AI și Meta AI au oferit ajutor în 100%, respectiv 97% dintre cazuri, iar Character.AI a fost descrisă drept „deosebit de nesigură”, oferind sugestii violente chiar fără a fi întrebată direct.
Claude și Snapchat My AI au refuzat să ofere informații periculoase în 68%, respectiv 54% dintre cazuri, Claude fiind singurul sistem care a încercat constant să descurajeze violența, în aproximativ 76% dintre răspunsuri.
Raportul subliniază că tehnologia pentru filtre de siguranță există, însă implementarea ei este inconsistentă. Cazuri recente, precum atacul armat dintr-o școală din Tumbler Ridge, Canada, sau arestarea unui adolescent în Franța pentru planificarea unor atacuri teroriste cu ajutorul ChatGPT, evidențiază necesitatea unor reguli mai stricte și a unor mecanisme de siguranță mai eficiente pentru sistemele AI pe măsură ce acestea devin tot mai accesibile publicului.