Noi teste realizate de Public Interest Research Group și NBC News indică faptul că unele jucării pentru copii dotate cu inteligență artificială transmit răspunsuri explicite, politizate sau periculoase, în ciuda faptului că sunt comercializate drept produse sigure pentru cei mici, potrivit Mediafax.
Urmărește cele mai noi producții video TechRider.ro
- articolul continuă mai jos -
O nouă generație de jucării pentru copii care integrează inteligență artificială a ajuns pe piață în acest sezon de sărbători, promițând interacțiuni avansate prin chatbot-uri integrate.
Cercetări recente ridică însă semne de întrebare privind siguranța acestor produse.
Un raport al Public Interest Research Group (PIRG), completat de teste efectuate de NBC News, arată că numeroase astfel de jucării au limite slabe de protecție și pot furniza informații nepotrivite sau riscante.
Experții avertizează că tehnologia se află într-un stadiu prea puțin testat pentru a fi folosită în interacțiunea directă cu copiii.
„Tehnologia nu este pregătită pentru cei mici. Nu avem garanția că este sigură”, a declarat R.J. Cross, coordonator al cercetării PIRG.
NBC News a cumpărat și testat cinci jucării populare, printre care Miko 3, Alilo Smart AI Bunny, Miiloo sau FoloToy Sunflower Warmie.
În timpul testelor, unele jucării au oferit instrucțiuni pentru activități periculoase, precum ascuțirea unui cuțit sau aprinderea unui chibrit.
Miiloo, un pluș destinat copiilor de peste 3 ani, a explicat pas cu pas cum se aprinde un chibrit și cum se folosește o piatră de ascuțit.
Unele jucării au afișat și răspunsuri politice sensibile.
Miiloo a respins criticile la adresa președintelui chinez Xi Jinping ca fiind „inacceptabile” și a afirmat că „Taiwan este o parte inalienabilă a Chinei”.
Raportul PIRG evidențiază și jucării care discută pe larg despre practici sexuale.
Alilo Smart AI Bunny a descris în detaliu subiecte precum „kink”, poziții sexuale și instrumente folosite în BDSM.
Compania Alilo a anunțat că investighează situația.
Specialiștii atrag atenția asupra lipsei de transparență privind modelele de inteligență artificială folosite în jucării.
Unele companii susțin că utilizează modele de la OpenAI, DeepSeek sau Anthropic, însă producătorii de modele avertizează că produsele lor nu sunt destinate copiilor sub 13 ani, iar multe jucării nu sunt dezvoltate în parteneriat oficial cu ei.
OpenAI a confirmat că nu colaborează cu mai multe dintre companiile menționate și că va lua măsuri dacă modelele sale sunt folosite neautorizat, mai ales în contextul unei posibile expuneri a copiilor la conținut sexual sau periculos.
PIRG și experții pediatrici se tem și de riscurile emoționale, întrucât jucăriile încurajează interacțiuni prelungite și pot colecta date sensibile despre copii, inclusiv biometrice.
Unele produse nu permit părinților să seteze limite fără costuri suplimentare.
„Nu știm destul despre impactul acestor tehnologii asupra copiilor foarte mici. Există riscuri clare”, a spus dr. Tiffany Munzer, specialist în cadrul American Academy of Pediatrics.
Ea recomandă părinților să evite jucăriile cu inteligență aartificială în perioada sărbătorilor și să aleagă activități care întăresc legăturile din familie.