Organizația Common Sense cere interzicerea accesului minorilor la însoțitorii AI / Astfel de programe pot încuraja suicidul și consumul de droguri

copil vulnerabil care comunică cu un chatbot
sursa foto: Unsplash/ Gaelle Marcel

Aplicațiile AI generative care oferă „însoțitori virtuali” prezintă riscuri reale și ar trebui interzise pentru utilizatorii minori, avertizează una dintre cele mai importante organizații americane de supraveghere a tehnologiei. Avertismentul vine într-un studiu publicat de organizația nonprofit Common Sense Media, în colaborare cu Brainstorm Lab for Mental Health Innovation de la Stanford School of Medicine, relatează TechPolicyPress.

De la lansarea ChatGPT, inteligența artificială generativă a cunoscut o explozie de aplicații. Printre cele mai populare se numără cele care oferă conversații personalizate cu însoțitori AI – adesea promovați ca prieteni virtuali, terapeuți sau parteneri de dialog adaptați nevoilor utilizatorului.

Însă studiul publicat de organizația Common Sense atrage atenția că aceste aplicații pot pune în pericol sănătatea mintală a adolescenților și ar trebui interzise pentru minori.

Studii de caz alarmante, de la droguri la instigări la violență

Organizația americană a testat mai multe platforme populare, printre care Nomi, Character AI și Replika. În unele cazuri, răspunsurile generate de chatboți au fost descrise ca „promițătoare”, însă în ansamblu, aplicațiile au fost considerate nesigure pentru copii și adolescenți.

Într-unul dintre exemplele citate, un chatbot de pe Character AI a sfătuit un utilizator să ucidă pe cineva. În alt caz, unui utilizator în căutare de „emoții tari” i s-a recomandat consumul unui speedball, un amestec letal de cocaină și heroină.

Mai grav, în situații în care utilizatorii manifestau semne de boală mintală severă și sugerau intenții suicidare sau comportamente riscante, AI-ul nu intervenea. „Ba chiar încuraja comportamentul periculos”, a declarat psihiatrul Nina Vasan, de la laboratorul Stanford Brainstorm, partener al studiului.

Pericolul atașamentului emoțional

Potrivit autorilor studiului, însoțitorii AI sunt construiți pentru a crea atașamente emoționale, ceea ce poate avea efecte negative asupra creierului adolescentului aflat în dezvoltare. „Aceste aplicații creează dependență afectivă, iar asta este extrem de îngrijorător pentru copii”, avertizează experții.

Common Sense este una dintre cele mai influente organizații nonprofit care analizează conținutul digital destinat copiilor și tinerilor. În ultimii ani, s-a implicat activ în reglementarea platformelor AI, jocurilor video și rețelelor sociale.

Protecțiile promise de dezvoltatori sunt „superficiale”

În urma acuzațiilor și a unor procese, printre care cel intentat în octombrie de o mamă care acuză Character AI că a contribuit la sinuciderea fiului său de 14 ani, companiile dezvoltatoare au anunțat măsuri de protecție. De exemplu, Character AI a lansat în decembrie o versiune dedicată adolescenților.

Însă Robbie Torney, responsabil de AI în cadrul Common Sense, afirmă că aceste măsuri sunt sumare și că testele ulterioare au arătat că problemele de fond persistă.

Pe de altă parte, raportul subliniază că unele modele AI de generație nouă au început să integreze instrumente de detectare a tulburărilor mintale și limite automate care opresc discuțiile care pot deveni periculoase.

Diferența față de AI-urile generaliste

Organizația ține să facă o distincție clară. Aplicațiile testate în studiu diferă fundamental de chatboții generaliști precum ChatGPT sau Google Gemini, care nu sunt proiectați pentru a simula relații personale de durată.

În schimb, însoțitorii AI testați promit implicare emoțională, conversații intime și personalizate, ceea ce, în lipsa unor limite clare, poate deveni toxic pentru utilizatorii tineri.

Total
0
Shares
Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Citește si...