Un nou incident care ridică semne de întrebare asupra utilizării inteligenței artificiale în domeniul juridic a apărut în instanțele americane. Avocatul companiei Anthropic, dezvoltatorul chatbotului Claude, a fost forțat să recunoască în fața unei instanțe federale din California că a folosit o citare juridică complet eronată, generată de AI, în cadrul unui proces intentat de mai multe edituri muzicale, inclusiv Universal Music Group, semnalează TechCrunch.
Urmărește cele mai noi producții video TechRider.ro
- articolul continuă mai jos -
Citări inventate de AI, scăpate de verificările umane
Potrivit documentului oficial depus joi la tribunalul din districtul California de Nord, chatbotul Claude a generat o citare care nu doar că era inexistentă, dar conținea și „un titlu inexact și autori inexacți”. Avocații companiei au declarat că eroarea a scăpat nedetectată în timpul unei verificări manuale a surselor, împreună cu alte greșeli apărute din cauza a ceea ce specialiștii numesc „halucinații” ale modelului AI – momente în care acesta inventează fapte sau surse.
Anthropic și-a cerut scuze oficial în fața instanței, calificând incidentul drept „o greșeală onestă de citare, nu o fabricare intenționată a unei autorități juridice”.
Cazuri similare se înmulțesc în tribunalele din întreaga lume
Scandalul vine după ce avocații editurilor muzicale au acuzat-o pe Olivia Chen, angajată a Anthropic și martor expert în acest proces, că s-a bazat pe Claude pentru a introduce în mărturia sa articole fictive. Judecătoarea federală Susan van Keulen a cerut companiei să răspundă oficial acestor acuzații.
Litigiul face parte dintr-un val tot mai mare de procese intentate companiilor de tehnologie de către deținătorii de drepturi de autor, care acuză utilizarea ilegală a conținutului protejat pentru antrenarea modelelor AI generative. Astfel de cazuri atrag tot mai mult atenția asupra provocărilor legale și etice pe care le ridică inteligența artificială în domenii sensibile.
Investițiile în AI juridică continuă, în ciuda riscurilor
Nu este însă un caz izolat. Tot săptămâna aceasta, un judecător din California a sancționat două firme de avocatură pentru că au depus în instanță documente ce conțineau „cercetări fictive generate de AI”. Iar în ianuarie, un avocat din Australia a fost descoperit folosind ChatGPT pentru redactarea unor documente juridice care conțineau citări false.
În ciuda acestor episoade stânjenitoare, industria AI juridică continuă să atragă investiții impresionante. Startup-ul Harvey, care dezvoltă soluții AI pentru asistență juridică, este în negocieri pentru o rundă de finanțare de peste 250 de milioane de dolari, ce ar putea ridica evaluarea companiei la 5 miliarde de dolari.
Incidentul de la Anthropic subliniază însă un adevăr incomod: deși promițătoare, tehnologia AI încă nu poate înlocui complet vigilența și responsabilitatea umană în sistemul juridic.