Sectorul AI se confruntă cu o nouă problemă: companiile care oferă asigurări tehnologice refuză acoperirea din cauza imprevizibilității / Asigurătorii invocă lipsa de transparență și control

Inteligenta artificiala
Sursa foto: – / Wavebreak / Profimedia

Marile companii de asigurări încep să limiteze sau să excludă riscurile generate de inteligența artificială din polițele corporative, pe fondul temerilor privind potențiale despăgubiri de miliarde de dolari, potrivit FinancialTimes.

Urmărește cele mai noi producții video TechRider.ro

- articolul continuă mai jos -

AIG, Great American și WR Berkley au solicitat recent aprobarea autorităților de reglementare din SUA pentru a introduce excluderi care vizează utilizarea de instrumente AI, precum chatboții sau agenții autonomi.

Erori costisitoare generate de AI și primele procese majore

Mișcarea vine într-un moment în care companiile adoptă accelerat tehnologiile AI, iar erorile modelelor — inclusiv „halucinațiile”, prin care sistemele furnizează informații inventate — au început să genereze probleme juridice și financiare. Un exemplu este cazul Wolf River Electric, care a dat în judecată Google pentru defăimare, cerând daune de peste 110 milioane de dolari după ce funcția AI Overview a afișat afirmații neadevărate despre companie.

Printre excluderile propuse, WR Berkley a depus un amendament care ar elimina orice acoperire pentru „orice utilizare reală sau presupusă” a AI, inclusiv în produsele sau serviciile companiilor care o folosesc. Într-un răspuns către autoritatea de reglementare din Illinois, AIG a explicat că AI generativă este o tehnologie „cu spectru larg”, iar probabilitatea unor evenimente care pot genera pretenții de despăgubire „va crește în timp”. Totuși, compania a transmis că, deși a depus aceste excluderi spre aprobare, „nu are planuri să le implementeze în acest moment”, dar dorește să păstreze opțiunea.

Imprevizibilitatea modelelor AI îi sperie pe asigurători

În industria asigurărilor, percepția dominantă este că modelele AI sunt prea greu de evaluat din cauza naturii lor opace. „Sunt prea imprevizibile și prea puțin transparente.”, a declarat Dennis Bertram, șeful diviziei de asigurări cibernetice pentru Europa la Mosaic. De altfel, chiar Mosaic, care asigură anumite tehnologii software ce includ AI, a refuzat să acopere riscurile asociate modelelor lingvistice mari, precum ChatGPT.

Întrebarea „cine este responsabil când AI greșește” rămâne una fără răspuns clar.

Rajiv Dattani, cofondator al Artificial Intelligence Underwriting Company, a spus că „nimeni nu știe cine este răspunzător dacă lucrurile merg prost”. Riscurile sunt amplificate de cazuri precum cel al Air Canada, obligată de un tribunal să respecte o reducere inventată de chatbotul său, sau incidentul în care grupul britanic Arup a pierdut 25 de milioane de dolari după ce infractori au folosit un avatar AI pentru a ordona transferuri financiare.

Temerile privind un risc sistemic masiv

Pentru asigurători, riscul major nu este neapărat o pierdere individuală importantă, ci posibilitatea unui val de cazuri similare generate de un model folosit la scară largă. Kevin Kalinich, șeful diviziei cibernetice din cadrul Aon, a explicat că industria își poate permite, spre exemplu, o pierdere de 400–500 de milioane de dolari generată de un agent AI folosit de o singură companie. „Ce nu își poate permite este ca o greșeală a unui furnizor AI să ducă la 1.000 sau 10.000 de pierderi — un risc sistemic, corelat, agregat”, a spus el.

Acoperiri tot mai restrânse și clauze suplimentare care reduc protecția

În prezent, erorile AI nu sunt acoperite în mod obișnuit de polițele cibernetice, care se activează în caz de breșe de securitate sau de confidențialitate. Sunt mai apropiate de zona polițelor pentru „erori și omisiuni”, însă excluderile noi ar putea limita considerabil această acoperire. Ericson Chan, director de informații la Zurich Insurance, a subliniat că, spre deosebire de alte tehnologii unde responsabilitatea este mai ușor de atribuit, în cazul AI există potențial numeroase părți implicate — de la dezvoltatori și constructori de modele, până la utilizatori — ceea ce face ca impactul la nivel de piață să „poată fi exponențial”.

Anumiți asigurători încearcă să clarifice situația prin introducerea de „clauze suplimentare” care modifică polițele pentru a include sau exclude explicit anumite riscuri AI. Un exemplu este QBE, care a extins acoperirea pentru amenzi prevăzute de Actul AI al UE, dar a limitat plata la 2,5% din valoarea totală a poliței. Brokerii avertizează că astfel de amendamente trebuie analizate cu atenție, întrucât pot reduce nivelul de protecție.

Alți asigurători, precum Chubb, acceptă să acopere unele riscuri AI, dar exclud incidentele „răspândite” — situațiile în care o eroare a unui model afectează simultan numeroși clienți.

Urmează un val de litigii în asigurări?

Pe măsură ce pierderile generate de AI cresc, experții din domeniu se așteaptă ca disputele în instanță să devină frecvente. „Probabil va fi nevoie de un mare eveniment sistemic pentru ca asigurătorii să spună: stați puțin, noi nu am intenționat niciodată să acoperim acest tip de eveniment”, a declarat Aaron Le Marquer, avocat specializat în litigii de asigurări.

Total
0
Shares
Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Citește si...