1asig.ro
1asig.ro
federatia roaman de bowling
Valentin IONESCU (ISF): Utilizarea ...

Valentin IONESCU (ISF): Utilizarea excesiva a AI afecteaza comunicarea si perceptia clientului

Valentin IONESCU, Presedintele ISF, considera ca utilizarea excesiva a inteligentei artificiale (AI) poate duce la lipsa de comunicare si la o perceptie gresita in interactiunea clientului cu societatile.

In cadrul Conferintei Europene a Serviciilor Financiare ECFS 2025 - Tranzitia digitala in serviciile financiare, provocari si oportunitati generate de noile reglementari, organizata de ISF, Presedintele Institutului de Studii Financiare, a declarat: 

Utilizarea inteligentei artificiale (AI) in industria asigurarilor aduce multe beneficii, cum ar fi imbunatatirea eficientei operationale, personalizarea ofertelor si automatizarea proceselor. Cu toate acestea, exista si riscuri care trebuie gestionate pentru a proteja atat companiile de asigurari, cat si clientii lor. Iata cateva exemple de riscuri care pot aparea atunci cand folosim AI in asigurari:

Discriminarea si prejudecatile algoritmice

Algoritmii de AI pot reflecta prejudecati si inechitati care exista in datele de antrenament. Daca un algoritm invata din date istorice care contin prejudecati legate de rasa, sex, varsta sau alti factori, poate lua decizii care sunt discriminatorii, de exemplu, refuzand sau penalizand anumite grupuri de clienti pe baza unor caracteristici care nu sunt relevante pentru evaluarea riscului.

Un algoritm care foloseste datele istorice de la clienti pentru a evalua riscurile de asigurare poate ajunge la concluzii discriminatorii daca acele date contin tendinte de discriminare pe baza sexului sau etniei.

Lipsa transparentei si explicabilitatii

Modelele AI complexe, cum ar fi retelele neuronale, pot fi opace si greu de inteles pentru utilizatori si reglementatori. Acest lucru poate duce la dificultati in intelegerea deciziilor luate de AI si in verificarea corectitudinii acestora.

Daca un client nu este acceptat pentru o polita de asigurare sau nu primeste o suma corecta in urma unui accident, compania ar putea sa nu fie capabila sa explice in mod clar motivul deciziei, ceea ce poate afecta increderea consumatorilor si poate duce la litigii.

Risc de securitate cibernetica si atacuri

AI poate fi vulnerabil la atacuri cibernetice, cum ar fi manipularea datelor sau atacuri adversariale care modifica comportamentul algoritmilor. In industria asigurarilor, aceste atacuri pot afecta sistemele de evaluare a riscurilor, de stabilire a preturilor sau de gestionare a daunelor.

Un atac cibernetic care modifica algoritmul folosit pentru a evalua cererile de despagubire poate duce la plati eronate sau la procesarea incorecta a cererilor de despagubire, afectand astfel atat compania de asigurari, cat si clientii.

Dependenta de date necorecte sau incomplete

AI este dependent de calitatea datelor pe care le primeste. Daca datele sunt incomplete, inexacte sau neactualizate, modelele AI pot lua decizii gresite sau pot face estimari incorecte ale riscurilor.

Daca un sistem AI utilizeaza date incomplete despre istoricul unui client (de exemplu, istoricul de daune neinregistrate corect sau date de sanatate inexacte), poate oferi o evaluare incorecta a riscului si poate stabili preturi incorecte pentru politele de asigurare.

Probleme legate de conformitatea cu reglementarile

Utilizarea AI poate intampina dificultati in conformarea cu reglementarile legale si etice. De exemplu, reglementarile de protectie a datelor (precum GDPR in Uniunea Europeana) impun cerinte stricte privind colectarea si procesarea datelor personale, iar AI poate duce la incalcarea acestor reglementari daca nu este utilizat corect.

Daca un algoritm AI foloseste date personale sensibile, cum ar fi istoricul medical al unui client, pentru a determina riscurile si nu exista masuri corespunzatoare de protectie a datelor, compania de asigurari ar putea incalca reglementarile de protectie a datelor, ducand la amenzi mari si deteriorarea reputatiei.

Nu trebuie uitate nici regulamentul UE privind inteligenta artificiala (AI ACT). Acesta reprezinta un pas inainte in reglementarea AI (primul de acest fel la nivel mondial) prin abordarea riscurilor generate de utilizate de AI. Sunt stabilite clar de reguli bazate pe risc pentru dezvoltatorii si implementatorii AI cu privire la utilizari specifice ale AI, inclusiv in cazul utilizarii acestuia pe pietele financiare. Aceste masuri au scopul de a garanta siguranta, drepturile fundamentale si utilizarea unor sisteme de AI care sa aiba totusi omul la baza.”