1asig.ro
1asig.ro

EY: Diferente intre sectorul public si cel privat privind prioritizarea aspectelor de etica in utilizarea inteligentei artificiale

5 min. / 1.540 cuvinte
Exista perspective diferite in modul in care sectorul public si cel privat percep viitorul eticii, guvernantei, protectiei vietii private, politicilor si reglementarii tehnologiilor pentru inteligenta artificiala (IA), se arata in studiul EY - Bridging AI's trust gaps, realizat in colaborare cu The Future Society.

PROMO


Principalele diferente identificate in studiu se incadreaza in patru arii: echitate si evitarea discriminarii, inovatie, accesul la date si confidentialitate si drepturile asupra datelor.

Studiul include interviuri cu 71 de decidenti politici si peste 280 de organizatii globale. Respondentilor li s-a cerut sa faca o ierarhizare a principiilor etice in functie de importanta lor in cazul a 12 scenarii diferite de utilizare a inteligentei artificiale, fiind apoi evaluata atitudinea lor fata de riscurile si reglementarea inteligentei artificiale.

Opiniile decidentilor politici converg in privinta unor prioritati specifice, in timp ce in sectorul privat lipseste consensul

In raspunsurile decidentilor politici se remarca o aliniere in ceea ce priveste principiile etice pentru diferite aplicatii de inteligenta artificiala. De exemplu, referitor la utilizarea inteligentei artificiale pentru recunoasterea faciala, cele mai importante preocupari mentionate de decidentii politici sunt "echitatea si evitarea discriminarii" si "confidentialitatea si drepturile asupra datelor personale". La aceeasi intrebare, nu s-a notat o diferentiere intre prioritatile identificate de respondentii din sectorul privat. Printre preocuparile principale ale sectorului privat se numara principiile deja reglementate in prezent, cum ar fi GDPR, si mai putin problemele emergente, cum ar fi echitatea si nediscriminarea.

Lipsa unui acord privind viitoarea directie de guvernanta implica riscuri

Atat decidentii politici, cat si companiile considera necesara o abordare care sa implice mai multe parti interesate in stabilirea directiei de guvernanta a inteligentei artificiale. Totusi, rezultatele evidentiaza un dezacord in privinta modului de implementare: 38% dintre organizatiile intervievate se asteapta ca sectorul privat sa conduca o initiativa de reglementare cu multipli actori interesati, in timp ce numai 6% dintre decidentii politici sunt de acord. Aceasta disonanta genereaza provocari pentru ambele grupuri in avansarea unui cadru de guvernanta. Totodata, aceasta implica riscuri de piata si de reglementare pentru companiile care deja dezvolta produse de inteligenta artificiala, in timp ce abordarile privind guvernanta se afla inca in dezbatere.

Depasirea dezacordurilor prin colaborare

Rezultatele studiului EY - Bridging AI's trust gaps, realizat in colaborare cu The Future Society, sustin faptul ca fiecare dintre partile implicate are anumite limitari in ceea ce priveste implementarea unei inteligente artificiale etice, 69% dintre companii fiind de acord ca legiuitorii inteleg complexitatile tehnologiilor din sfera inteligentei artificiale si provocarile mediului de afaceri, in timp ce 66% dintre decidentii politici nu au fost de acord.

Aceste concluzii sugereaza ca o mai stransa colaborare intre cele doua grupuri va fi esentiala pentru adresarea deficitului de cunostinte. Decidentii politici ar trebui sa adopte o abordare consultativa si deliberativa, cu contributii din partea sectorului privat, in special in privinta aspectelor tehnice si comerciale complexe, in cazul carora nu detin cunostinte de specialitate. Deopotriva, sectorul privat ar trebui sa faca eforturi in directia ajungerii la un consens referitor la principiile de guvernanta a inteligentei artificiale, astfel incat sa se tina cont de cerintele in materie de reglementare ale ambelor parti.

Nigel DUFFY, lider EY Global Artificial Intelligence, a declarat: "Companiile si industriile se transforma prin intermediul inteligentei artificiale, iar lipsa consensului reduce increderea publicului in inteligenta artificiala si incetineste adoptarea unor aplicatii critice. Pentru ca eforturile sa dea rezultate, companiile si decidentii politici trebuie sa se puna de acord. Coordonarea intre partile interesate este esentiala pentru elaborarea unor abordari pragmatice privind politicile si guvernanta, in care sa se tina cont de constrangerile si realitatile practice".

"Viteza cu care tehnologiile de sub umbrela inteligentei artificiale patrund in toate aspectele vietii noastre profesionale si personale, ne face sa credem ca nivelul de maturitate este unul mai avansat decat in realitate. Pentru integrarea principiilor de etica in dezvoltarea solutiilor bazate pe inteligenta artificiala inca este necesar un efort sustinut pe termen mediu-lung din partea comunitatii de business si tehnologie in vederea calibrarii modelelor folosite. Datele reprezinta principala sursa de invatare pentru inteligenta artificiala si este rolul nostru, atat in mediul public, cat si in cel privat, sa ne asiguram ca modul in care acestea sunt folosite respecta principii sanatoase pentru dezvoltarea etica a aplicatiilor ce vor lua decizii cu impact asupra societatii", a declarat Aurelia COSTACHE, Lider al Departamentului de Consultanta din cadrul EY Romania.

Pentru a accesa raportul Bridging AI's trust gaps, click aici.

Studiul EY a fost realizat online intre 2019 si inceputul anului 2020. S-au obtinut raspunsuri din partea a 71 de decidenti politici si 284 de companii din 55 de tari.

259 accesari