1asig.ro
1asig.ro
federatia roaman de bowling
Avertizare: Vehiculele autonome ...

Avertizare: Vehiculele autonome sunt extrem de vulnerabile la diverse provocari in materie de securitate cyber

ENISA - Agentia Europeana pentru Securitate Cibernetica si JRC - Joint Research Centre au publicat un raport care avertizeaza ca vehiculele autonome prezinta riscuri serioase de securitate cibernetica. Astfel, raportul, citat de CPO Magazine, a mentionat ca utilizarea Inteligentei Artificiale in masinile autonome ar putea pune in pericol vietile utilizatorilor de drumuri si a pietonilor.

Raportul "Cybersecurity Challenges in the Uptake of Artificial Intelligence in Autonomous Driving" ofera si o serie de recomandari pentru atenuarea acestor riscuri.

Provocarile de securitate cibernetica cu care se confrunta vehiculele autonome

Modelul de risc al agentiilor europene a clasificat amenintarile de securitate cyber legate de Inteligenta Artificiala in vulnerabilitati software si hardware neintentionate si intentionate.

"Cresterea gradului de utilizare a tehnologiilor AI a amplificat acest aspect cu adaugarea de algoritmi ML (machine learning) complecsi si opaci, module dedicate AI si modele pre-instruite de la terte parti, care fac parte acum din lantul de aprovizionare", arata raportul ENISA - JRC.

Amenintarile intentionate provin din exploatarea malefica a vulnerabilitatilor AI si ML si a limitarilor de a provoca pagube. Actorii care ameninta ar putea introduce, de asemenea, noi vulnerabilitati de a extinde peisajul atacului, pentru un impact maxim.

Amenintarea neintentionata provine din limitari, functionari defectuoase si designul slab al modelelor AI. In acest context, ENISA si JRC avertizeaza ca provocarile privind securitatea cibernetica la vehiculele autonome prezinta riscuri serioase.

"Riscurile de securitate cibernetica ale vehiculelor autonome pot avea un impact direct asupra sigurantei pasagerilor, a pietonilor, a altor vehicule si a infrastructurilor conexe. Prin urmare, este esential sa investigam potentialele vulnerabilitati induse de utilizarea AI", noteaza raportul.

In acest sens, raportul subliniaza ca vehiculele autonome sunt vulnerabile in fata unor atacuri tip machine learning, cum ar fi evaziunea sau otravirea datelor. Acest tip de amenintare implica falsificarea modelelor si a sistemelor de recunoastere faciala.

Atacurile de evaziune manipuleaza datele introduse in sisteme pentru a modifica rezultatele in beneficiul atacatorului. In mod similar, atacurile de otravire a datelor corup procesul de training, pentru a provoca o defectiune in beneficiul atacatorului.

"Utilizarea tot mai mare a Inteligentei Artificiale pentru a automatiza luarea deciziilor intr-o diversitate de sectoare expune sistemele digitale la atacuri cibernetice, care pot profita de defectele si vulnerabilitatile metodelor AI si ML. Intrucat sistemele AI au tendinta de a fi implicate in decizii cu mize mari, atacurile cyber de succes impotriva lor pot avea efecte grave. AI poate functiona si ca un factor facilitator pentru infractorii cibernetici", noteaza autorii raportului.

Totodata, vehiculele autonome sunt vulnerabile la provocarile de securitate cyber care afecteaza senzorii fizici, comenzile si mecanismele lor de conectare, potrivit raportului comun ENISA - JRC. Cele mai notabile provocari de securitate cibernetica asociate componentelor fizice includ:
  • Blocarea, orbirea, falsificarea sau saturarea senzorilor - Atacatorii ar putea orbi sau bloca senzorii, pentru a avea acces la vehiculele autonome. Acest lucru le permite actorilor rau intentionati sa hraneasca vehiculele autonome cu modele AI cu date gresite sau incomplete, pentru a submina procesul de training al modelului.
  • Atacuri DDoS - Hackerii ar putea utiliza si atacuri tip DDoS (distributed denial of service), pentru a face ca vehiculul autonom sa devina orb la lumea exterioara. Atacurile DDoS ar interfera cu conducerea autonoma, generand blocaje sau functionari defectuoase.
  • Manipularea echipamentului de comunicatie al vehiculului autonom - Atacatorii ar putea deturna canalele de comunicare si, totodata, ar putea manipula citirea senzorilor sau interpretarea gresita a mesajelor si indicatoarelor rutiere.
  • Dezvaluirea informatiilor - Vehiculele autonome stocheaza cantitati semnificative de date AI si de date personale sensibile. Atacatorii ar putea provoca brese de securitate, pentru a accesa astfel de date sensibile.
"Astazi, sistemele reziliente si critice din punct de vedere al sigurantei trebuie proiectate avand in vedere perspectiva unui potential atacator. Aceasta problema este complicata in special pentru sistemele care se bazeaza pe algoritmi ML, ce sunt instruiti sa se comporte corect in circumstante normale si pot raspunde in moduri neasteptate la manipularea tehnica sau falsificarea datelor primite de la senzori. Acesta este un deficit dificil de eliminat si credem ca vor fi necesare noi instrumente pentru a aborda aceste probleme", explica si Ilya KHIVRICH - Chief Scientist, Vdoo.

Recomandari pentru atenuarea riscurilor de securitate cibernetica ale vehiculelor autonome

Raportul ENISA - JRC ofera si cateva recomandari pentru utilizarea in siguranta a Inteligentei Artificiale in cazul vehiculelor autonome. Astfel, pentru a garanta securitatea AI pe drumuri, ENISA - JRC recomanda producatorilor sa adopte masuri de securitate inca din etapa de proiectare.
  • Validarea sistematica a modelelor si datelor AI prin colectarea unor cantitati semnificative de date si efectuarea unei evaluari a riscurilor asupra modelelor si algoritmilor AI.
  • Abordarea provocarilor de securitate cibernetica ale lanturilor de aprovizionare prin respectarea reglementarilor de securitate AI si partajarea responsabilitatilor in intregul lant de aprovizionare, de la dezvoltatori si producatori, la utilizatori finali si furnizori terti de servicii.
  • Gestionarea incidentelor si descoperirea vulnerabilitatilor AI, precum si lectiile invatate - partile interesate sunt sfatuite sa simuleze diferite scenarii de atac, sa efectueze exercitii, precum si sa infiinteze echipe de gestionare si raspuns la incidente de securitate cibernetica.
  • Abordarea capacitatii si expertizei limitate in domeniul securitatii cibernetice AI in industria auto prin crearea de echipe diverse in domeniul securitatii cibernetice si ML. De asemenea, crearea de cursuri speciale ar putea duce la eliminarea deficitului tehnic AI in sectorul auto.
  • Abordare holistica end-to-end pentru a integra securitatea cibernetica AI cu principiile traditionale de securitate cyber. Aceasta include investitii in cercetare si dezvoltare, guvernarea adecvata a politicilor de securitate cibernetica AI si adoptarea culturii de securitate cibernetica AI in domeniul auto.
Exploatarea cu succes a AI in vehiculele autonome, in trecut

Agentiile au mentionat ca, in trecut, au folosit diverse tehnici AI pentru a exploata masinile autonome. Tehnica DARTS (Deceiving Autonomous caRs with Toxic Signs) manipuleaza sistemele autonome de recunoastere a semnelor din trafic. De exemplu, masinile autonome Tesla au fost pacalite sa accelereze peste limitele de viteza afisate pe indicatoarele rutiere, determinand senzorii sa citeasca 85 mph, in loc de 35 mph, cat era trecut pe indicator.

Cercetatorii israelieni de la Universitatea Ben-Gurion din Negev au demonstrat, la randul lor, cum poate fi pacalit sistemul de pilot automat Tesla prin tehnica split-second images. In mod similar, Tesla 3 a fost afectat de o vulnerabilitate de tipul XSS (cross-site scripting), oferind acces la informatiile vitale ale vehiculului. De asemenea, cercetatori de la Tencent au pacalit pilotul automat Tesla sa se indrepte pe o banda gresita de circulatie. Nu in ultimul rand, cercetatorii au folosit vopsea spray pentru a pacali un vehicul autonom sa perceapa gresit un semn de oprire drept limita de viteza.

"Raportul ENISA discuta in mod special despre modul in care sistemele de conducere autonoma bazate pe AI pot fi pacalite sa nu recunoasca traficul, conditiile de drum si indicatoarele rutiere sau chiar sa le interpreteze gresit. Vehiculele autonome folosesc liniile vopsite pe drumuri pentru a ramane pe banda, de exemplu. Un atacator ar putea aplica linii false pe drum sau ar putea vandaliza semnele de circulatie, pentru a interfera cu AI", spune Paul BISCHOFF - Privacy Advocate and Research Lead, Comparitech.

Cu toate acestea, Paul BISCHOFF arata ca lipsa unui motiv financiar pentru a pirata vehiculele autonome ar descuraja astfel de atacuri. In mod deloc surprinzator, mai noteaza studiul ENISA - JRC, infractorii ar putea santaja ocupantii unui vehicul autonom sa achite o rascumparare, amenintand ca, in caz contrar, vor provoca un accident dupa preluarea vehiculului si transformarea acestuia intr-unul inoperabil. Este aproape sigur ca infractorii vor cauta sa inventeze trucuri pentru a monetiza atacurile cibernetice asupra vehiculelor autonome, mai avertizeaza studiul ENISA - JRC.

Sursa foto: raportul ENISA - JRC