Se schimbă totul în Europa! Uniunea Europeană a prezentat un document revoluționar privind inteligența artificială.

Comisia Europeană prezintă la Bruxelles propunerea de noi reguli și acțiuni cu un obiectiv foarte ambițios: transformarea Europei în centrul mondial pentru inteligență artificială fiabilă.

„Inteligența artificială este o oportunitate fantastică pentru Europa. Iar cetățenii merită tehnologii în care pot avea încredere. Astăzi vă prezentăm noile reguli pentru o AI fiabilă.

Reguli care stabilesc standarde înalte bazate pe diferite niveluri de risc”, scrie într-un tweet președintele Comisiei Europene, Ursula von der Leyen.

Se schimbă totul în Europa! Consolidarea excelenței în IA

”De asemenea, tot astăzi prezentăm şi un plan coordonat pentru a contura reformele și investițiile de care avem nevoie pentru a asigura poziția de lider în IA la nivel global. Cu aproape 150 de miliarde de euro în investiții digitale – 20% din buget – Next Generation UE va contribui la consolidarea excelenței în IA în UE”.

În acest sens, Comisia a pregătit primul cadru juridic privind IA creat vreodată în Europa și un plan – coordonat cu statele membre – pentru a garanta siguranța și drepturile fundamentale ale cetățenilor și ale întreprinderilor, care, în același timp, potenţează adoptarea IA și investițiile și inovația în sector în întreaga UE. Vrem o IA de încredere”, scrie pe Twitter comisarul Margrethe Vestager, „în domeniul sănătăţii, în lupta împotriva schimbărilor climatice, în viața de zi cu zi, dacă putem avea încredere că nu va pune în pericol drepturile noastre fundamentale „.

Noile reguli vor fi aplicate pretutindeni în UE, cu o abordare bazată pe nivelul de risc, arată RAINEWS.

Ce este considerat risc inacceptabil

Risc inacceptabil: sistemele bazate pe IA considerate o amenințare clară pentru securitate, mijloace de trai și drepturile oamenilor vor fi interzise.

Această categorie include sisteme sau aplicații IA care manipulează comportamentul uman pentru a eluda liberul arbitru al utilizatorilor (de exemplu, jucăriile care folosesc asistența vocală pentru a încuraja comportamentul nesigur al minorilor) și sistemele care permit guvernelor să atribuie un „scor social”.

Risc ridicat: această categorie include sistemele în care este utilizată tehnologia IA și care vor fi supuse unor obligații stricte înainte de a putea fi introduse pe piață:

– Infrastructuri critice (de exemplu, transporturile), deoarece ar putea pune în pericol viața și sănătatea cetățenilor;

– Educație sau formare profesională, deoarece poate determina accesul unei persoane la educație și la carieră (de exemplu, notele, sau calificativele date la examene);

– Componente de siguranță ale produselor (de exemplu, o aplicație IA utilizată în chirurgia asistată de robot);

Ocuparea forței de muncă, gestionarea lucrătorilor și accesul la activitatea independentă (de exemplu, software-uri pentru selectarea cv-urilor în procedurile de angajare).

– Servicii publice și private esențiale (de exemplu scorul de credit care le poate nega cetățenilor posibilitatea de a obține un împrumut);

– Activități care pot interfera cu drepturile fundamentale ale oamenilor (de exemplu, evaluarea fiabilității probelor);

– Gestionarea migranților, acordarea de azil și controlul frontierelor (de exemplu, verificarea autenticității documentelor de călătorie);

– Administrarea justiției și a proceselor democratice.

Puține excepții strict definite și reglementate

Mai există apoi sisteme cu risc limitat, cum ar fi chatbots, cu obligații specifice de transparență (utilizatorii ar trebui să fie conștienți de faptul că interacționează cu o mașină) și sisteme cu risc minim: cum ar fi aplicații precum jocurile video sau filtrele de spam bazate pe IA.

Potrivit Comisiei, marea majoritate a sistemelor de IA se încadrează în această categorie, astfel încât proiectul de regulament nu intervine în acest caz.

Nu există interdicție sau moratoriu asupra sistemelor de inteligență artificială bazate pe datele biometrice ale cetățenilor, chiar dacă toate sistemele de identificare biometrică la distanță sunt considerate cu risc ridicat şi sunt supuse unor cerințe stricte.

Utilizarea lor în timp real în scopuri de aplicare a legii în spații accesibile publicului este, în principiu, interzisă.

Există puține excepții strict definite și reglementate (de exemplu, acolo unde este absolut necesar pentru a căuta un copil dispărut, pentru a preveni o amenințare teroristă specifică și iminentă sau pentru a identifica, localiza, identifica sau urmări în justiție autorii sau suspecții unei infracțiuni grave).

”IA este un mijloc, nu un scop”

În aceste cazuri, utilizarea este supusă autorizării unui organ judiciar sau alt organism independent, cu limite de timp, domeniu geografic și baze de date.

În final,Thierry Breton, comisarul pentru piața internă, a reamintit că „IA este un mijloc, nu un scop. Există de zeci de ani, însă acum sunt posibile noi capacități alimentate de puterea de calcul.

Acest lucru oferă un potențial enorm în multe sectoare diferite, cum ar fi sănătatea, transporturile, energia, agricultura, turismul sau securitatea cibernetică, dar prezintă și o serie de riscuri.

Propunerile de astăzi vizează consolidarea poziției Europei ca centru global de excelență în IA, de la laboratoare până la piață, pentru a ne asigura că IA din Europa ne respectă valorile şi regulile”.
Parlamentul European și statele membre vor trebui să adopte propunerile Comisiei în cadrul procedurii legislative ordinare. Odată adoptate, reglementările vor fi aplicabile în întreaga UE.