Regulamentul UE AI intră în vigoare în august 2024
În urma primei propuneri a Comisiei Europene din aprilie 2021, Parlamentul European a adoptat Regulamentul UE privind inteligența artificială. Acesta a fost publicat în Jurnalul Oficial al Uniunii Europene în iulie 2024 și este acum disponibil în toate cele 24 de limbi oficiale ale statelor membre ale UE. Regulamentul va intra oficial în vigoare în august 2024, deși majoritatea prevederilor nu se vor aplica decât doi ani mai târziu. Cu toate acestea, se aplică termene diferite pentru dispozițiile individuale. Regulamentul stabilește obligații pentru companiile care dezvoltă și/sau utilizează sisteme de inteligență artificială în Uniunea Europeană.
Programul de reglementare al UE AI
Regulamentul UE AI va fi dezvoltat și implementat conform următorului program:
Aprilie 2021: Prima propunere a Comisiei Europene
Martie 2024: Adoptată de Parlamentul European
Iulie 2024: Publicare oficială în Jurnalul Oficial al UE
August 2024: Regulamentul intră în vigoare
La jumătatea anului 2025: Implementare completă în toate statele membre UE
Ce este Regulamentul european privind inteligența artificială?
Legea europeană a inteligenței artificiale 2024 este un regulament al Comisiei Europene care are scopul de a asigura că sistemele de inteligență artificială sunt utilizate într-o manieră „sigură, transparentă, urmăribilă, nediscriminatorie și prietenoasă cu mediul” . Regulamentul are scopul de a reglementa modul în care sistemele AI pot fi gestionate în mod corespunzător de către „furnizorii” și „operatorii” sistemelor AI în conformitate cu riscurile pe care le prezintă. Un „furnizor” de sisteme AI este, în sensul cel mai larg, o companie care oferă sau dezvoltă un sistem AI sub propriul său brand. Operatorii sunt cei care folosesc tehnologii AI. Prin urmare, orice companie poate face parte din acest grup. Cu cât riscul sistemului AI este mai mare, cu atât cerințele de reglementare sunt mai stricte.
Câteva puncte cheie ale legislației UE privind inteligența artificială
- Clasificare bazată pe risc: Actul AI clasifică sistemele AI în diferite niveluri de risc, fiecare cu cerințe de reglementare specifice pentru a-și gestiona impacturile potențiale.
- Cerințe de transparență: sistemele AI cu risc ridicat trebuie să îndeplinească cerințe stricte de transparență și păstrare a evidențelor pentru a asigura responsabilitatea și trasabilitatea.
- Supraveghere umană: Anumite sisteme AI necesită supraveghere umană pentru a atenua riscurile și pentru a menține standardele etice.
Niveluri de risc în legislația UE privind inteligența artificială
Actul AI definește patru niveluri de risc pentru sistemele AI, fiecare dintre acestea fiind asociat cu cerințe de reglementare specifice:
Sursa : Publicația oficială a Comisiei Europene privind legea AI
Risc inacceptabil
Sistemele AI care se încadrează sub acest nivel de risc reprezintă o amenințare clară și sunt strict interzise. Exemplele includ manipularea comportamentului prin tehnici cognitive, cum ar fi jucăriile controlate prin voce, care păcălesc copiii în comportamente periculoase, sau sistemele de evaluare socială care clasifică oamenii în funcție de comportamentul sau de caracteristicile lor personale.
Sisteme AI cu risc ridicat
Sistemele AI din această categorie pot avea un impact semnificativ asupra sănătății, siguranței sau drepturilor fundamentale. Exemple în acest sens includ AI în gestionarea infrastructurii critice, educație, angajare și aplicarea legii. Toate sistemele AI cu risc ridicat trebuie să fie supuse unor teste riguroase înainte de a fi aduse pe piață și pe toată durata de viață. Persoanele fizice au dreptul de a raporta preocupările legate de sistemele AI autorităților naționale relevante.
Risc limitat
Aceste sisteme AI prezintă un risc scăzut și sunt supuse cerințelor de transparență. De exemplu, utilizatorii care interacționează cu chatbot-uri trebuie să fie informați că vorbesc cu un AI. Furnizorii trebuie, de asemenea, să se asigure că conținutul generat de inteligență artificială, în special pe subiecte de interes public, este marcat în mod clar ca fiind generat artificial, indiferent dacă este text, audio sau video.
Risc minim sau deloc
Sistemele AI cu risc minim sau fără risc nu sunt supuse unor cerințe de reglementare suplimentare. Exemplele includ jocurile video controlate de AI și filtrele de spam.
Conformitate și IA: Ce ar trebui să facă companiile
După cum a explicat Consiliul European într-un comunicat de presă din mai , este important să se evalueze impactul asupra drepturilor fundamentale înainte ca un sistem IA cu risc ridicat să fie implementat de către anumite companii care furnizează servicii publice.
Furnizorii de sisteme AI trebuie să țină cont de câteva puncte:
- Efectuați o evaluare a riscurilor prin determinarea categoriei de risc a sistemului AI și implementând măsurile de protecție necesare.
- Creați documentație tehnică pentru a demonstra conformitatea și trimiteți-o autorităților pentru examinare.
- Dezvoltați sistemul AI pentru a înregistra automat evenimentele pentru a detecta riscurile și modificările sistemului.
- Creați linii directoare pentru operatori pentru a vă asigura că cerințele sunt îndeplinite.
Deși operatorii nu au aceleași obligații ca și furnizorii, Legea AI le cere să respecte ghidurile de utilizare, să asigure conformitatea organizatorică și tehnică și să efectueze o evaluare a impactului privind protecția datelor înainte de a implementa sisteme AI cu risc ridicat.
Nerespectarea legislației UE privind inteligența artificială poate duce la amenzi care variază de la 35 de milioane EUR, sau 7% din cifra de afaceri globală, la 7,5 milioane EUR, sau 1,5% din cifra de afaceri, în funcție de gravitatea încălcării și de dimensiunea companiei.
Obiectivele digitale ale Europei și Strategia europeană de date definite pentru 2030 vizează promovarea concurenței loiale și creșterea transparenței în serviciile online. Pentru companii, aceasta înseamnă că trebuie să se asigure că procesele lor susțin aceste valori de protecție a datelor. Legile adoptate recent, inclusiv Digital Services Act și Digital Markets Act , subliniază importanța concurenței loiale și a transparenței. Prin abordarea proceselor interne și revizuirea lor într-un stadiu incipient, atât furnizorii, cât și utilizatorii de sisteme AI pot evita amenzile și pot crește încrederea consumatorilor. Îmbunătățiți-vă procesele de conformitate astăzi făcând clic aici pentru a începe.