Regulamentul privind inteligența artificială | Legal Flash nr. 106
Regulamentul privind inteligența artificială | Legal Flash nr. 106
Regulamentul (UE) 2024/1689 privind stabilirea regulilor armonizate privind inteligența artificială (Actul privind Inteligența Artificială / AI Act) a fost publicat în Jurnalul Oficial al Uniunii Europene la 12 iulie 2024.
Scopul Actul privind Inteligența Artificială este de a îmbunătăți funcționarea pieței interne prin instituirea unui cadru legal uniform, în special pentru dezvoltarea, plasarea pe piață, punerea în funcțiune și utilizarea sistemelor de inteligență artificială (sisteme AI) în Uniunea Europeană.
Actul stabilește principiile pentru o utilizare etică, sigură și de încredere a sistemelor de inteligenta artificiala. Principalele obiective ale AI Act includ:
- Abordarea riscurilor create de sistemele de inteligenta artificiala;
- Interzicerea sistemelor de inteligenta artificiala care prezintă riscuri inacceptabile;
- Stabilirea criteriilor pentru clasificarea sistemelor de inteligenta artificiala cu risc ridicat;
- Stabilirea unor cerințe clare pe care sistemele de inteligenta artificiala cu risc ridicat trebuie să le îndeplinească;
- Definirea obligațiilor specifice impuse celor care implementează și dezvolta sistemele de inteligenta artificiala cu risc ridicat;
- Evaluarea conformității unui sistem de inteligenta artificiala înainte de a deveni operațional sau a fi pus la dispoziția publicului;
- Asigurarea măsurilor de aplicabilitate pentru sistemele de inteligenta artificiala deja introduse pe piață;
- Instituirea unui cadru de guvernanță la nivel european și național.
AI Act stabilește o clasificare a sistemelor de inteligenta artificiala în funcție de riscuri. Astfel, AI Act identifică următoarele categorii de riscuri:
- sisteme de inteligenta artificiala cu risc inacceptabil - vor fi interzise la nivelul Uniunii Europene (de exemplu, manipularea comportamental-cognitivă, activitățile de poliție predictivă, recunoașterea emoțiilor la locul de muncă și în instituțiile educaționale, precum și evaluarea comportamentului social);
- sisteme de inteligenta artificiala cu risc ridicat (de exemplu, AI utilizată în admiterea la universități, aplicații medicale sau financiare), este supusă mai multor obligații, inclusiv:
- evaluarea și gestionarea tuturor riscurilor pentru persoanele supuse deciziilor sale;
- asigurarea datelor adecvate pentru antrenarea sistemului de inteligenta artificiala;
- documentarea tuturor proprietăților tehnice ale sistemelor de inteligenta artificiala, înregistrarea evenimentelor și incidentelor, înregistrarea procesului de luare a deciziilor și intervenția umană;
- transparență față de persoanele afectate prin notificări și avertismente și față de autorități prin înregistrarea aplicației într-o bază de date.
- sisteme de inteligenta artificiala cu risc limitat (de exemplu, chatbot-uri și conținut generat de inteligenta artificiala), supuse unei obligații de transparență. Societățile trebuie să informeze persoanele afectate că interacționează cu o mașină/un sistem de inteligenta artificiala sau conținut generat de inteligenta artificiala.
- sisteme de inteligenta artificiala cu riscuri minime sau inexistente (de exemplu, un filtru de spam). Majoritatea sistemelor de inteligenta artificiala nu prezintă riscuri. Acestea pot fi utilizate fără restricții și nu vor fi afectate de Actul UE privind Inteligența Artificială.
AI Act stabilește o listă de obligații pentru atât "furnizorii" de tehnologii, cât și "implementatorii" (societățile care utilizează inteligenta artificiala). Extinderea obligațiilor furnizorilor și implementatorilor depinde de nivelul de risc atribuit sistemului de inteligenta artificiala.
AI Act acordă o atenție specială sistemelor de IA de uz general (sisteme IA care au o gamă largă de utilizări posibile). Aceste sisteme de inteligenta artificiala pot fi aplicate în numeroase situații din diverse domenii. Sistemele de IA de uz general sunt de obicei antrenate pe volume mari de date, prin diverse metode, cum ar fi învățarea auto-supravegheată, nesupravegheată sau prin învățarea prin refacere. Exemple de sisteme de IA de uz general includ Llama, Gemma, Chat GPT, Chinchilla etc. Pentru aceste sisteme de inteligenta artificiala, furnizorii vor trebui să:
- întocmească și să mențină documentația tehnică,
- furnizeze informații despre capacitățile și limitările modelului și
- să pună în aplicare o politică de respectare a drepturilor de autor și a drepturilor conexe.
Sistemele de IA de uz general cu riscuri sistematice sunt supuse unor obligații suplimentare, cum ar fi:
efectuarea evaluărilor modelelor și evaluarea și reducerea posibilelor riscuri sistematice și
raportarea incidentelor grave autorităților competente.
Prevederile regulamentului devin aplicabile după cum urmează:
- Începând cu 1 februarie 2025, afacerile nu vor mai putea utiliza AI cu risc inacceptabil;
- Începând cu 1 august 2025, vor deveni aplicabile obligațiile pentru guvernanța AI cu scop general;
- Începând cu 1 august 2026, majoritatea obligațiilor Actului devin aplicabile, inclusiv unele dintre obligațiile pentru sistemele AI cu risc ridicat;
- Începând cu 1 august 2027, vor fi aplicabile și celelalte obligații pentru sistemele AI cu risc ridicat.
Societățile care nu respectă obligațiile regulamentului risca amenzi de până la 35 de milioane de euro sau 7% din cifra lor de afaceri globală.
Regulamentul instituie un cadru de guvernanță atât la nivel european, cât și la nivel național, respectiv, conform reglementării, următoarele autorități vor acționa în privința supravegherii AI:
- Comisia Europeană;
- Biroul AI - contribuind la implementarea, monitorizarea și supravegherea sistemelor AI și modelelor AI cu scop general, precum și la guvernanța AI;
- Autoritățile competente naționale.
Societățile care dezvoltă sisteme de inteligenta artificiala pentru piața UE sau utilizează asemenea sisteme în serviciile lor ar trebui să implementeze măsuri de conformitate încă de la început, cum ar fi implementarea măsurilor de securitate tehnice și organizaționale, asigurarea supravegherii umane și respectarea cerințelor de transparență privind utilizarea AI.
Societățile ar trebui să evalueze rolul lor și nivelul de risc asociat sistemelor de inteligenta artificiala pentru a implementa măsuri care să sporească transparența, responsabilitatea și reducerea riscurilor.
Noile reglementări impun o nevoie mult mai strictă pentru afaceri de a cartografia și de a mapa datele utilizate în cadrul activităților desfășurate. Prin date în acest context, trebuie avute in vedere nu doar datele non-personale supuse partajării in lumina diverselor alte acte legislative europene (de exemplu, DORA, NIS2, Legea europeană privind datele), dar și datele personale supuse GDPR.
Echipa noastră de avocați va poate asista în lungul drum pe care conformitatea cu legislația europeană privind Tech & Data ar putea să-l implice.