Recunoașterea facială va fi autorizată în unele cazuri, iar instrumentele AI din industria militară sunt acceptate. Ce înseamnă de fapt reglementările pentru Inteligența Artificială propuse de UE?

Publicat: 14 03. 2024, 12:18
Actualizat: 14 03. 2024, 12:41
Sursa foto: Freepik.com

Reglementările AI propuse de UE au fost aprobate miercuri de Parlamentul European și reprezintă o piatră de hotar în domeniul tehnologiei. Votul este un pas important spre introducerea legislației, care necesită acum aprobarea oficială a miniștrilor din statele membre UE. Totuși, există încă foarte multe semne de întrebare cu privire la lejeritatea limitelor pe care cei care utilizează AI n-ar trebui să le treacă.

UE speră că proiectul de lege propus va fi preluat și în alte țări

Consumatorii nu vor observa o diferență imediată, în condițiile în care actul va fi implementat pe o perioadă de trei ani.

„Utilizatorii vor putea avea încredere că instrumentele AI la care au acces au fost verificate cu atenție și sunt sigure pentru utilizare”, a declarat Guillaume Couneson, partener la firma de avocatură Linklaters. „Siguranța va fi similară cu cea în cazul aplicațiilor bancare pentru care consumatorii care pot avea încredere că banca a luat măsuri de securitate stricte.”

Proiectul de lege contează în afara UE, deoarece Bruxelles-ul este un organism de reglementare tehnologic influent, așa cum arată impactul GDPR asupra gestionării datelor oamenilor.

„Multe alte țări vor urmări ce se întâmplă în UE după adoptarea Legii AI. Abordarea UE va fi probabil copiată numai dacă se dovedește că funcționează”, a adăugat Couneson.

Cum este definită AI de către proiectul de lege?

O definiție de bază a inteligenței artificiale este cea potrivit căreia AI este un sistem computerizat care îndeplinește sarcini pe care le-ai asocia în mod normal cu nivelurile de inteligență umane, cum ar fi scrierea unui eseu sau desenarea unei imagini.

Actul în sine are o abordare mai detaliată, descriind tehnologia AI pe care o reglementează drept un „sistem bazat pe mașini proiectat să funcționeze cu diferite niveluri de autonomie”, care acoperă, evident, instrumente precum ChatGPT.

Acest sistem poate arăta „adaptabilitate după implementare” – adică învață la locul de muncă – și deduce din răspunsurile pe care le primește „cum să genereze rezultate cum ar fi predicții, conținut, recomandări sau decizii care pot influența mediile fizice sau virtuale”.Această definiție acoperă chatboții, dar și instrumentele AI care, de exemplu, cercetează cererile de locuri de muncă.

Image by Gerd Altmann from Pixabay

Sunt interzise sistemele care prezintă un „risc inacceptabil”

Legislația interzice sistemele care prezintă un „risc inacceptabil”, dar scutește instrumentele AI concepute pentru uz militar, de apărare sau de securitate națională, probleme care alarmează mulți susținători ai siguranței tehnologiei.

De asemenea, nu se aplică sistemelor concepute pentru a fi utilizate în cercetarea științifică și inovare.

„Ne temem că scutirile pentru securitatea națională din Actul AI oferă statelor membre o posibilitate pentru a ocoli reglementările esențiale privind inteligența artificială și creează un risc ridicat de abuz”, a declarat Kilian Vieth-Ditlmann, șef adjunct la non-profit din Germania, Algorithmwatch, care militează pentru utilizarea responsabilă a AI.

Polițiștii vor putea folosi recunoașterea facială, uneori chiar și fără a cere aprobare

Anumite sisteme vor fi interzise. Printre acestea sunt și acele sisteme care încearcă să manipuleze oamenii pentru a provoca rău; sisteme de „capital social” care clasifică oamenii în funcție de comportamentul social sau de personalitate, cum ar fi cel din Rongcheng, China, unde orașul a evaluat aspectele comportamentului rezidenților; monitorizarea emoțiilor oamenilor la locul de muncă sau în școli; sisteme de „categorisire biometrică” care verifică oamenii pe baza datelor lor biometrice (scanări ale retinei, recunoaștere facială, amprente) pentru a deduce lucruri precum rasa, orientarea sexuală, opiniile politice sau credințele religioase; și compilarea bazelor de date de recunoaștere facială prin preluarea imaginilor faciale de pe internet sau CCTV.

Recunoașterea facială a fost un factor controversat în legislație. Utilizarea sistemelor de identificare biometrică în timp real – care acoperă tehnologia de recunoaștere facială a mulțimilor în direct – este interzisă, dar permisă pentru aplicarea legii într-o serie de circumstanțe.

Oamenii legii pot folosi o astfel de tehnologie pentru a găsi o persoană dispărută sau pentru a preveni un atac terorist, dar vor avea nevoie de aprobarea autorităților – deși în circumstanțe excepționale poate fi desfășurată fără aprobare prealabilă.

Există sisteme riscante care nu sunt interzise

Actul are o categorie specială pentru sistemele cu „risc ridicat”, care vor fi legale, dar, se spune, doar dacă sunt respectate îndeaproape.

Sunt incluse sistemele utilizate în infrastructura critică, cum ar fi apa, gazul și electricitatea, sau cele utilizate în domenii precum educația, ocuparea forței de muncă, asistența medicală și băncile.

Anumite sisteme de aplicare a legii, justiție și control la frontieră vor fi, de asemenea, acceptate. Dar un sistem utilizat pentru a decide dacă cineva este admis într-o instituție de învățământ sau dacă primește un loc de muncă, va fi considerat cu risc ridicat. (Dar acceptat dacă e respectată legea).

Actul impune ca aceste instrumente să fie precise, supuse evaluării riscurilor, să aibă parte de supraveghere umană și, de asemenea, utilizarea lor să fie înregistrată. De asemenea, cetățenii UE pot cere explicații cu privire la deciziile luate de aceste sisteme AI care i-au afectat.

Drepturile de autor vor fi respectate doar în anumite cazuri

Inteligența Artificială generativă – termenul pentru sistemele care produc text, imagini, video și audio plauzibile – este acoperită de prevederi pentru ceea ce legea numește sisteme AI „de uz general”.

Va exista o abordare pe două niveluri. În cadrul primului nivel, toți dezvoltatorii de modele vor trebui să respecte legislația UE privind drepturile de autor și să furnizeze rezumate detaliate ale conținutului utilizat pentru instruirea modelului.

Nu este clar cum modelele deja instruite vor putea să se conformeze, iar unele sunt chiar în acest moment sub presiune legală. The New York Times dă în judecată OpenAI, iar Getty Images dă în judecată StabilityAI, acuzând încălcarea drepturilor de autor.

Modelele cu sursă deschisă, care sunt disponibile gratuit pentru public, spre deosebire de modelele „închise” precum GPT-4 de la ChatGPT, vor fi scutite de cerința privind drepturile de autor.

Un nivel mai dur este rezervat modelelor care prezintă un „risc sistemic” – pe baza unei evaluări a „inteligenței” lor mai asemănătoare cu cea a oamenilor – și este de așteptat să includă chatboți și generatori de imagini.

Măsurile pentru acest nivel includ raportarea incidentelor grave cauzate de modele, cum ar fi decesul sau încălcarea drepturilor fundamentale și efectuarea de „testări contradictorii”, în care experții încearcă să ocolească garanțiile unui model.

Conținutul generat de AI nu trebuie marcat corespunzător, dacă a fost revizuit de oameni

Persoanele, companiile sau organismele publice care emit deepfake-uri trebuie să dezvăluie dacă conținutul a fost generat sau manipulat artificial. Dacă manipularea este făcută pentru o lucrare „evident” artistică, creativă sau satirică, trebuie totuși semnalată, dar într-un „mod adecvat”.

Textul produs de chatboți care informează publicul „cu privire la chestiuni de interes public” trebuie marcat ca fiind realizat de inteligența artificială, dar nu în cazul în care a fost supus unui proces de revizuire umană sau control editorial – care scutește conținutul care a fost supravegheat uman de marcaje.

Ce cred companiile de AI și tehnologie?

Proiectul de lege a primit un răspuns mixt. Cele mai mari companii de tehnologie susțin public legislația în principiu. Amazon a spus că s-a angajat să colaboreze cu UE „pentru a sprijini dezvoltarea sigură, sigură și responsabilă a tehnologiei AI”, dar Meta lui Mark Zuckerberg a avertizat împotriva suprareglementării.

„Este esențial să nu pierdem din vedere potențialul uriaș al inteligenței artificiale de a stimula inovația europeană și de a permite concurența”, a spus șeful afacerilor UE al companiei.

În privat, răspunsurile au fost mai critice. O persoană de rang înalt al unei companii americane a avertizat că UE a stabilit o limită pentru puterea de calcul utilizată pentru antrenarea modelelor AI, care este mult mai mică decât propunerile similare din SUA.

Care sunt pedepsele conform faptei?

Amenzile vor varia de la 7,5 milioane EUR sau 1,5% din cifra de afaceri globală totală a unei companii – în funcție de care dintre acestea este mai mare – pentru furnizarea de informații incorecte autorităților de reglementare, până la 15 milioane EUR sau 3% din cifra de afaceri mondială pentru încălcarea anumitor prevederi ale legii, cum ar fi obligațiile de transparență, la 35 milioane EUR, sau 7% din cifra de afaceri, pentru implementarea sau dezvoltarea instrumentelor AI interzise. Vor exista amenzi mai proporționale pentru companiile mai mici și startup-urile.

Obligațiile vor intra în vigoare după 12 luni, așa că la un moment dat anul viitor, odată ce actul devine lege, interzicerea anumitor categorii intră în vigoare după șase luni.

Furnizorii și implementatorii de sisteme cu risc ridicat au la dispoziție trei ani pentru a se conforma. Va exista, de asemenea, un nou birou european de inteligență artificială care va stabili standarde și va fi principalul organism de supraveghere pentru modelele GPAI.