Această conferință națională se adaugă celei de drept al mediului, un alt domeniu de leadership de cercetare științifică și universitar asumat de UEB în țara noastră. Manifestarea reunește reprezentanți ai autorităților publice [Parlamentului, Ministerului Justiției, Hub-ului Român de IA (HRIA)] și ai lumii universitare și de cercetare științifică, iar subiectele abordate vor viza aspecte esențiale ale cadrului juridic european în materie de IA, în conexiuni tematico-normative cu diferitele ramuri de drept intern/român (drept public, drept privat, drept penal, dreptul mediului, drept comercial, dreptul consumului ș.a.). Pentru a prefața evenimentul științific ne-am adresat principalului artizan al acestuia, prof. univ. dr. Mircea Duțu, Președintele UEB și fondatorul dreptului IA în România.
Ovidiu Predescu: Conferința națională inaugurală are ca temă modelul european de reglementare a inteligenței artificiale, în frunte cu AI Act. Așadar, pentru început aș dori domnule profesor să aflu cum s-a format acesta, de ce în cadrul UE și în ce măsură se exprimă el la acest moment?
Mircea Duțu: Apărută, cel puțin în spațiul public, de curând și în mod fulminant, îndeosebi odată cu forma sa generativă (2022), IA a cunoscut și o încadrare juridică în ritm alert și cât mai adecvată. Într-adevăr, modelele de IA au început să se dezvolte din anul 2017, fără ca nimeni să fie la curent cu implicațiile lor. Puțini puteau să-și imagineze atunci o atare desfășurare tehnologică și o asemenea punere la dispoziția publicului a aplicațiilor sale. Odată apărută și pătrunsă treptat în viața socială, se aștepta și o reacție în plan juridic, dar pentru aceasta era nevoie de un anumit timp. Iar o atare cerință înseamnă în drept răbdare, prudență, rețineri și câștigarea unei anumite experiențe. El nu poate interveni decât la chemarea unei nevoi sociale acute și consistente și în reglarea unei disfuncționalități ce se impune a fi corectată. Din această perspectivă dreptul e și rămâne și în această privință o materie vie, care reglementează viața ființelor umane. Prin esența și finalitățile sale se situează într-o oarecare întârziere în raport cu mișcarea competențelor tehnologice și mai ales în situația societății accelerate. În plus, dacă ar reprima o anumită conduită înainte chiar ca ea să existe ne-am putea teme de domnia arbitrarului. Cu atari premise putem spune că legislatorul unional-european a intervenit într-un termen rezonabil. Apariția publică a ChatGPT s-a produs în noiembrie 2022 și la mai puțin de 2 ani de la aceasta, respectiv 13 iunie 2024, era adoptat Regulamentul (UE) nr. 2024/1689 privind IA. În plus, actul legislativ prevedea mai multe etape (termene) de punere a sa în aplicare, ultimul fiind la 2 august 2027, ceea ce permite întreprinderilor un răstimp de conformare corespunzătoare la prescripțiile sale. În același timp, evoluția rapidă a realităților tehnologice și turbulențele survenite în datele contextului socioeconomic și chiar geopolitic au reclamat ajustări din mers în cadrul procesului de aprobare a sa, iar ulterior în dezvoltarea și adaptarea multiplelor reglementări subsidiare, de detaliere și de operaționalizare a măsurilor preconizate. Pe un asemenea „nisip mișcător” al competiției tehnologice mondiale, nici acum nu avem certitudini asupra deplinelor contururi reglementare ale modelului european în materie, sperând în reziliența și capacitatea sa de regenerare.
Ovidiu Predescu: După o atare „odisee” tehnico-reglementară, consider firesc să vă întreb cum ați caracteriza, în termeni generali, corpusul normativ care guvernează în prezent materia IA la nivel european, generat de UE și de Consiliul Europei?
Mircea Duțu: Să începem prin a preciza că RIA reprezintă primul text orizontal care are vocație de a răspunde la mizele și riscurile suscitate de o atare nouă tehnologie. Desigur, nu e vorba de o reglementare perfectă ci, mai degrabă, de una permanent perfectibilă, și aceasta mai ales având în vedere că ea a făcut obiectul unui enorm lobbying, date fiind imensele interese aflate în joc, pe care le-au denunțat chiar parlamentari europeni la timpul potrivit. Dincolo de limitele sale, el are marele merit de a aborda subiectul și a-i aduce o primă rezolvare (juridică) globală, luând în calcul un echilibru între nevoia favorizării inovării și imperativul protecției masei consumatorilor. Regulamentul a fost însoțit în cadrul european mai larg și într-un anumit fel ca un complement necesar, de adoptarea aproape simultană, sub auspiciile Consiliului Europei, a Convenției-cadru privind inteligența artificială și drepturile omului, democrația și statul de drept (19 mai 2024). Pe lângă cele 46 de state membre ale organizației au fost asociate la discutarea tratatului și unele nemembre, îndeosebi SUA și China, protagoniștii principali ai domeniului, care astfel a devenit deja unul geostrategic, în deplinătatea semnificațiilor termenului. Cele două texte europene au unele aspecte diferite în abordare, dar rămân complementare în multe privințe, ceea ce le permite să se conecteze și să se integreze în elemente definitorii ale unui model continental de reglementare a IA, cu o evidentă vocație universală. Așadar, Regulamentul emană de la Uniunea Europeană, a cărei primă vocație devine aceea de a regla piața aferentă. De altfel, intervenția pe calea unui act legislativ de acest tip e justificată prin prevederile art. 114 al Tratatului privind Funcționarea UE (TFUE), care privește construirea pieței unice. Convenția-cadru provenită din partea Consiliului Europei e un text internațional cu un caracter codificator și adaptativ, iar în aplicarea sa statele-părți vor trebui să adopte măsuri corespunzătoare, de naturi diferite și poartă în primul rând asupra drepturilor fundamentale. Putem conchide deci că, într-o viziune (oarecum) reciproc completatoare, mizele de piață sunt abordate de Regulament, iar cele aferente drepturilor fundamentale ale persoanelor, democrației și statului de drept de către convenția Consiliului Europei. Nu putem ignora nici faptul că și RIA ține seama, sub anumite aspecte, și el, de problematica drepturilor umane. Rezultă astfel un corpus de norme, cu juridicitate variabilă și conținut majoritar concordant și complementar ce tinde să se constituie într-un model de reglementare în materie.
Ovidiu Predescu: Într-o continuare ideatică obiectivă, având în vedere tema conferinței și în contextul specific unui interviu, cum s-ar putea rezuma conținutul lui AI Act?
Mircea Duțu: Putem considera că RIA tinde să răspundă unui anumit număr de obiective anterior invocate la general, prin intermediul unei abordări bazate pe riscuri. Este o perspectivă foarte modernă, care se manifestă în cadrul unei ecuații de conciliere a reglementării (juridice) și a inovării (tehnologice). Cu cât riscurile aduse asupra drepturilor umane, exigențelor statului de drept și securității sunt mai consistente, cu atât constrângerea normativă se resimte mai mult. O asemenea abordare e reprezentată adesea sub forma unei piramide a riscurilor. La vârful său ultim se află „riscurile inacceptabile”: manipularea comportamentelor, supravegherea de masă în mod direct în spațiul public, scoring social. Respectivele sisteme de IA sunt pur și simplu interzise în UE, întrucât nu corespund valorilor promovate de aceasta. Urmează imediat în ierarhia astfel prefigurată categoria de „risc înalt”, cea mai preocupantă, care face obiectul mai multor mari articole ale Regulamentului. Aici, riscurile sunt importante pentru drepturi, securitate și sănătate, de exemplu, în sectorul justiției, cel al formării, al migrației ori chiar al infracțiunilor. În această privință, obligațiile pertinente sunt impuse în termenii documentării, securității și supervizării umane, cu ajutorul unei proceduri de conformare înainte de introducerea pe piață și al unui marcaj corespunzător. La un nivel și mai jos există o categorie de „risc limitat” care vizează, între altele, generarea de imagini sau chatbots-urile. La nivelul cel mai de jos, atunci când riscurile sunt minime, RIA nu are vocația de a adăuga reguli suplimentare celor care deja există în corpusul normativ european; e preferat și promovat numai un angajament etic (cod de conduită, cartă ș.a.). Se instituie în acest mod o responsabilitate graduală și progresivă a actorilor IA în funcție de riscul generat de SIA introduse pe piața unional-europeană.
De remarcat și faptul că unele reguli componente au apărut tardiv în procesul normativ al textului, sub presiunea evoluției realităților tehnologice, în special apariția inteligenței artificiale generative, mai exact aferente modelelor de IA de uz general care dau loc aplicațiilor sale. Aceste instrumente beneficiază de dispoziții specifice, privind cu precădere drepturile de autor și drepturile conexe acestuia. Ele au fost adoptate, sub o oarecare criză de timp, în decembrie 2023, de aceea ne apar ca parțial incomplete și chiar imperfecte, au generat nemulțumiri din partea autorilor și au provocat inițiative de completare și precizare.
Ovidiu Predescu: Pentru că ați invocat situația generată de apariția inteligenței artificiale generative și impactul aplicațiilor sale, vă propun în continuare să vă referiți și la problemele specifice pe care le ridică aceasta și în raport cu cadrul european pertinent.
Mircea Duțu: Așa cum am arătat, AI Act vorbește de „modele” și le are în vedere în reglementarea pe care o instituie. Pentru crearea lor este indispensabilă o etapă de antrenament asupra maselor de date pertinente. Numai că acestea din urmă pot să fie protejate de reglementările privind proprietatea intelectuală, să fie cu caracter personal sau nerezervate. Sistemul „va învăța” asemenea conținuturi într-un demers intuitiv și va putea apoi genera un rezultat, o tendință, o corelare sau un conținut. Constrângerea normativă depinde în plus și de anumite criterii problemă: modelul se află ori nu în sursă deschisă (open source)? Prezintă sau nu un risc sistemic? Acest din urmă criteriu există când modelul poate avea o incidență semnificativă, la scară mare, pe piața unional-europeană și, prin urmare, eventuale efecte asupra securității și a drepturilor fundamentale. Ea urcă în funcție de gradul de risc. Afară de asta e știut faptul că, indiferent dacă modelul e din sursă deschisă sau nu, cu risc sistemic sau cu absența acestuia, sunt întotdeauna exigențe legate de drepturile de autor și de cele conexe. Din perspectiva IA se impun două obligații fundamentale furnizorilor de IA (în principal fabricanților săi). Pe de o parte, aceștia trebuie să integreze o politică de conformitate dreptului de autor și celor conexe; se impune stabilirea de dispoziții, de măsuri tehnice operaționale și arhitecturale (proiectare) care să permită respectarea acestor drepturi, în special a „opt out”, adică a refuzului titularului de drepturi ca respectivele conținuturi ce-i aparțin să fie folosite la antrenarea modelului. Această obligație e detaliată în codul de practici publicat de curând. Pe de altă parte, furnizorii de IA sunt ținuți să producă un „rezumat suficient de detaliat” al conținuturilor utilizate pentru antrenamentul modelelor lor; un atare model a fost făcut public deja de Oficiul pentru IA. Numai că cele două documente complementare nu satisfac reprezentanții sectorului culturii, care se opun la nivel european unei serii de interpretări date de instanțele unional-europene, pe care le consideră minimaliste.
Ovidiu Predescu: Așadar, conflictul între drepturile de autor și utilizatorii de IA rămâne deschis și e în căutare de soluții durabile. Există însă și posibilitatea unei rezolvări în sens radical a dilemei?
Mircea Duțu: Pentru soluționarea tensiunilor dintre autori și persoanele îndreptățite, pe de o parte, și furnizorii de SIA, pe de alta, s-au propus deja și se încearcă, în parte, să se aplice mai multe căi. Așa, de exemplu, Franța a înaintat, pe baza concluziilor unei misiuni speciale de cercetare a problemei o serie de propuneri Comisiei Europene menite să întărească transparența asupra datelor utilizate de furnizori, subsumată promovării unui model de rezumat capabil să armonizeze secretul afacerilor și dreptul de dispoziție al autorilor. S-au mai avansat ca posibile remedieri remunerarea conținuturilor utilizate de sistemele de IA, promovarea unei serii de măsuri juridice incitative care să permită crearea unei piețe etice și competitive, respectuoase cu lanțul de valoare și deci cu remunerarea datelor introduse care fac obiectul unui monopol. Printre măsurile juridice suplimentare propuse în acest context se numără instituirea unui mediator al IA, stabilirea unei prezumții legale de utilizare a conținuturilor atunci când există indicii pertinente (dar judecătorul ar putea ridica, la rându-i, o prezumție judiciară în materie), consacrarea unei injoncțiuni de divulgare de elemente de probă (la modul procedurii americane discovery) ș.a. Am impresia însă că, în cele din urmă, disputa se va rezolva tot prin prisma avansului tehnologic și în același sens al victoriei treptate, dar sigure a inteligenței artificiale și a aplicațiilor sale inovatoare. Din ce în ce mai mult conținuturile sunt generate de inteligența artificială, inclusiv pe rețelele sociale. Or, furnizorii de IA antrenează modele fie plecând de la un set de date pus la dispoziție fără autorizare, fie recurgând la recuperarea datelor de pe internet ori la datele sintetice, care sunt din ce în ce mai prezente. Din acest punct de vedere s-a demonstrat că atunci când un model se antrenează plecând numai de la date generate de IA el se prăbușește rapid. Datele umane sunt necesare în acest sens pentru a menține și a amplifica performanțele lor. De asemenea, și datele culturale sunt binefăcătoare pentru aplicațiile noilor tehnologii. Totuși, tendința sărăcirii datelor umane în bagajul utilizat în procedurile de antrenare, completate cu perfecționarea și sporirea capacităților cognitive ale mașinii, ar putea conduce, într-un viitor nu prea îndepărtat, la eliminarea practic a datului uman din acest cadru. Desigur, nu fără importante pierderi la capitolul progresului creativ, dar cu un impact utilitarist suplimentar.
Ovidiu Predescu: Din această perspectivă, care este rolul și locul modelului juridic european în materie de IA în cadrul guvernanței mondiale a domeniului? Va fi unul dominant ori unul alternativ?
Mircea Duțu: Așa cum se întâmplă deja în cazul internetului e posibil ca să nu se ajungă la o guvernanță centralizată și universală a IA, ci la una plurală, în funcție de mizele și subiectele abordate, de la certificarea algoritmilor, la infrastructura fizică a cyberspațiului trecând prin libertatea de expresie și viitorul conflictualității tehnologice. În acest context, modelul european reprezintă unul alternativ, viabil și reprezentativ pentru tradițiile sale juridice și particularitățile economico-tehnologice aferente. Cu o abordare bazată pe riscuri și având ca busolă o IA „demnă de încredere”, UE prefigurează un viitor potențial bulversat de inedita tehnologie, căutând totodată să-și consolideze statutul/rolul de putere normativă în domeniul guvernanței. Cu toate acestea, pentru a se manifesta cu adevărat precum o referință în privința reglementării IA și a viza o formă de prioritate tehnologică, ea are nevoie de eforturi suplimentare, mai ales de ordin investițional. Dacă unele din aspectele sale pot avea o influență variabilă asupra piețelor mondiale, demersurile reglementare ale Europei nu sunt suficiente – și nu vor fi – spre a stabili singură standardele internaționale aferente.
Regulamentul privind IA ilustrează capacitatea de acțiune a Bruxellesului în materie de tehnologii zise critice, care elevă o abordare aferentă unei „suveranități tehnologice”. Fiecare etapă de punere în aplicare a diferitelor capitole ale textului a ridicat probleme, suscitat discuții și dezbateri și a adus nuanțări de explicare, sub impactul evoluțiilor contextuale. Reziliența dovedită până acum la presiunile venite mai ales de peste ocean, pe fondul unei concurențe geostrategice tehnologice fără precedent e promițătoare. Cea de-a treia cale, afirmată la Summitul de la Paris privind IA (februarie 2025) în care UE și-a asumat rolul de leadership, îi permite să depășească riscul fragmentării pe care îl observăm la nivel internațional, efectul de model îi consolidează semnificațiile, iar succesele ce se așteaptă în orizontul cercetării și inovării îi va asigura acreditarea definitivă ca reper global. Se conturează astfel un model aferent unei a treia căi de percepere, abordare și dezvoltare a IA, cu o certă vocație universală.
Este știut faptul că Administrația D. Trump se opune în general reglementării IA, asimilate unei limitări a libertății de expresie, promovării „wokism”-ului și unei cenzuri a vocilor conservatoare. Președintele SUA a amenințat, în mai multe rânduri și chiar recent, cu represalii împotriva statelor ce reglementează IA ori răspunsurile sale, precum UE cu AI Act ori Digital Service Act. Dar, la fel ca rețelele sociale înaintea lor, întreprinderile nu fac economie în a dezbate și căuta soluții în privința încadrării mai largi a instrumentelor lor, cărora li s-ar putea reproșa, în viitor, problema de atingere a vieții private, de uzurpare a identității, adicția, incitarea la comportamente periculoase, prejudecăți discriminatorii, erori medicale, dezinformări în perioade electorale. Chiar E. Musk a anunțat, în iulie 2025, măsuri pentru a evita ca asistentul digital gratuit Grok, conceput de xAI, să nu posteze „discursuri de ură” după ce IA a avut unele derapaje inadmisibile în această privință.
Ovidiu Predescu: În pofida crizei cronice a multilateralismului, a ofensivei unei lumi multipolare și în condițiile în care competiția tehnologică, în frunte cu cea aferentă dezvoltării IA a dobândit dimensiuni geostrategice, mai este posibilă o veritabilă guvernanță internațională a problemei?
Mircea Duțu: Chiar dacă demersurile ONU rămân palide, mai ales prin efectele lor, implicarea sa în promovarea problematicii IA se dovedește una meritorie. Fie și numai pentru că aduce în atenția comunității internaționale nevoia cooperării în vederea gestionării sale durabile și în sens umanist trebuie aplaudată.
Printre progresele înregistrate în acest sens să menționăm că, potrivit unui comunicat oficial, Adunarea generală a ONU a creat, la 26 august a.c., un grup de experți științifici privind inteligența artificială, care va fi însărcinat ca, prin analizele și concluziile sale, să ajute comunitatea internațională să adopte decizii informate, adecvate și eficiente asupra acestui subiect sensibil, dar din ce în ce mai important al întregii societăți. Preocupată de dezvoltarea rapidă a unei atari tehnologii revoluționare, care ar putea amenința democrația și drepturile umane, statele membre ale organizației mondiale s-au angajat, în septembrie 2024, în cadrul „Pactului pentru viitor” să stabilească un asemenea organism menit să contribuie la lămurirea dialogului internațional dintre guverne și ceilalți actori ai domeniului. Printr-o rezoluție aprobată în acest sens se înființează Grupul științific internațional independent al inteligenței artificiale, care va trebui să furnizeze „evaluări științifice fondate pe date probante, în care vor fi sintetizate și analizate studiile existente privind promisiunile, riscurile și repercusiunile inteligenței artificiale”. Raportul său de sinteză anual „va servi la lămurirea luării deciziilor, fără ca totuși să fie prescriptiv”, precizează textul onusian.
Mandatat de Adunare, secretarul general al ONU, care a salutat crearea unui „pod crucial între cercetarea de vârf privind IA și elaborarea politicilor”, a lansat un apel la candidaturi pentru a identifica pe cei 40 viitori membri ai grupului, care vor fi desemnați pentru un mandat de 3 ani.
Într-adevăr, IA se dezvoltă într-un ritm și la o scară ce afectează toate țările și de aceea reglementarea sa corespunzătoare reprezintă o prioritate majoră. Preluarea acestei inițiative exprimă o atare realitate și reflectă rolul central ce revine ONU în garantarea utilizării acestei noi tehnologii în serviciul umanității. Este de domeniul evidenței că, furnizând evaluări științifice riguroase și independente, respectiva structură va sprijini comunitatea internațională să anticipeze provocările emergente și să adopte deciziile informate privind modul de a guverna această tehnologie transformatoare.
După modelul guvernanței onusiene privind schimbarea climatică, în privința căreia în 1988 s-a instituit Grupul interguvernamental privind evoluția climei (IPPC) și pe baza rapoartelor periodice și speciale ale căruia s-a constituit treptat dreptul climei, se prefigurează astfel contururile cadrului instituțional menit să ofere cunoștințele științifice generale, acceptate și acreditate ca atare, pe baza cărora să se construiască acțiunea globală și să se cristalizeze reglementarea internațională pertinentă. Un pas important, așadar, în demersurile anevoioase, dar indispensabile care să creeze premisele viitorului drept global al IA.
Ovidiu Predescu: Revenind la pretextul (formal și ideatic) al discuției noastre, ediția I (inaugurală) a Conferinței naționale de dreptul inteligenței artificiale, care sunt celelalte gânduri prefațatoare ale inițiatorului său?
Mircea Duțu: Conferința națională se înscrie în mod firesc cercului de preocupări aferent rolului asumat de UEB, de „pol” național al cercetării și învățării (formării) dreptului inteligenței artificiale. După dezvoltarea unei filiere de excelență universitară în materie – licență, master (primul de DIA din țara noastră!) și doctorat – și a unui centru de cercetări de profil și în completarea acestora, reuniunea de față reprezintă una din formele de valorificare și diseminare potrivite a rezultatelor obținute. Suntem în stadiu avansat de stabilire a unor legături de cooperare pertinente cu alte structuri universitare și de cercetare științifică din străinătate, spre a amplifica cooperarea internațională și a ne conecta ferm la dialogul european și mondial de idei, aferent domeniului. Dreptul IA se naște îndeosebi în Europa, se răspândește în întreaga lume și avem datoria de a oferi o contribuție românească relevantă la afirmarea și, prin aceasta, la acreditarea ca nouă ramură de drept și inedită disciplină științifică. Ecologia și noile tehnologii, inclusiv din perspective juridice, după cum și tranziția ecologică și cea digitală, găsesc la UEB un veritabil cadru de excelență universitară!
Un material Legal Marketing