Material susținut de David, Avrǎmițǎ & Asociații
Dezvoltarea exponențială a inteligenței artificiale (AI) reprezintă una dintre cele mai mari provocări juridice ale secolului XXI. Dacă, în dreptul civil tradițional, răspunderea pentru prejudicii se întemeiază pe ideea vinovăției unei persoane — fie că este vorba despre o faptă proprie, despre fapta altuia sau despre răspunderea pentru lucruri — apariția entităților capabile de autonomie decizională modifică radical acest cadru conceptual. Inteligența artificială, prin capacitatea sa de a genera conținuturi noi creează o zonă gri între instrumentul pasiv și agentul autonom. Dreptul este astfel constrâns să răspundă la o întrebare fundamentală: cine răspunde atunci când inteligența artificială greșește?
În contextul actual al dezvoltării accelerate a inteligenței artificiale, se poate constata că sistemele bazate pe algoritmi avansați exercită o influență semnificativă asupra comportamentului și deciziilor oamenilor. Această influență nu este doar de natură informațională, ci și emoțională și psihologică, având potențialul de a modela percepții, convingeri și reacții personale. În anumite situații extreme, această presiune algoritmică, combinată cu vulnerabilitatea umană, a condus chiar la cazuri de sinucidere, fapt ce ridică serioase semne de întrebare cu privire la responsabilitatea juridică și morală a dezvoltatorilor și operatorilor acestor tehnologii.
Având în vedere principiile fundamentale ale dreptului, în special cele referitoare la protejarea vieții, demnității umane și sănătății mintale, se impune o intervenție normativă clară. Limitarea și reglementarea utilizării algoritmilor de inteligență artificială ar trebui să urmărească prevenirea abuzului de influență și garantarea faptului că tehnologia servește interesului public și binelui comun. AI trebuie utilizată ca instrument de progres și sprijin pentru oameni, nu ca factor de risc pentru integritatea psihologică sau pentru viața acestora.
În ceea ce privește răspunderea AI pentru asemenea situație observăm că în doctrina de specialitate s-au conturat mai multe direcții. Prima este cea a răspunderii producătorului. Conform principiilor consacrate de Directiva 85/374/CEE privind răspunderea pentru produsele defectuoase, producătorul răspunde pentru prejudiciile cauzate de defectele produsului său, fără a fi necesară dovedirea culpei. Aplicarea acestor reguli la sistemele de AI pare firească atunci când prejudiciul provine dintr-un defect de fabricație sau de proiectare. Totuși, problema devine complexă în cazul algoritmilor care se modifică autonom, pe baza învățării automate. În aceste situații, „defectul” nu mai poate fi imputat strict producătorului, ci apare ca un efect secundar al procesului de autoadaptare. Din acest motiv, numeroși autori susțin că regimul clasic al răspunderii pentru produse este insuficient pentru tehnologiile emergente.
O a doua direcție este cea a răspunderii utilizatorului, în calitate de operator sau supervizor al sistemului. Conform principiilor generale ale răspunderii civile delictuale (art. 1349 și urm. Cod civil), persoana care are controlul asupra unui instrument ce produce un prejudiciu poate fi ținută răspunzătoare pentru lipsa de diligență în supravegherea acestuia. În cazul AI, această regulă ar presupune ca utilizatorul să verifice funcționarea sistemului, să se asigure că datele de intrare sunt corecte și să nu lase deciziile esențiale complet în seama algoritmilor. Totuși, gradul ridicat de opacitate al modelelor de AI (așa-numitul „black box problem”) face dificilă evaluarea responsabilității utilizatorului, mai ales atunci când acesta nu are cunoștințele tehnice necesare pentru a înțelege mecanismele decizionale interne ale sistemului.
A treia viziune, din ce în ce mai susținută la nivel european, răspunderea pentru prejudicii cauzate de AI ar trebui să fie obiectivă, adică independentă de vinovăție. Argumentul principal este acela al riscului creat: cel care introduce pe piață sau utilizează o tehnologie cu potențial de a produce prejudicii ar trebui să suporte consecințele, chiar dacă a acționat cu toată prudența. Această abordare este deja consacrată în Codul civil român (art. 1375), pentru răspunderea privind lucrurile sau animalele, și ar putea fi extinsă la sistemele de AI, asimilate unor „lucruri”. În acest sens, s-ar putea crea un regim special de asigurare obligatorie pentru sistemele de AI de înalt risc, similar cu cel existent în materia autovehiculelor.
Unii teoreticieni merg chiar mai departe, propunând crearea unei personalități juridice electronice pentru formele avansate de AI. Astfel, entitățile algoritmice ar putea fi considerate, într-o anumită măsură, subiecte de drept limitate, capabile să dețină un patrimoniu propriu destinat despăgubirii victimelor. Această idee, deși din punct de vedere teoretic se poate pune în aplicare, ridică probleme etice și juridice majore: responsabilitatea implică conștiință, intenție și discernământ — calități pe care o mașină nu le poate avea. Prin urmare, majoritatea curentelor doctrinare resping, cel puțin deocamdată, această soluție, preferând consolidarea răspunderii umane și instituirea unor mecanisme de compensare colectivă.
Pe plan normativ, Uniunea Europeană a făcut pași importanți în direcția reglementării acestei problematici. Regulamentul privind Inteligența Artificială (AI Act), adoptat în 2024, clasifică sistemele de AI în funcție de gradul de risc și impune cerințe stricte privind siguranța, transparența și supravegherea umană. În paralel, Propunerea de Directivă privind răspunderea civilă pentru AI urmărește să simplifice sarcina probei pentru persoanele prejudiciate, permițându-le să invoce o prezumție de cauzalitate între comportamentul sistemului și prejudiciul suferit. România va trebui să transpună aceste norme în dreptul intern, adaptând dispozițiile Codului civil la noile realități tehnologice.
Astfel, dreptul răspunderii civile se află într-o transformare profundă. Modelul clasic, centrat pe vinovăția persoanei, tinde să fie înlocuit de un model bazat pe gestionarea riscului tehnologic și protecția victimelor. Provocarea viitorului constă în a menține echilibrul între stimularea inovației și garantarea unui nivel adecvat de siguranță juridică pentru cetățeni.
În ceea ce privește țările europene care au ales să recurgă la automatizarea sistemului juridic, evidențiem Estonia, pionierul digitalizării administrației publice și al e-justiției în Europa, însă din punct de vedere juridic, proiectul de „judecător-robot” nu reprezintă o delegare a funcției jurisdicționale către un algoritm, ci o automatizare parțială a procedurilor civile de mică valoare. În sistemul eston, competența de soluționare a litigiilor sub 6.400 euro este reglementată printr-un mecanism de ordin de plată electronic (e-toimik), instituit în baza Codului de procedură civilă eston și gestionat de Ministerul Justiției. Acest sistem permite depunerea online a cererilor, verificarea electronică a identității și generarea automată a unei propuneri de soluție de către un algoritm, care nu produce efecte juridice definitive fără validarea unui magistrat uman.
Și în China, sistemul judiciar a demarat, prin cadrul Supreme People’s Court (SPC), o „construcție de instanțe inteligente” („smart courts”) care înglobează tehnologiile de tip inteligență artificială. Din perspectivă juridică, această tendință introduce posibilitatea automatizării unor etape procesuale – cum ar fi înregistrarea electronică, verificarea identității și chiar asistența la redactarea hotărârilor – însă ridică concomitent provocări semnificative privind garanțiile procedurale: respectarea dreptului la apărare, motivarea hotărârilor, posibilitatea de recurs, transparența algoritmică și protecția datelor personale. În absența unui cadru normativ riguros care să definească limitele intervenției AI-ului, există riscul ca deciziile să devină mai puțin susceptibile de control uman, punând în discuție principiul independenței judiciare și egalității părților.
În Singapore, sistemul judiciar a adoptat o strategie graduală de integrare a instrumentelor de inteligență artificială, în special în cadrul Small Claims Tribunal (SCT), pentru a sprijini părțile neasistate de avocat. De exemplu, s-a semnat un Memorandum of Understanding cu o companie de tehnologie („Harvey.AI”) și s-a introdus un instrument de generare automată de traduceri și sumarizări pentru litigii de mică valoare. Din punct de vedere juridic, abordarea este una prudentă: AI nu decide în locul instanței, ci sprijină accesul la justiție, viteza procedurilor și înțelegerea de către litigant. Garanția procedurală este păstrată astfel: decizia rămâne în mâna unei autorități umane, AI fiind utilizată doar ca instrument de susținere.
În Australia, utilizarea inteligenței artificiale în cadrul procedurilor judiciare este puternic reglementată, iar instituțiile de supraveghere profesională au emis ghiduri stricte privind modul în care generative AI (Gen AI) poate fi utilizată de către avocați și părți. De exemplu, în statul New South Wales a intrat în vigoare de la 3 februarie 2025 „Practice Note SC Gen 23 – Use of Generative Artificial Intelligence” care limitează utilizarea AI în materiale depuse instanței (declarații de martori, rapoarte de expertiză) și impune ca orice document generat de AI să fie supus verificării riguroase. Astfel, acest cadru reflectă o recunoaștere că inteligența artificială prezintă riscuri semnificative pentru integritatea procesului (cum ar fi spețe inexistente, erori de fapte) și pentru principiile de răspundere profesională și etică. Instanțele australiene au subliniat că utilizarea AI nu scutește practicianul de obligațiile sale – de diligență, verificare, respectarea confidențialității și evitarea inducției în eroare a instanței. Prin urmare, modelul australian servește ca exemplu de „tehnologie cu limitări procedurale stricte”, unde adoptarea AI este permisă, dar numai în măsura în care garanțiile procesuale fundamentale rămân nealterate.
În continuare, în ceea ce privește profesiile expuse riscurilor automatizării inteligența artificială nu transformă doar economia și tehnologia, ci și esența muncii umane. Automatizarea inteligentă, înlocuirea proceselor repetitive cu algoritmi și integrarea roboticii în producție modifică radical raporturile de muncă tradiționale. În era AI, contractul individual de muncă, principiul subordonării și conceptul de „loc de muncă stabil” sunt supuse unei reevaluări profunde. Din perspectivă juridică, se conturează o dublă tendință: pe de o parte, dispariția unor profesii; pe de altă parte, apariția unor forme noi de muncă, centrate pe competențe digitale, supervizare algoritmică și colaborare om-mașină.
Prin urmare, considerăm că răspunderea pentru utilizarea AI trebuie să rămână atribuită exclusiv factorului uman și instituțional, chiar dacă procesul decizional poate fi asistat de un sistem automatizat. Rolul AI trebuie conceput ca un instrument de suport – un „asistent judiciar digital” – și nu ca o entitate autonomă cu putere decizională deplină. Pentru a asigura protecția omului, legislațiile naționale și internaționale trebuie să prevadă: transparența algoritmică, posibilitatea revizuirii umane, trasabilitatea datelor și delimitarea clară a răspunderii civile, administrative și penale pentru prejudiciile cauzate de erori tehnologice.
Cele mai expuse riscului de automatizare sunt activitățile repetitive și standardizate, care pot fi ușor formalizate în termeni algoritmici. În această categorie se înscriu operatorii de date, casierii, lucrătorii administrativi sau funcționarii din domenii unde sarcinile sunt predictibile. De asemenea, sectorul transporturilor și al logisticii se confruntă cu o transformare profundă: vehiculele autonome, dronele și sistemele de gestionare automatizată a depozitelor reduc nevoia de forță de muncă umană. În domeniul serviciilor financiare, AI a devenit deja capabilă să analizeze dosare de credit, să detecteze fraude sau să efectueze tranzacții, înlocuind o parte semnificativă din activitățile contabile și analitice. În sectorul juridic, spre exemplu, IA este utilizată pentru redactarea de contracte standard, analiză de jurisprudență sau evaluare de riscuri. Deși aceste instrumente pot crește eficiența, ele pot reduce cererea pentru pozițiile de debut sau de execuție. Totuși consider că rolul avocatului, al judecătorului sau al procurorului rămân esențiale, deoarece presupun raționament valoric, etic și interpretativ, dimensiuni inaccesibile algoritmilor.
Concluzie
Atât în materia răspunderii civile, cât și în domeniul raporturilor de muncă, inteligența artificială obligă dreptul să își depășească propriile limite conceptuale. Dacă, până acum, normele juridice erau concepute pentru a regla relațiile între persoane, astăzi acestea trebuie să reglementeze interacțiuni între oameni și sisteme algoritmice.
Astfel, inteligența artificială este benefică și necesară în sistemul juridic modern, dar numai sub condiția existenței unor limite normative ferme, care să garanteze că tehnologia servește omului — nu îl înlocuiește.













