Anchetă The Guardian: Regulamentul intern al Facebook despre sex, terorism și violență

Anchetă The Guardian: Regulamentul intern al Facebook despre sex, terorism și violență
scris 22 mai 2017

Regulamentul intern al rețelei de socializare Facebook referitor la o serie de chestiuni sensibile, precum sex, terorism și violență, a fost dezvăluit, duminică seară, într-o anchetă publicată de cotidianul britanic The Guardian. Aceste politici interne îi ghidează pe moderatorii de pe Facebook în privința alegerii conținuturilor care pot fi autorizate spre a fi publicate online.

Regulile secrete ale Facebook și ghidul de practici utilizat pentru a decide conținuturile pe care cei peste 2 miliarde de utilizatori au voie să le publice pe această rețea de socializare au fost dezvăluite pentru prima dată în urma unei anchete a cotidianului The Guardian. Aceste dezvăluiri vor genera cel mai probabil dezbateri aprinse despre rolul și etica profesională a companiei americane, afirmă jurnaliștii britanici.

Reporterii și editorii de la The Guardian au citit peste 100 de manuale de pregătire a angajaților Facebook, foi de calcul și organigrame, care oferă o serie de dezvăluiri fără precedent despre metodele pe care Facebook le-a folosit pentru a modera conținuturile online asociate unor chestiuni precum violența, discursurile ce incită la ură, terorismul, pornografia, rasismul și automutilarea, scrie News.ro.

Există politici de moderare chiar și în privința competițiilor sportive trucate și a canibalismului.

Acest dosar de anchetă al publicației The Guardian, denumit ”The Facebook Files” (”Dosarele Facebook”), a fost realizat într-o perioadă în care compania americană se află sub o presiune politică uriașă în Europa și în Statele Unite.

Regulamentul intern al Facebook reflectă dificultățile pe care le întâmpină managerii companiei atunci când trebuie să reacționeze la o serie de provocări noi, precum conceptul ”revenge porn” (”porno din răzbunare”), dar și dificultățile moderatorilor, care spun că sunt copleșiți de volumul de muncă - ceea ce înseamnă că, adeseori, ei au la dispoziție ”doar 10 secunde” pentru a lua o decizie în privința unui conținut publicat pe rețea.

”Facebook nu poate să păstreze controlul asupra conținuturilor sale. A devenit prea mare, a crescut prea mult și prea repede”, a dezvăluit o sursă.

Mulți dintre moderatori s-au declarat îngrijorați în legătură cu inconsecvența și natura particulară a unora dintre politicile companiei. Cele referitoare la conținuturile sexuale, de exemplu, sunt cele mai complexe și mai derutante.

Reguli obligatorii pentru pachetele de țigarete vândute: brandul ocupă spațiu mai puțin, predomină imaginile și mesajele CITEȘTE ȘI Reguli obligatorii pentru pachetele de țigarete vândute: brandul ocupă spațiu mai puțin, predomină imaginile și mesajele

Un document intern afirmă că Facebook revizuiește peste 6,5 milioane de rapoarte pe săptămână despre potențiale conturi false - cunoscute sub acronimul FNRP (fake, not real people / fals, nu e o persoană reală).

Folosind mii de slide-uri și fotografii, Facebook a implementat un ghid de reguli care îngrijorează multe persoane, care spun că rețeaua de socializare este de acum înainte un publisher și trebuie să depună eforturi mai mari pentru a elimina conținuturile ce incită la ură, intimidante și violente.

Acest regulament intern ar putea să îi alarmeze și pe avocații cauzei libertății de exprimare, care sunt îngrijorați de rolul de facto pe care Facebook îl deține, riscând să devină cel mai mare cenzor din lume.

Ambele tabere vor cere cel mai probabil o mai mare transparență, notează The Guardian.

Jurnaliștii acestui cotidian britanic au putut să analizeze documentele furnizate moderatorilor Facebook pe parcursul ultimului an.

În urma parcurgerii acelor documente, ei au ajuns la următoarele concluzii:

Remarci precum ”Cineva l-a împușcat pe Trump” ar trebui să fie șterse, deoarece, în calitatea lui de șef al statului, Donald Trump intră în categoria persoanelor protejate. Sunt însă permise afirmații precum ”Pentru a rupe gâtul unei târfe, asigură-te că toată presiunea e plasată pe mijlocul gâtului ei” și ”du-te dracului și mori” - deoarece aceste fraze nu sunt considerate amenințări credibile.

Videoclipuri cu morți violente - deși sunt marcate și incluse în categoria conținuturilor deranjante, ele nu sunt întotdeauna șterse, deoarece pot să contribuie la creșterea gradului de conștientizare în rândul publicului asupra unor chestiuni precum maladiile mintale.

Unele fotografii ce prezintă abuzuri fizice non-sexuale și intimidarea sau agresarea copiilor - nu trebuie să fie șterse sau ”modificate” decât în cazul în care conțin elemente sadice sau dau impresia că sărbătoresc acel moment.

Fotografii cu abuzuri asupra animalelor pot fi distribuite - doar imaginile extrem de supărătoare pot fi marcate în categoria ”deranjante”.

Toate creațiile artistice ”handmade” ce arată nuditate și raporturi sexuale sunt permise, însă creațiile artistice realizate digital ce arată activități sexuale nu sunt permise.

Videoclipurile ce prezintă avorturi sunt permise, atât timp cât ele nu conțin nuditate.

Facebook va permite utilizatorilor să distribuie în livestream tentative de automutilare, deoarece platforma ”nu dorește să cenzureze sau să pedepsească oamenii aflați deja în suferință”.

Orice persoană care are peste 100.000 de followers pe această rețea de socializare este desemnată ”persoană publică” - fapt care neagă acestor utilizatori dreptul la întreaga protecție oferită persoanelor private.

Alte tipuri de remarci care sunt permise pe Facebook, conform acestor documente dezvăluite de The Guardian: ”Fetița trebuie să țină secret acest lucru înainte ca tăticul să îi spargă fața” și ”Sper că cineva te va ucide”. Aceste amenințări sunt considerate ori generale, ori necredibile.

În unul dintre documente, Facebook recunoaște că ”oamenii folosesc un limbaj violent pentru a-și exprima frustrarea online” și consideră că ”este neprimejdios ca ei să facă acest lucru” pe site.

VIDEO Kuri, roboțelul de casă al celor de la Mayfield Robotics, a învățat să se încarce singur CITEȘTE ȘI VIDEO Kuri, roboțelul de casă al celor de la Mayfield Robotics, a învățat să se încarce singur

”Acei utilizatori simt că problema nu se va întoarce împotriva lor și se simt indiferenți față de persoana pe care o amenință, din cauza lipsei de empatie creată de comunicarea pe astfel de dispozitive, în opoziție cu situațiile în care oamenii se află față în față”, se afirmă în acel document al companiei americane.

”Putem să spunem că limbajul violent este cel mai adesea necredibil, până la apariția unor elemente specifice de limbaj care ne oferă un motiv rezonabil să credem că acolo nu mai este vorba de o simplă exprimare a emoțiilor, ci de o tranziție spre un complot sau o acțiune voluntară. Din această perspectivă, expresii precum «te voi ucide» și «du-te dracului și mori» nu sunt credibile, ci reprezintă o exprimare violentă a nemulțumirii și a frustrării”.

”Oamenii își exprimă în mod curent disprețul sau dezacordul prin amenințări sau invocând violența, în general în maniere amuzante și neserioase”, precizează același document.

Facebook a recunoscut, de altfel, în mod public că ”nu toate conținuturile dezagreabile sau deranjante violează standardele companiei noastre”.

Monika Bickert, directorul departamentului de management al politicilor globale din cadrul companiei Facebook, spune că rețeaua de socializare are 2 miliarde de utilizatori și că este dificil să se ajungă la un consens în privința conținuturilor care trebuie să fie permise pe această platformă online.

”Avem o comunitate cu adevărat diversă și globală, iar oamenii vor avea întotdeauna idei foarte diferite despre ceea ce este OK să distribui. Indiferent de locul în care tragi linia, vor exista mereu anumite zone gri. De exemplu, linia dintre satiră și umor și conținuturile nepotrivite este uneori foarte gri. E foarte dificil să decizi dacă un conținut aparține site-ului sau nu”, a adăugat Monika Bickert.

”Ne simțim responsabili față de comunitatea noastră, pentru a o păstra în siguranță, și ne simțim răspunzători. Este responsabilitatea noastră de a administra corect această chestiune. Este un angajament al companiei. Vom continua să investim, proactiv, pentru a menține site-ul sigur, dar vrem și să oferim putere oamenilor, pentru ca ei să ne raporteze orice conținut ce încalcă standardele noastre”, a mai spus ea.

De asemenea, Monika Bickert consideră că anumite comentarii ofensatoare pot să încalce politicile Facebook în anumite contexte, dar nu și în altele.

Politicile Facebook despre o serie de chestiuni precum morți violente, imagini de abuzuri fizice non-sexuale asupra minorilor și acte de cruzime față de animale evidențiază modul în care compania americană încearcă să înainteze ”pe un teren minat”.

”Videoclipurile cu morți violente sunt deranjante, însă pot să crească gradul de conștientizare. Pentru videoclipuri, noi credem că minorii au nevoie de protecție, iar adulții au nevoie să aibă posibilitatea de a alege. Marcăm în categoria «deranjant» videoclipurile cu morțile violente ale unor oameni”, se afirmă în ”Dosarele Facebook”.

Astfel de filmări trebuie să fie ”ascunse de minori” dar nu trebuie șterse automat, deoarece pot fi ”valoroase în creșterea gradului de conștientizare asupra tendințelor de automutilare, bolilor mintale, crimelor de război și altor chestiuni importante”.

Referitor la abuzurile non-sexuale asupra copiilor, ghidul intern al Facebook precizează: ”Nu modificăm fotografii cu abuzuri asupra copiilor. Marcăm în categoria «deranjant» videoclipuri cu abuzuri asupra copiilor. Eliminăm imagini cu abuzuri asupra copiilor dacă acestea sunt distribuite conținând sadism și celebrare”.

Unul dintre slide-uri explică faptul că Facebook nu șterge automat dovezile unui abuz non-sexual asupra unui copil, pentru a permite ca materialul să fie distribuit, ”iar copilul va putea fi identificat și salvat, însă noi adăugăm un nivel suplimentar de protecție pentru a proteja publicul”. Această procedură ar putea fi considerată un avertisment ce anunță că un anumit videoclip este deranjant.

Facebook a confirmat că există ”anumite situații în care permitem imagini cu un abuz non-sexual asupra unui copil, cu scopul de a ajuta copilul în cauză”.

Politicile Facebook în privința abuzurilor comise asupra animalelor sunt și ele explicate. ”Permitem fotografii și videoclipuri ce documentează abuzuri asupra animalelor, pentru a crește gradul de conștientizare, dar putem să adăugăm protecții suplimentare pentru public în cazul unor conținuturi care sunt considerate extrem de deranjante de către utilizatori”, se afirmă într-un slide al companiei americane.

”În general, imaginea unui abuz asupra unui animal poate fi distribuită pe site. Anumite imagini extrem de deranjante pot fi semnalate cu mențiunea «conținut deranjant»”.

Fotografii cu animale mutilate, inclusiv cele care arată acte de tortură, pot fi marcate cu aceeași mențiune, fără să fie șterse. Moderatorii Facebook pot, de asemenea, să permită fotografia unui abuz, în care un om lovește sau bate un animal.

Poziția Facebook în această chestiune este următoarea: ”Permitem oamenilor să distribuie imagini cu abuzuri asupra animalelor, pentru a crește gradul de conștientizare, dar condamnăm abuzul și eliminăm conținutul care celebrează actele de cruzime asupra animalelor”.

Documentele arată faptul că Facebook a emis un nou ghid de practici în privința nudității, după scandalul apărut în 2016 în urma eliminării unei fotografii legendare, realizată în timpul Războiului din Vietnam, deoarece fetița din imagine era goală.

Facebook permite în prezent ”excepții cu valoare de știre” sub incidența regulamentului său referitor la ”teroarea războiului”, însă a tras linia la imaginile cu ”nuditate infantilă în contextul Holocaustului”.

Reprezentanți ai Facebook au declarat pentru The Guardian că rețeaua de socializare folosește un software pentru a intercepta anumite conținuturi cu grafică explicită înainte ca acestea să apară pe site. ”Însă vrem ca oamenii să poată să discute global și evenimentele curente... așadar, contextul în care o imagine violentă este distribuită contează uneori”.

Unii critici din Statele Unite și Europa au cerut ca Facebook să fie reglementată în același fel în care sunt reglementați publisherii și radiodifuzorii din mainstream.

Însă Monika Bickert consideră că Facebook este ”un nou fel de companie”.

”Nu este o companie tradițională de tehnologie. Nu este o companie tradițională de media. Noi construim tehnologie și ne simțim responsabili față de modul în care ea este utilizată. Noi nu scriem știrile pe care oamenii le citesc pe această platformă”, a adăugat ea.

Un raport al parlamentarilor britanici, publicat pe 1 mai, afirmă că ”cele mai mari și mai bogate companii de social media se află rușinos de departe de punctul în care ar trebui să ia măsuri suficiente pentru a îngrădi conținuturile ilegale și periculoase sau de a implementa standarde comunitare potrivite sau de a-și păstra utilizatorii în siguranță”.

Sarah T. Roberts, expert în activitățile de moderare a conținuturilor online, a declarat: ”Atunci când ești o mică comunitate online, un grup de persoane care împărtășesc principii și valori, înseamnă ceva, dar e cu totul altceva atunci când dispui de un procent ridicat din populația lumii și le spui: «distribuie singur». Ajungi într-o mare harababură”.

”Apoi, când faci profit din această practică, intri într-o situație dezastruoasă”, a adăugat experta britanică.

Facebook a întâmpinat dificultăți în mod constant atunci când a trebuit să analizeze știri și ”valoarea de conștientizare” a unor imagini violente. Compania a fost aspru criticată, recent, pentru că nu a eliminat videoclipul în care Robert Godwin a fost asasinat în Statele Unite și videoclipul în care un tată și-a ucis fiica în Thailanda. Pe de altă parte, Facebook a jucat un rol important în distribuirea la scară globală a videoclipurilor care arătau polițiști din Statele Unite ucigând cetățeni, alături de alte abuzuri guvernamentale.

În 2016, Facebook a eliminat un videoclip ce prezenta imagini imediat după uciderea prin împușcare a lui Philando Castile de către polițiști, însă a reintrodus acel clip, ulterior, spunând că ștergerea sa a fost ”o eroare”.

viewscnt
Afla mai multe despre
regulamentul intern al facebook