Facebook Papers. Regula de 5 la 1: Formula cu care Mark Zuckerberg a manipulat întreaga lume prin rețeaua sa social media

Facebook Papers. Regula de 5 la 1: Formula cu care Mark Zuckerberg a manipulat întreaga lume prin rețeaua sa social media
scris 27 oct 2021

În urmă cu 5 ani Facebook le-a oferit utilizatorilor săi 5 moduri noi de a reacționa la o postare, pe lângă clasicul „like”: „love”, „haha”, „wow”, „sad” și „angry”. Însă în spatele cortinei compania lui Mark Zuckerberg a programat algoritmul care decide ce văd oamenii în news feed-ul lor să utilizeze aceste emoji-uri pentru a-i manipula, relatează The Washington Post.

Documente interne ale Facebook dezvăluie că începând cu 2017 platforma social media a lui Mark Zuckerberg a tratat emoji-urile de reacție ca fiind mai valoroase decât simplele „like-uri”, scrie Hotnews.ro.

Teoria era simplă: postările care primeau multe reacții tindeau să îi țină pe utilizatori mai implicați iar acesta era un lucru cheie pentru modelul de afaceri al Facebook.

Platforme de comerț electronic pe care poți să-ți construiești afacerea online CITEȘTE ȘI Platforme de comerț electronic pe care poți să-ți construiești afacerea online

Însă proprii cercetători ai companiei au ajuns să suspecteze rapid o eroare critică de judecată. Favorizarea postărilor „controversate”, inclusiv a celor care îi înfuriau pe utilizatori, ar putea inadvertent „deschide ușa către mai mult spam / agresivitate / clickbait”, nota într-un document intern unul din angajații companiei.

„Este posibil”, a răspuns un coleg al său. Avertismentul s-a dovedit a fi profetic.

Inginerii de date ai Facebook au confirmat în 2019 că postările la care s-a reacționat cu emoji-uri de furie erau în mod disproporționat legate de dezinformări, conținut dăunător și știri de calitate îndoielnică.

Asta înseamnă că timp de 3 ani de zile Facebook a amplificat în mod sistematic unele din cele mai nocive postări de pe platforma sa, făcându-le mai vizibile în news feed-urile utilizatorilor și răspândindu-le unui public mai larg.

Această promovare disproporționată făcută de algoritmi a subminat eforturile moderatorilor de conținut și echipelor de integritate de la Facebook care se luptau cu morile de vânt în ceea ce privește conținutul nociv și dăunător.

Dezbaterile interne din cadrul companiei despre aceste lucruri au fost dezvăluite Comisiei pentru Bursă și Valori Mobiliare din Statele Unite și puse la dispoziția Congresului american în formă redactată de către avocații avertizoarei de integritate Frances Haugen, fost manager de produs al Facebook.

Facebook Papers

Documentele arată că în mai multe situații angajații echipelor de integritate ale Facebook au tras semnale de alarmă cu privire la impactul pe care îl au asupra utilizatorilor anumite elemente din sistemul de ranking, avertismente pe care uneori directorii companiei le-au ascultat, alteori le-au ignorat.

Între ei, angajații Facebook au dezbătut importanța furiei în societate: Furia este „o emoție umană de bază”, nota unul, în timp ce un altul afirma că postările care generează furie ar putea fi esențiale pentru mișcările de protest împotriva unor regimuri corupte.

Însă greutatea reacțiilor de furie este doar una din numeroasele pârghii prin care inginerii Facebook manipulează fluxul de informații și discuțiile de pe cea mai mare platformă socială din lume, una despre care s-a demonstrat că influențează totul, de la emoțiile utilizatorilor la campanii politice și atrocități.

Cele mai mari amenințări informatice pentru companii CITEȘTE ȘI Cele mai mari amenințări informatice pentru companii

Facebook ține cont de numeroși factori - unii având o greutate disproporționată, alții considerați puțin importanți și unii contabilizați ca fiind negativi - care sunt adunați pentru a obține un scor unic pe care algoritmii îl folosesc pentru a genera news feed-ul fiecărui utilizator.

Acest scor este apoi folosit pentru a sorta postările și decide care apar primele și care apar atât de jos încât probabil nu le vei vedea niciodată.

Sistemul global de clasificare al Facebook este utilizat pentru a împărți pe categorii și sorta toate interacțiunile din peste 100 de limbi dintre utilizatorii platformei prezente în aproape fiecare țară din lume.

Facebook nu face publice valorile pe care algoritmii săi le atribuie diferitelor tipuri de interacțiuni, cu atât mai puțin pentru cele 10.000 de „semnale” despre care a spus că sunt luate în considerare de software-ul său când prognozează probabilitatea fiecărei postări de a produce acele forme de interacționare.

Compania lui Mark Zuckerberg afirmă că ține aceste informații secrete pentru a nu le oferi actorilor rău-intenționați un „manual” de manipulare a platformei.

Experimentele făcute de Facebook asupra utilizatorilor

Documentele interne ale Facebook arată că algoritmii platformei cuantifică semnale subtile, pe care majoritatea utilizatorilor nici nu le-ar observa, ca de exemplu numărul de comentarii lungi pe care o postare le generează, dacă ele conțin doar text sau și alte elemente, sau dacă un videoclip este înregistrat live sau în prealabil.

Algoritmii cuantifică inclusiv durata necesară de încărcare a fiecărei postări și viteza internetului utilizatorului. Toți acești factori influențează dacă în news feed îți apăr postări ale unor cunoștințe din viața reală sau „prieteni” virtuali, grupuri cărora Facebook din diverse motive vrea să li te alături sau postări care te-ar putea plictisi, înfuria sau inspira.

Pe lângă dezbaterile interne legate de emoji-ul ce exprimă furie, documentele ajunse acum pe masa congresmenilor americani arată că angajații lui Mark Zuckerberg și-au pus semne de întrebare și cu privire la valorile companiei.

Automatica SA: pionierul automatizărilor din România în era Industriei 4.0 CITEȘTE ȘI Automatica SA: pionierul automatizărilor din România în era Industriei 4.0

Când aceștia au descoperit că algoritmii promovează conținut nociv, ei au propus modificări care credeau că ar putea să ajute. Însă ajustările respective au fost uneori respinse.

În plus, cultura de a face experimente asupra utilizatorilor este una înrădăcinată adânc la Facebook, inginerii trăgând adesea de diferite pârghii pentru a vedea ce se întâmplă.

Un asemenea experiment din 2012 făcut public doi ani mai târziu a arătat că angajații companiei au dorit să manipuleze valorea emoțională a postărilor care apar în news feed-ul utilizatorilor pentru a fi mai pozitive sau negative cu scopul de a observa apoi dacă propriile postări ale acestora se modifică în funcție starea indusă.

Un experiment separat, despre care Haugen a vorbit în fața Congresului american luna aceasta, a presupus oprirea măsurilor de siguranță pentru un grup de utilizatori pentru a vedea dacă acestea chiar funcționează.

Alt experiment despre care anterior nu s-a scris a implicat afișarea mai des a postărilor unor persoane în news feed-urile unor prieteni aleși la întâmplare și, după ce experimentul a fost încheiat, examinarea dacă aceștia continuă să comunice.

Regula de 5 la 1 a lui Mark Zuckerberg

În 2017 Facebook încerca să inverseze un trend îngrijorător vizavi de cât de mult postau și vorbeau utilizatorii pe platformă și emoji-urile de reacție i-au oferit 5 noi pârghii de tras.

La momentul respectiv fiecare reacție nouă valora de 5 ori mai mult decât un simplu „like”. Logica era că folosirea unui emoji semnala că postarea a avut un impact emoțional mai mare decât un like, reacționarea cu un emoji presupunând un pas în plus decât simpla apăsare a butonului „like”.

Însă în public Facebook a minimalizat importanța pe care o acordă acestor noi reacții. Compania a declarat pentru Mashable în 2017 că le acordă o greutate „puțin mai mare decât like-urilor”. Dar prin antrenarea algoritmilor de a optimiza aceste noi trăsături, inginerii Facebook au asigurat practic că ele vor fi amplu văzute și folosite.

Mai mult, orice persoană care posta pe Facebook în speranța că va ajunge la un public larg urma să își dea seama în mod inevitabil că anumite tipuri de postări vor „prinde” mai bine decât altele.

La un moment dat CEO-ul Mark Zuckerberg chiar i-a încurajat în public pe utilizatori să folosească reacția de furie pentru a semnala că nu le place ceva, în pofida faptului că știa că acest lucru va face algoritmii să le afișeze mai des astfel de postări.

Prima „retrogradare” a greutății acordate emoji-ului de furie a venit în 2018, când Facebook i-a tăiat valoarea la doar x4 din cea a unui „like”, păstrând aceeași greutate pentru toate celelalte reacții de emoție.

Însă era evident că nu toate aceste reacții erau la fel. Furia era cea mai puțin utilizată dintre cele 6, cu 429 de milioane de click-uri pe săptămână, comparativ cu 63 de miliarde de reacții „like” și 11 miliarde de „love”, potrivit unui document al Facebook din 2020.

Inginerii de date ai companiei au descoperit de asemenea că reacțiile de furie erau „mult mai frecvente” la postări controversate: „știri civice de calitate slabă, dezinformări civice, nocivitate civică, dezinformări privind sănătatea și conținut antivaccinist”, conform unui document din 2019.

Soluții respinse de conducerea Facebook

În aprilie 2019 Facebook a implementat un mecanism de a „retrograda” conținutul care primea un număr disproporționat de reacții de furie deși documentele companiei nu arată când sau cum a fost folosit acesta.

În luna iulie a acelui an în cadrul companiei a început să circule propunerea de a tăia valoarea mai multor emoji-uri de reacție la cea a unui like. Însă ea depindea de aprobarea eșaloanelor superioare ale Facebook.

Un angajat scria la momentul respectiv că ar fi fost o soluție simplă cu „mai puține probleme legate de politici” decât o tentativă de a identifica pe cale tehnică comentariile nocive.

Însă propunerea de a implementa aceste măsuri a fost respinsă pe ultima sută de metri.

Mai târziu în cursul aceluiași an propunerea de a retrograda reacția de furie a fost din nou adusă în discuție într-o dezbatere despre ajustarea algoritmilor pentru a-i opri să amplifice conținutul care ar putea submina valorile democratice.

Un alt angajat a propus chiar înlăturarea completă a acestui buton. Dar conducerea Facebook, asupra căruia Mark Zuckerberg exercită control total, a ales iar să nu ia nicio măsură.

În cele din urmă conducerea Facebook a fost convinsă anul trecut, dar nu de vreunul din motivele expuse anterior.

Cercetări suplimentare au arătat că utilizatorilor platformei nu le place când primesc reacții de furie la postările lor, indiferent că vin din partea unor prieteni sau persoane necunoscute.

Facebook a tăiat valoarea „angry react” la 1,5 din cea a unui „like”. Apoi a tăiat-o la zero.

viewscnt
Afla mai multe despre
facebook
mark zuckerberg