Microsoft a disponibilizat o echipă de etică pentru AI

Microsoft a disponibilizat o echipă de etică pentru AI
Liviu Mihai
Liviu Mihai
scris 14 mar 2023

Chiar în timp ce se grăbește să-și lanseze propriul chatbot și să integreze instrumente de inteligență artificială în cât mai multe produse, Microsoft a decis să concedieze o echipă care trebuia să ghideze AI-ul spre rezultate etice și responsabile.

Urmărește-ne și pe Google News
Evenimente

25 aprilie - MedikaTV - Maratonul Sănătatea Digestiei
23 mai - Maratonul Fondurilor Europene
27 mai - Eveniment Profit.ro Real Estate (ediţia a IV-a) - Piața imobiliară românească sub aspectul crizei occidentale

Deși încă nu este încă disponibil în mod oficial pentru toți utilizatorii, chatbot-ul din noul Bing a arătat în multe rânduri că are nevoie de optimizări pentru a nu oferi răspunsuri jignitoare.

Și, tocmai când acesta avea nevoie de ajutorul celor care lucrează la etica pentru AI în cadrul Microsoft, gigantul american a decis să renunțe la o întreagă echipă.

DuckDuckGo a implementat un AI care răspunde la întrebări CITEȘTE ȘI DuckDuckGo a implementat un AI care răspunde la întrebări

Renunțarea la echipa de etică AI vine după ce, în urma reorganizării de anul trecut, majoritatea celor care lucrau pe „etică și societate” au fost transferați în cadrul altor echipe.

Microsoft încă are Biroul Pentru AI Responsabil, care stabilește regulile pentru crearea unor AI-uri responsabile prin guvernare și politici publice. Însă, echipa care tocmai a fost disponibilizată era cea responsabilă de implementarea regulilor în produsul final.

Decizia companiei ridică semne serioase de întrebare privind dorința acesteia de a dezvolta în mod responsabil soluții de inteligență artificială. Disponibilizarea echipei de etică pentru AI seamănă, mai degrabă, cu eliminarea unei piedici în cursa lansării unui produs final înaintea Google cu orice mijloace.

Microsoft are deja un istoric pătat în acest domeniu. În urmă cu aproximativ 6 ani, compania lansa un bot conversațional pentru Twitter, numit Tay, care a fost dezactivat după ce a devenit rasist și fascist.

viewscnt
Afla mai multe despre
microsoft
etică
ai
chatbot