Microsoft încearcă să pună bețe în roate celor care încearcă să păcălească chatboții AI și să îi convingă să facă lucruri ciudate.
4 iunie - Eveniment Profit.ro: Piaţa imobiliară românească sub spectrul crizei occidentale. Ediţia a IV-a. Parteneri: 123Credit, Cushman and Wakefield
6 iunie - Maratonul Energiei
13 iunie - Eveniment Profit: Piața de Capital.forum - Provocări pentru dezvoltarea piețelor și creșterea lichidității, Ediția a IV-a. Parteneri BCR, BVB, CEC Bank, Infinity Capital Investments, Sphera, Teraplast
Instrumentele includ "prompt shields", care sunt concepute pentru a detecta și bloca încercările deliberate de a face ca un model AI să se comporte într-un mod ciudat. Microsoft abordează, de asemenea, "injecțiile indirecte de prompturi", atunci când hackerii inserează instrucțiuni malițioase în datele pe care este antrenat un model și îl păcălesc să efectueze acțiuni neautorizate, cum ar fi furtul de informații despre utilizator.
Microsoft dorește să stimuleze încrederea în instrumentele sale de inteligență artificială generativă, care sunt utilizate în prezent atât de consumatori, cât și de clienți corporate. În februarie, compania a investigat incidente în care a fost implicat chatbotul său Copilot, care genera răspunsuri ciudate sau dăunătoare. După ce a analizat incidentele, Microsoft a declarat că utilizatorii au încercat în mod deliberat să îl păcălească pe Copilot pentru a genera răspunsurile respective.
"Cu siguranță, vedem o creștere pe măsură ce există o mai mare utilizare a instrumentelor, dar și pe măsură ce tot mai mulți oameni sunt conștienți de aceste tehnici", a declarat Bird. Semnele ale unor astfel de atacuri includ adresarea unei întrebări de mai multe ori unui chatbot sau solicitări care descriu jocuri de rol.