GPT-4 poate exploata găuri de securitate pe baza descrierilor

GPT-4 poate exploata găuri de securitate pe baza descrierilor
Liviu Mihai
Liviu Mihai
scris 21 apr 2024

Cercetătorii adaugă un nou motiv de îngrijorare legat de modelele lingvistice, acestea putând fi folosite pentru a simplifica și automatiza atacurile cibernetice.

Urmărește-ne și pe Google News
Evenimente
27 mai - Eveniment Profit.ro: Piaţa imobiliară românească sub spectrul crizei occidentale. Ediţia a IV-a
30 mai - Maratonul Fondurilor Europene
6 iunie - Maratonul Energiei
13 iunie - Eveniment Profit: Piața de Capital.forum - Provocări pentru dezvoltarea piețelor și creșterea lichidității, Ediția a IV-a. Parteneri BCR, CEC Bank, Sphera, Teraplast

GPT-4 poate fi folosit cu succes pentru a exploata vulnerabilitățile software, mai ales dacă are acces la descrierile acestora, au concluzionat experții de la Universitatea din Illinois Urbana-Champaign, care au realizat un studiu în acest sens.

Aceștia au testat GPT-4 și alte modele lingvistice care folosesc un software de automatizare, inclusiv LLaMA-2 și Mistral, constatând că doar GPT-4 este capabil să exploreze găurile de securitate.

GPT-4 face concurență medicilor oftalmologi CITEȘTE ȘI GPT-4 face concurență medicilor oftalmologi

În fapt, modelul lingvistic dezvoltat de OpenAI a putut crea exploit-uri pentru vulnerabilitățile critice, pe baza descrierilor, în 87% dintre cazuri.

Mai mult, în 7% din cazuri, GPT-4 a putut exploata vulnerabilitățile și atunci când nu a avut acces la descrierile acestora.

Studiul arată, încă o dată, cum AI-ul poate fi folosit pentru a face rău. Explotarea găurilor software se adaugă altor acțiuni negative le care modelele lingvistice pot fi folosite, alături de perfecționarea campaniilor phishing, producerea știrilor false și dezinformarea pe rețelele sociale cu deep fake-uri.

viewscnt
Afla mai multe despre
gpt-4
securitate cibernetică
atacuri