Cei mai populari chatboți pot fi folosiți pentru scrierea de e-mailuri înșelătoare, cu linkuri capcană.
Filtrele de siguranță pot fi ocolite când utilizatorii se dau drept cercetători sau scriitori și propun softurilor “scenarii ipotetice”.
Reuters și un cercetător de la Universitatea Harvard au derulat o investigație în urma căreia au arătat că chatboții alimentați de inteligența artificială pot fi folosiți pentru a plănui escrocherii online de tip phishing.

Reporterii agenției au cerut celor mai populari cinci chatboți – Grok, ChatGPT, Meta AI, Claude și DeepSeek, să îi ajute la planificarea unui campanii simulate de fraudă de tip phishing, arată BiziDay.
Dacă în primă instanță, chatboții au refuzat să genereze mesaje înșelătoare, filtrele de siguranță s-au dovedit ușor de ocolit, când reporterii au scris că solicitările vor face obiectul unui studiu sau că vor fi folosite de un scriitor în viitorul său roman.
Cercetătorul care a colaborat cu Reuters, Fred Heiding de la Universitatea Harvard, a subliniat că filtrele pot fi ocolite oricând, iar acest lucru îi face să fie parteneri valoroși în infracțiuni.

Eficacitatea a nouă e-mailuri generate cu AI a fost testată pe 108 persoane în vârstă care s-au oferit voluntari. 11% dintre seniori au accesat linkuri capcană din cinci mesaje diferite, două dintre ele create de Meta AI, două de Grok și unul de Claude.
Studiul nu își propune să facă o comparație între chatboți, ci să observe impactul pe care textele frauduloase generate cu ajutorul acestora pot provoca potențiale victime.
Într-un exemplu, Grok, dezvoltat de compania XAI a lui Elon Musk și integrat în rețeaua socială X, a scris un text care la prima vedere nu părea problematic, ci prezenta o așa-zisă fundație “Silver Heart”, care pretindea că se ocupă de îngrijirea vârstnicilor.
Mai departe, în mesaj era inserat un link capcană, pe care cititorii erau îndemnați să-l acceseze “fără să mai aștepte”. Acest îndemn a fost inserat din proprie recomandare, fără să îi fie cerut.
Deși Grok a avertizat că e-mailul nu trebuie folosit în scenarii din lumea reală, tot a oferit sfaturi despre cum poate fi scris acesta. La solicitarea Reuters, XAI și DeepSeek nu au furnizat un punct de vedere. Anthropic, din spatele Claude AI, a răspuns că a prins escroci care-i foloseau softul pentru a-și genera mesajele frauduloase.

Într-o procedură separată, reporterii Reuters i-au cerut lui Gemini, dezvoltat de Google, să indice care este intervalul ideal de trimitere a mesajelor înșelătoare, tot sub acoperirea că fac un demers educativ. Chatbotul a răspuns că de luni până vineri, între orele 9 și 15, este potrivit ca mesajele de acest fel să fie trimise bătrânilor. Într-un răspuns oficial, Google a spus că a introdus noi filtre de securitate.
Metoda de furt de date sensibile prin phishing este folosită în multe tipuri de fraude online și este o problemă globală. În SUA, numărul persoanelor în vârstă care au alertat autoritățile, după ce au căzut victime fraudelor phishing, a crescut de opt ori în ultimul an. Prejudiciul estimat de FBI este de aproape 4,9 miliarde de dolari.
Agenția americană avertizează că fenomenul a luat amploare odată cu apariția și răspândirea sistemelor de inteligență artificială. Spre deosebire de oamenii rău intenționați, chatboții pot genera mesaje înșelătoare aproape instantaneu și pe teme variate.

Chatboții sunt antrenați pe seturi uriașe de date, pentru a înțelege și a încerca să reproducă limbajul uman, explică Reuters. Antrenarea lor pentru a detecta și a respinge cererile din partea infractorilor este o provocare în sine, avertizează specialiștii, pentru că ar putea exista cazuri în care softurile nu răspund la solicitări legitime.
Pe lângă implementarea filtrelor de siguranță, experții spun că sunt unele companii care se tem că utilizatorii nu le vor mai folosi chatboții, dacă aceștia refuză de multe ori să rezolve cerințe. Steven Adler, fost cercetător în siguranța AI la OpenAI, a declarat că cine are cele mai puține politici restrictive are și un avantaj când vine vorba de a atrage trafic.