În arsenalul actorilor rău intenționați, instrumentele de inteligență artificială pot amplifica amploarea și gravitatea a tot felul de escrocherii, campanii de dezinformare și alte amenințări.
Inteligența Artificială (AI) a accelerat semnificativ cursa dotării în domeniul securității cibernetice în ultimul an, iar următoarele 12 luni nu vor oferi vreun răgaz. Aceasta are implicații majore pentru echipele de securitate cibernetică din companii și pentru angajatorii lor, precum și pentru utilizatorii obișnuiți ai internetului. În timp ce tehnologia AI ajută apărătorii să îmbunătățească securitatea, actorii rău intenționați nu pierd timpul în a exploata instrumentele AI, astfel încât putem anticipa o creștere a înșelătoriilor, a ingineriei sociale, a fraudelor financiare online, a dezinformării și a altor amenințări. Iată la ce să vă așteptați în 2025.
La ce să fiți atenți
La începutul anului 2024, Centrul Național de Securitate Cibernetică al Marii Britanii (NCSC) a avertizat că AI este deja utilizată de orice tip de actor cu intenții malițioase și că „va crește aproape sigur volumul și impactul atacurilor informatice în următorii doi ani”. Amenințarea este cea mai acută în contextul ingineriei sociale, unde inteligența artificială generativă (GenAI) poate ajuta actorii rău intenționați să creeze campanii extrem de convingătoare în limbi locale, utilizate impecabil. Mai ales, în așa numita fază de recunoaștere, unde AI poate automatiza identificarea la scară largă a activelor vulnerabile.
Deși aceste tendințe vor persista în 2025, este posibil să asistăm la utilizarea AI și pentru:
– Ocolirea autentificării: Tehnologia deepfake utilizată de fraudatori pentru a impersona clienții în verificări prin selfie și video pentru crearea de conturi noi și accesul la conturi existente.
– Compromiterea emailurilor de afaceri (BEC): AI este din nou utilizată pentru inginerie socială, dar de data aceasta pentru a induce în eroare un destinatar corporate și a-l determina să transfere fonduri într-un cont controlat de fraudator. Audio deepfake și video deepfake pot fi, de asemenea, utilizate pentru a impersona CEO și alți lideri seniori în apeluri telefonice și întâlniri virtuale.
– Escrocherii prin impersonare: Modelele lingvistice mari (LLM) open-source vor oferi noi oportunități pentru escroci. Antrenându-le pe date extrase din conturi de social media piratate și/ sau accesibile public, fraudatorii ar putea impersona victimele în răpiri virtuale și alte escrocherii, concepute pentru a păcăli prietenii și familia.
– Escrocherii cu influenceri: În mod similar, se așteaptă ca în 2025, GenAI să fie utilizat de escroci pentru a crea conturi false sau conturi duplicate de social media care să imite celebrități, persoane influente și alte figuri cunoscute. Videourile deepfake vor fi postate pentru a atrage urmăritorii să ofere informații personale și bani, de exemplu în escrocherii crypto și de investiții, inclusiv tipurile de scheme evidențiate în cel mai recent raport ESET privind amenințările. Aceasta va pune o presiune mai mare asupra platformelor de socializare pentru a oferi instrumente și insigne de verificare eficientă a conturilor – precum și asupra dumneavoastră pentru a rămâne vigilent.
– Dezinformare: Statele ostile și alte grupuri vor exploata GenAI pentru a genera cu ușurință conținut fals, cu scopul de a atrage utilizatorii creduli ai rețelelor sociale să urmărească o serie de conturi false. Acești utilizatori ar putea fi apoi transformați în amplificatori online pentru operațiuni de influențare, într-un mod mai eficient și mai greu de detectat decât fermele de conținut / troli.
– Spargerea parolelor: Instrumentele bazate pe AI sunt capabile să dezvăluie în masă, în câteva secunde, datele de autentificare ale utilizatorilor pentru a permite accesul la rețelele și datele corporate, precum și la conturile clienților.
Preocupări legate de confidențialitatea AI pentru 2025
AI nu va fi doar un instrument pentru actorii amenințători în cursul anului viitor. Ar putea implica, de asemenea, un risc ridicat de scurgere a datelor. LLM-urile au nevoie de volume uriașe de text, imagini și materiale video pentru a se antrena. Adesea, accidental, unele dintre aceste date vor fi sensibile: gândiți-vă la date biometrice, informații medicale sau financiare. În unele cazuri, social media și alte companii pot modifica termenii și condițiile pentru a utiliza datele clienților spre a antrena modele.
Odată ce au fost colectate de modelul AI, aceste informații reprezintă un risc pentru indivizi, dacă sistemul AI în sine este piratat. Sau dacă informațiile sunt partajate cu alții prin intermediul aplicațiilor GenAI care rulează deasupra LLM. Există, de asemenea, o îngrijorare pentru utilizatorii corporate, care ar putea împărtăși fără să vrea informații sensibile legate de muncă prin intermediul solicitărilor GenAI. Potrivit unui sondaj, 20% dintre companiile britanice au expus accidental date corporative potențial sensibile prin utilizarea GenAI de către angajați.
AI pentru echipele implicate în apărarea cibernetică în 2025
Vestea bună este că AI va juca un rol din ce în ce mai important în munca echipelor de securitate cibernetică în următorul an, pe măsură ce va fi integrată în noi produse și servicii. Pornind de la o lungă istorie a securității bazate pe AI, aceste noi oferte vor contribui la:
– generarea de date sintetice pentru instruirea utilizatorilor, a echipelor de securitate și chiar a instrumentelor de securitate cu AI
– sinteza rapoartelor lungi și complexe de informații privind amenințările pentru analiști și facilitarea luării mai rapide a deciziilor în caz de incidente
– creșterea productivității echipelor SecOps prin contextualizarea și prioritizarea alertelor pentru echipele suprasolicitate, precum și automatizarea fluxurilor de lucru pentru investigații și remediere
– scanarea volumelor mari de date pentru a detecta semne de comportament suspect
– dezvoltarea abilităților echipelor IT prin funcționalități de tip „copilot” integrate în diverse produse, pentru a ajuta la reducerea probabilității unor configurări greșite
Cu toate acestea, liderii din domeniul IT și al securității digitale trebuie să înțeleagă și limitările AI și importanța expertizei umane în procesul decizional. Un echilibru între om și mașină va fi necesar în 2025 pentru a atenua riscul de erori, degradarea modelului și alte consecințe potențial negative. AI nu este o soluție miraculoasă. Trebuie combinată cu alte instrumente și tehnici pentru rezultate optime.
Pentru a afla mai multe despre utilizarea inteligenței artificiale în securitatea cibernetică, consultați această analiză ESET.
Provocările IA în materie de conformitate și aplicare
Peisajul amenințărilor și dezvoltarea securității AI nu sunt într-un bol de cristal. Schimbările geopolitice din 2025, în special în SUA, ar putea duce chiar la dereglementarea sectoarelor tehnologiei și social media. Aceasta, la rândul său, ar putea permite escrocilor și altor actori rău intenționați să inunde platformele online cu amenințări generate de AI.
Între timp, în UE, există încă o anumită incertitudine cu privire la reglementarea AI, ceea ce ar putea îngreuna viața echipelor de conformitate. După cum au subliniat experții juridici, este încă necesar să se elaboreze coduri de bune practici și ghiduri, precum și să se stabilească răspunderea în caz de eșecuri ale sistemelor de inteligență artificială.
Cu toate acestea, un lucru este clar: în 2025, inteligența artificială va schimba radical modul în care interacționăm cu tehnologia, atât în bine, cât și în rău. AI oferă beneficii uriașe pentru companii și indivizi, dar aduce și riscuri noi care trebuie gestionate. Este în interesul tuturor să colaboreze mai strâns în anul care urmează. Guvernele, companiile din sectorul privat și utilizatorii finali trebuie să își aducă contribuția și să lucreze împreună pentru a valorifica potențialul AI, reducând în același timp riscurile asociate.
Lasa un comentariu