Câte atacuri concrete bazate pe inteligență artificială există astăzi? Răspunsul este „mai mult de zero” – și devin din ce în ce mai bune.
Era inevitabil – tehnologia LLM scăpată de sub control urma, mai devreme sau mai târziu, să fie folosită împotriva unor ținte nevinovate, după ce a gravitat o vreme într-o zonă gri, între bine și rău, întruchipând paradoxul prin care o tehnologie performantă și utilă poate fi deturnată în scopuri nefaste. Iată cum se întâmplă aceasta.
Cele mai multe modele lingvistice mari (LLM) care ajung pe prima pagină a ziarelor au „bariere morale” împotriva acțiunilor dăunătoare, echivalentul digital al jurământului hipocratic de a „nu face rău în primul rând”. Dacă întrebăm un chat bot, de exemplu, cum se construiește o armă, în general sunt programate pentru a evita furnizarea de răspunsuri foarte precise, care ar putea conduce la daune majore. Deși nu putem întreba direct cum se face o armă, putem învăța în schimb cum să formulăm întrebări mai bune, cu o combinație de instrumente, și să obținem totuși răspunsul.
O metodă ingenioasă de a face acest lucru este prin interogări API. Unele proiecte lansate recent vizează direct API-ul de backend al unui LLM, cu scopul de a obține acces root pe servere. O altă variantă utilizează, de asemenea, backend-ul ChatGPT, pentru a identifica mai abil oportunitățile de atac viitoare.
Combinarea instrumentelor asistate de inteligență artificială cu altele concepute pentru a rezolva probleme diverse, cum ar fi evitarea adreselor IP ascunse (există câteva astfel de soluții), pentru a localiza serverul țintă real se poate dovedi extrem de eficientă, mai ales pe măsură ce procesele devin tot mai automatizate.
În lumea digitală, aceste tactici pot fi folosite pentru a construi instrumente hibride (mashup) care identifică vulnerabilități și apoi testează în mod repetitiv posibile exploatări, fără ca modelele LLM implicate să fie conștiente de scopul final. Este într-un fel analog cu un „clean room design”, unde unui LLM i se cere să rezolve o parte mai mică, componentă a unei sarcini mai ample definite de un atacator, iar ulterior o combinație (mashup) formează „constelația” finală, care devine arma propriu-zisă.
Din punct de vedere legal, diverse grupări încearcă să impună obstacole eficiente care vor încetini aceste trucuri sau să aplice sancțiuni pentru LLM-urile care sunt complice într-o anumită măsură. Dar este dificil de atribuit vina. Stabilirea exactă a responsabilității fiecăreia dintre părți, mai ales în raport cu povara probei în justiție, va fi o sarcină complicată.
Deschiderea unor noi fronturi
Modelele de inteligență artificială pot căuta prin miliarde de linii de cod din depozite software existente, identificând tipare de cod nesecurizate și dezvoltând armament digital care poate fi apoi lansat împotriva unui întreg ecosistem global de dispozitive ce rulează software vulnerabil. Astfel, se poate obține o „recoltă” nouă de posibile ținte pentru compromitere, oferind un impuls celor care doresc să lanseze atacuri de tip zero-day.
Este ușor să ne imaginăm statele-națiune speculând tendința – vânarea (anticipativă) a vulnerabilităților software, acum și în viitor, folosind inteligența artificială. Acest scenariu pune apărătorii în defensivă și va cauza un fel de precipitare digitală a apărării cu AI, ceea ce pare ușor distopic. Apărătorii își vor combina propriile sisteme bazate pe AI pentru „blue-teaming” (echipele de apărare), sau doar pentru a preveni atacurile cibernetice. Sperăm că apărătorii sunt pregătiți pentru asta.
Chiar și modelele AI disponibile gratuit astăzi pot „raționa” pentru a găsi soluții la probleme fără prea mare dificultate, analizându-le mecanic, într-o manieră de tip „gândire în lanț/ chain-of-thought”, care imită raționamentul uman. Într-adevăr, tehnologia nu va deveni prea curând un colaborator conștient în activități ilegale, dar, având în vedere cantitățile enorme de date de pe internet, s-ar putea argumenta că „știe” ce face – și poate fi păcălit să-și divulge secretele. De asemenea, va continua să facă tot mai multe cu mai puțin, probabil fără a avea nevoie de prea mult sprijin, ajutându-i pe cei lipsiți de scrupule să depășească orice limită și permițându-le atacatorilor ingenioși să opereze la o scară fără precedent. Se pare că unele semne prevestitoare ale viitorului au fost deja expuse pe larg în cadrul exercițiilor de tip „red team” sau chiar observate în practică. Un lucru este sigur: viteza atacurilor bazate pe AI va crește. De la momentul în care un CVE (vulnerabilitate cunoscută) este lansat și poate fi exploatat, sau de când o tehnică nouă este implementată, va trebui să gândim rapid – sper că suntem pregătiți.
Lasa un comentariu