AI manipulativă: cum să facem față alterării datelor


Ar trebui să vă gândiți de două ori înainte de a avea încredere totală în asistentul dvs. AI, deoarece alterarea bazei de date îi poate modifica semnificativ rezultatele – chiar periculos de mult.

Tehnologia modernă este departe de a fi infailibilă – așa cum vedem, de exemplu, cazul numeroaselor vulnerabilități care continuă să apară. Deși proiectarea sistemelor care sunt sigure prin design este o bună practică dovedită, poate deturna resurse din alte domenii, cum ar fi designul experienței utilizatorului (UX), optimizarea performanței și interoperabilitatea cu alte soluții și servicii.

Astfel, securitatea trece adesea pe plan secundar, îndeplinind doar cerințele minime de conformitate. Acest compromis devine deosebit de îngrijorător atunci când sunt implicate date sensibile, deoarece astfel de date necesită protecție proporțională cu caracterul lor critic. În prezent, riscurile măsurilor de securitate inadecvate sunt tot mai evidente în sistemele de inteligență artificială și învățare automată (AI / ML), unde datele reprezintă fundamentul funcționalității lor.

Ce este alterarea datelor?

Modelele AI / ML sunt construite pe seturi de date esențiale de antrenament care sunt actualizate continuu prin învățare supravegheată și nesupravegheată. Învățarea automată (machine learning) este o metodă critică ce permite dezvoltarea AI, iar învățarea profundă (deep learning), printre altele, contribuie la dezvoltarea capacităților diverse ale AI. Cu cât datele sunt mai variate și mai fiabile, cu atât vor fi mai precise și utile rezultatele modelului. Prin urmare, în timpul antrenamentului, aceste modele au nevoie de acces la cantități mari de date.


Articole similare: Învățarea automată de la ESET: Drumul către Augur

Pe de altă parte, dependența de volume mari de date vine cu riscuri, deoarece seturile de date neverificate sau slab verificate cresc probabilitatea unor rezultate nesigure. Inteligența artificială generativă, în special modelele mari de limbaj (LLM) și ramificațiile acestora sub formă de asistenți AI, sunt cunoscute a fi deosebit de vulnerabile la atacuri care alterează modelele în scopuri malițioase.

Una dintre cele mai insidioase amenințări este alterarea datelor (sau a bazei de date), prin care adversarii încearcă să modifice comportamentul modelului și să-l determine să genereze rezultate incorecte, părtinitoare sau chiar dăunătoare. Consecințele unei astfel de manipulări se pot răsfrânge asupra tuturor aplicațiilor, subminând încrederea și introducând riscuri sistemice atât pentru oameni, cât și pentru organizații.

Tipuri de alterare a datelor

Există diferite tipuri de atacuri de alterare a datelor, cum ar fi:

Injectarea datelor: Atacatorii injectează puncte de date malițioase în seturile de date de antrenament pentru a face modelul AI să-și modifice comportamentul. Un exemplu bun în acest sens este atunci când utilizatorii online au alterat treptat botul Tay de pe Twitter pentru a publica tweeturi ofensatoare.
Atacuri din interior: La fel ca în cazul amenințărilor din interior obișnuite, angajații ar putea abuza de accesul lor pentru a modifica setul de antrenament al unui model, schimbându-l pas cu pas pentru a-i modifica comportamentul. Atacurile din interior sunt deosebit de insidioase deoarece exploatează accesul legitim.
– Injectarea unui trigger: Acest atac injectează date în setul de antrenament al modelului AI pentru a crea un trigger. Le permite atacatorilor să evite securitatea modelului și să manipuleze rezultatele acestuia în situații specifice activate de elementul declanșator. Provocarea în detectarea atacului constă în faptul că trigger-ul poate fi greu de observat și amenințarea rămâne inactivă până când trigger-ul este activat.
– Atacuri asupra lanțului de aprovizionare: Impactul acestor atacuri poate fi deosebit de grav. Deoarece modelele AI folosesc adesea componente de la terți, vulnerabilitățile introduse în timpul procesului de aprovizionare pot compromite în cele din urmă securitatea modelului și îl pot lăsa expus exploatării.

Pe măsură ce modelele AI devin tot mai integrate în sistemele de afaceri și cele de consum, servind ca asistenți sau instrumente pentru creșterea productivității, atacurile vizând aceste sisteme devin motiv de îngrijorare.

Deși modelele AI pentru întreprinderi nu partajează date cu terțe părți, ele continuă să absoarbă date interne pentru a-și îmbunătăți rezultatele. Pentru a face acest lucru, au nevoie de acces la o cantitate semnificativă de informații sensibile, ceea ce le transformă în ținte de mare valoare. Riscurile cresc și mai mult pentru modelele destinate consumatorilor, care de obicei împărtășesc solicitările utilizatorilor, pline de date sensibile, cu alte părți.

În timp ce modelele de inteligență artificială ale întreprinderilor nu partajează date cu terți, ele încă se hrănesc cu date interne pentru a-și îmbunătăți rezultatele. Pentru a face acest lucru, ele au nevoie de acces la un tezaur de informații sensibile, ceea ce le transformă în ținte foarte valoroase. Riscurile cresc și mai mult pentru modelele destinate consumatorilor, care, de obicei, împărtășesc cu alte părți solicitările utilizatorilor, de obicei pline de date sensibile.

Cum să securizați dezvoltarea Machine Learning sau AI?

Strategiile preventive pentru modelele ML / AI necesită o conștientizare atât din partea dezvoltatorilor, cât și a utilizatorilor. Strategiile cheie includ:

– Verificări și audituri constante: Este important să verificați și să validați continuu integritatea seturilor de date care alimentează modelele AI / ML pentru a preveni manipulările malițioase sau datele părtinitoare care le-ar putea compromite.
Concentrați-vă atenția pe securitate: Dezvoltatorii AI pot deveni ținte ale atacatorilor, așa că este esențial să existe o configurație de securitate care să adopte o abordare preventivă pentru a minimiza suprafața de atac prin prevenire proactivă, detectare timpurie și verificări sistemice de securitate, asigurând astfel dezvoltarea securizată.
– Antrenamentul împotriva datelor modificate intenționat: Așa cum s-a menționat anterior, modelele sunt adesea supravegheate de profesioniști pentru a ghida procesul lor de învățare. Aceeași abordare poate fi utilizată pentru a învăța modelele să facă diferența între punctele de date malițioase și cele valide, ajutând astfel la prevenirea atacurilor de alterare a datelor.
– Principiul zero trust și gestionarea accesului: Pentru a vă apăra împotriva amenințărilor interne și externe, este recomandat să folosiți o soluție de securitate care poate monitoriza accesul neautorizat la datele fundamentale ale unui model. Astfel, comportamentele suspecte pot fi detectate și prevenite mai ușor. În plus, prin principiul zero trust, nimeni nu este considerat de încredere din oficiu, fiind necesare multiple verificări înainte de a acorda accesul.

Securitate prin proiectare

Construirea platformelor AI / ML care sunt securizate prin design nu este doar benefică – este imperativă. Așa cum dezinformarea poate influența oamenii către comportamente dăunătoare și extreme, un model AI alterat poate duce, de asemenea, la rezultate periculoase.

Pe măsură ce lumea se concentrează tot mai mult pe riscurile potențiale asociate cu dezvoltarea AI, creatorii de platforme ar trebui să își pună întrebarea dacă au făcut suficient pentru a proteja integritatea modelelor lor. Abordarea erorilor, inexactităților și vulnerabilităților înainte ca acestea să cauzeze daune trebuie să fie o prioritate centrală în dezvoltare.

Cum AI devine tot mai integrat în viețile noastre, riscurile de securizare a sistemelor AI vor crește. Afaceri, dezvoltatori și factorii de decizie politică trebuie să colaboreze pentru a se asigura că sistemele AI sunt rezistente în fața atacurilor. Astfel, putem valorifica potențialul inteligenței artificiale fără a compromite securitatea, confidențialitatea și încrederea.


Un exemplu notabil de gândire preventivă axată pe securitate este angajamentul CISA Secure by Design Pledge, semnat și de ESET, care invită producătorii de software să integreze măsuri solide de securitate în ciclul de viață al dezvoltării software.

Mark Szabo February 5, 2025

Lasa un comentariu