Știri despre securitate, dezvăluiri și puncte de vedere ale experților ESET

Momentul în care PR-ul și realitatea se ciocnesc: adevărul depre învățarea mecanică în securitatea cibernetică

2017-07-12

Învățarea automatizată (ML – machine learning) este citată în mod obișnuit de către furnizorii de soluții de securitate de tip “post-truth” ca reprezentând cel mai important punct din demonstrația lor de vânzare, respectiv principalul lor avantaj. Dar ML – în cazul în care se realizează în mod corespunzător – vine cu probleme și limitări.

ESET a petrecut ani pentru a perfecționa detecțiile automate, corespondentul învățării automatizate în contextul securității cibernetice. Mai departe sunt prezentate unele dintre cele mai mari provocări observate și depășite în cursul aplicării acestei tehnologii în soluțiile de tip business și home.

În primul rând, pentru a utiliza învățarea automatizată aveți nevoie de o mulțime de input-uri, fiecare fiind necesar să fie etichetat în mod corect. Într-o aplicație de securitate cibernetică, acest lucru se traduce într-un număr foarte mare de probe/mostre, împărțite în două grupuri distincte – malițioase și curate. Cercetătorii de la ESET au colectat timp de trei decenii date pentru a instrui sistemul ML.

De unde ar putea obține astfel de date un furnizor de tip post-truth, format recent? Doar dacă ar fi recurge la folosirea lipsită de etică a cercetării concurenților, altfel nu există nicio modalitate de a crea o bază de date suficient de mare sau de încredere.

Rebutul înăuntru și afară

Chiar și atunci când un algoritm ML este alimentat cu un număr mare de date, nu există nici o garanție că se pot identifica în mod corect toate eșantioanele noi. Prin urmare, este necesară verificarea umană. Fără acest lucru, chiar și o intrare incorectă poate duce la un efect de bulgăre de zăpadă și, eventual, poate să submineze soluția până în punctul unui eșec complet.

Aceeași situație rezultă în cazul în care algoritmul folosește propriile sale date de ieșire ca intrări. Orice eroare este consolidată în continuare și multiplicată, pe măsură ce același rezultat incorect intră într-o buclă și creează mai mult „rebut“ – alerte fals pozitive sau ratări de elemente malițioase – care apoi reintră în cadrul soluției.

Unii furnizori de securitate post-adevăr susțin că situații similare nu se poate întâmpla cu algoritmi de învățare automată, deoarece aceștia pot identifica fiecare probă înainte de a o rula și pot determina dacă aceasta este curată sau malițioasă doar printr-un „calcul“.

Cu toate acestea, celebrul matematician, criptanalist și om de știință în domeniul computerelor, Alan Turing (omul care a spart codul nazist Enigma în timpul WW2 la Bletchley Park, Anglia), a demonstrat că acest lucru nu este posibil. Chiar și o mașină fără cusur, nu ar fi întotdeauna în măsură să decidă dacă o intrare viitoare, necunoscută ar putea duce la un comportament nedorit – în cazul lui Turing, una care ar face o buclă mașinii pe termen nelimitat.

Fred Cohen, om de știință în domeniul calculatoarelor, care a formulat definiția unui virus de calculator, a mers un pas mai departe și a demonstrat că această așa-numită „problemă a stopării“ se aplică, de asemenea, pentru securitatea cibernetică. Este ceea ce el a numit o „problemă nerezolvabilă“, a spune dacă un program va acționa într-un mod rău intenționat în cazul în care cineva observă doar aspectul său exterior. Aceeași problemă apare pentru intrările viitoare sau setările specifice, care ar putea împinge un program în sfera malițioasă.

Prin urmare, cum se aplică această situație la starea actuală a securității cibernetice? În cazul în care un furnizor susține că algoritmul de învățare automată poate eticheta fiecare probă înainte de executarea sa și poate să decidă dacă aceasta este curată sau malițioasă, atunci ar trebui să blocheze preventiv o mare cantitate de elemente nerezolvabile – direcționând un număr foarte mare de alerte fals pozitive către departamentele IT ale companiilor.

O altă opțiune ar fi detecția mai puțin agresivă, cu mai puține rezultate fals pozitive. Cu toate acestea, dacă se aplică numai tehnologia învățării mecanice, s-ar degrada rapid ratele de detecție, mult față de pretinsele detecții “100%“, care promit eficiența unui glonț de argint.

“Jocul” securității cibernetice se poate schimba în orice moment 

Acest lucru ne conduce la una dintre cele mai serioase limite privind aplicarea tehnologiei ML în securitate cibernetică – un adversar inteligent. Trei decenii de experiență în domeniu au arătat că a contracara astfel de adversari, umani, reprezintă un joc de-a șoarecele și pisica, care nu se termină niciodată. De fiecare dată când clienții sunt protejați de malware, atacatorii încearcă să găsească o cale în jurul soluțiilor. La ESET, protecția este actualizată, iar aceștia caută în continuare lacune și așa mai departe.

Natura în continuă schimbare a mediului securității cibernetice face imposibilă crearea unei soluții universale de protecție, cu excepția cazului în care dorim să negăm existența progresului pe ambele părți ale baricadei – “white hat” și “black hat”. ESET consideră că trebuie să ne adaptăm și să răspundem la peisajul amenințător din realitatea înconjurătoare și nu la un echivalent static, imaginar.

Ați putea argumenta că mașinile au ajuns mai inteligente, până la punctul în care pot învinge oamenii la propriul lor joc – cum ar fi cazul algoritmului AlphaGo de la Google – și ați avea dreptate. Cu toate acestea, acești algoritmi au doar un accent foarte bine determinat și funcționează într-un cadru cu reguli previzibile. În securitatea cibernetică, atacatorii nu aplică nicio regulă. Ce e mai rău, ei sunt capabili să schimbe întregul câmp de joc fără avertisment.

Pentru a combate un adversar cu acest așa-numitele informații generale, o soluție de securitate ar trebui să fie construită în jurul unei inteligențe artificiale la fel de puternică (sau generală), capabilă să se adapteze la medii noi și la noi provocări. Învățarea mecanică slabă din zilele noastre (sau mai restrâns concentrată) pur și simplu nu se ridică la nivelul acestei sarcini.

Cu o soluție de securitate cibernetică bazată exclusiv pe ML, este nevoie de un singur atac de succes din partea actorilor rău intenționați, iar endpoint-urile companiei dvs. ar putea rămâne neprotejate în fața unei armate întregi de infractori cibernetici. Soluțiile ESET, prin urmare, dispun de mai mult decât ML. Noi folosim tehnologii multiple – ce lipsesc, de obicei, din produsele vânzătorilor post-adevăr – pentru a menține atacatorii la distanță, datorită detecției de calitate și ratelor scăzute de alerte fals pozitive.



Leave a Reply

Your email address will not be published. Required fields are marked *