Creșterea adoptării inteligenței artificiale trebuie controlată


Multă cerneală, fie reală sau digitală, a fost "vărsată" pe o gamă largă de oportunități extraordinare activate de inteligența artificială (AI) și învățarea automatizată (ML - machine learning).

Acum, o echipă de 26 de experți AI, inclusiv de la universitățile din Oxford, Cambridge și Yale, OpenAI și Fundația Electronic Frontier, au speculat asupra modului în care inteligența artificială ar putea fi folosită în mod abuziv pentru scopuri nefaste - un aspect pe care experții consideră că a fost ignorat în mediul academic.

Ceea ce raportul lor a numit ca fiind "Utilizarea rău-voitoare a inteligenței artificiale: prognoză, prevenire și atenuare", nu presupune un fel de preluare abuzivă a controlului de către inteligența artificială printr-o funcționalitate îndepărtată în timp.

Mai degrabă, acesta evidențiază atacuri care s-ar putea materializa în câțiva ani și care implică cooptarea tehnologiilor AI într-un mod rău-intenționat - cu excepția cazului în care se dezvoltă sisteme de apărări adecvate.

Scenariile iau în considerare numai tehnologiile AI care sunt sau vor fi disponibile în următorii cinci ani, concentrându-se în special asupra celor care folosesc ML.

În mâinile nepotrivite, potrivit experților, AI poate schimba nivelul de amenințări în mod esențial în trei moduri - extinde amenințările existente, generează noi amenințări și schimbă natura amenințărilor așa cum o știm.

Documentul, de aproape 100 de pagini, identifică trei domenii de securitate - digitale, fizice și politice - în care utilizarea potențială a malware-ului AI este deosebit de relevantă.

Să ne gândim mai intens la modul în care AI și ML pot fi utilizate în mod abuziv în domeniul digital.

Atacurile cibernetice devin mai ușoare

Datorită scalabilității și eficienței sistemelor AI, atacurile cibernetice intensive ar putea deveni mult mai eficiente și mai ușor de realizat . Acestea includ atacuri care implică inginerie socială, cum ar fi spearphishing, pe care raportul le subliniază drept un exemplu de amenințare existentă care se poate extinde.

Prin automatizarea sarcinilor non-triviale pe care atacatorii trebuie să le îndeplinească înainte de lansarea acestor operațiuni vizate, AI ar putea permite mai multor atacatori să le deruleze cu mai puțin efort.

"Informațiile online ale victimelor sunt folosite pentru a genera automat site-uri web personalizate / e-mailuri / link-uri pe care ar putea să dea click, trimise de la adrese care impersonalizează contacte reale, folosind un stil de scriere care imită aceste persoane de contact" subliniază acest raport.

Atacatorii ar putea fi capabili să facă spearfishing sofisticat în masă "într-o manieră care este în prezent nefezabilă și, prin urmare, să lărgească foarte mult modalitatea în care selectează ținta", potrivit raportului. Chat bot-urile realiste care pot imita un prieten ar putea adăuga noi nivele de eficiență acestor amenințări.

"O explozie de penetrări a rețelei, furt de date personale și o epidemie de viruși informatici inteligenți" ar putea apărea în urma atacurilor AI.

În plus, raportul prevede că AI ar putea să automatizeze și să accelereze detectarea vulnerabilităților software înainte ca un cod malițios să exploateze defectele - într-un proces, ulterior de asemenea ajutat de AI - și să fie creat.

De asemenea, în sfera posibilității sunt atacurile de negare a serviciilor care implică o "mulțime masivă de agenți autonomi", potrivit cercetătorilor.

Folosind ample seturi de date, potențialele victime ale campaniilor motivate financiar pot fi identificate mai eficient. Comportamentul lor online ar putea fi folosit pentru a estima situația financiară personală și pentru a judeca disponibilitatea de a plăti, generând astfel, în cele din urmă, eficiența campaniilor de ransomware.

Vulnerabilitățile în sistemele AI ar putea fi, de asemenea, exploatate, cum ar fi prin exemple contradictorii oferite sistemului AI cu scopul deliberat de a deturna rezultatele finale și alte asemenea otrăviri de date.

"Atacurile de otrăvire a datelor sunt folosite pentru a distruge sau pentru a crea portițe utile atacatorilor (backdoors) în modelele de învățare mecanică de consum", relatează scenariul.

Este timpul să acționați

De asemenea, raportul sugerează un set de intervenții generale pentru a diminua amenințările asociate utilizării malițioase a AI.

Experții îndeamnă factorii de decizie politică să colaboreze îndeaproape cu cercetătorii tehnici, oamenii de știință și comunitatea cybersecurity pentru a investiga, înțelege și a se pregăti pentru posibile utilizări malițioase ale AI.

Raportul solicită, de asemenea, extinderea părților interesate, implicate în prevenirea și atenuarea riscurilor.

De asemenea, inginerii și cercetătorii ar trebui să fie mai atenți la considerațiile legate de abuz și să contacteze părțile interesate și relevante pentru a preveni aplicațiile malware ale AI.

"Provocarea este intimidantă, iar miza este ridicată", se arată în raport.

 

Lasa un comentariu