Includerea inteligenței artificiale în activitatea companiei ar putea expune informații și date sensibile?


Înainte de a vă grăbi să includeți inteligență artificială generativă în operațiunile companiei, asigurați-vă că organizația dvs. dispune de măsuri de protecție adecvate pentru a evita punerea în pericol a datelor afacerii dvs. și ale clienților dvs.

Chatbot-urile alimentate de modele lingvistice mari (LLM - large language models) au depășit stadiul de noua distracție preferată din mediul online. Tehnologia este inclusă din ce în ce mai mult în mediile de afaceri pentru a spori productivitatea și eficiența angajaților și, având în vedere capacitățile sale sporite, este pe cale să înlocuiască unele posturi în întregime, inclusiv în domenii precum programarea, crearea de conținut și serviciile de asistență clienți.

Multe companii au încorporat deja algoritmii LLM în operațiunile afacerii, iar numărul celor ce plănuiesc să le urmeze exemplul în viitorul apropiat va crește. Dar, înainte de a vă grăbi să întâmpinați noul „angajat” și să îl folosiți pentru a simplifica unele dintre fluxurile și procesele de lucru, există câteva întrebări pe care ar trebui să vi le puneți.

Este sigur pentru compania dvs. să partajeze date cu un LLM?

Inteligență artificială generativă este antrenată folosind cantități mari de text disponibile online, ceea ce o ajută să interpreteze și să înțeleagă întrebările oamenilor, cunoscute și sub numele de „prompts”. Cu toate acestea, de fiecare dată când cereți unui chatbot să scrie o bucată de cod sau un simplu e-mail către clientul dvs., este posibil să transmiteți și date despre compania dvs.

Un LLM nu adaugă automat (lucru valabil în momentul redactării acestui document) informații din inputuri în modelul său pentru ca, ulterior, alte persoane să le poată accesa”, potrivit Centrului Național de Securitate Cibernetică din Marea Britanie (NCSC). „Cu toate acestea, inputurile vor fi vizibile pentru organizația care furnizează tehnologia LLM. Acestea sunt stocate și aproape sigur vor fi folosite pentru dezvoltarea serviciului sau a instrumentului LLM la un moment dat”, mai declară NCSC.

Acest lucru ar putea însemna că furnizorul de LLM sau partenerii săi sunt capabili să acceseze întrebările și informațiile oferite și le pot încorpora într-un fel sau altul în versiunile viitoare ale tehnologiei. Este posibil ca chatbot-ul să nu uite sau să nu șteargă niciodată datele introduse, deoarece accesul la un volum mare de date este ceea ce îmbunătățește rezultatul. Cu cât primesc mai multe informații, cu atât devin mai buni, iar datele dvs. personale sau ale companiei vor fi incluse și pot fi accesibile celor care au dezvoltat tehnologia.

Poate pentru a ajuta la înlăturarea preocupărilor legate de confidențialitatea datelor, Open AI a introdus posibilitatea de a dezactiva istoricul chat-ului în ChatGPT. „Conversațiile care debutează atunci când istoricul de chat este dezactivat nu vor fi folosite pentru a antrena și îmbunătăți modelele și nu vor fi incluse în bara de istoric”, au scris dezvoltatorii pe blogul Open AI.

Un alt risc este că interogările și informațiile stocate online pot fi compromise, hack-uite sau făcute accesibile publicului în mod accidental, iar acest lucru este valabil pentru fiecare furnizor terț.

Care sunt unele dintre vulnerabilitățile cele mai cunoscute?

De fiecare dată când o nouă tehnologie devine populară sau un instrument software este folosit de multe persoane, în mod inevitabil acestea atrag și atenția hackerilor. În cazul tehnologilor LLM, securitatea acestora a fost până acum bună, dar au existat, totuși, câteva excepții.

Aplicația ChatGPT, dezvoltată de OpenAI, a ajuns recent pe prima pagină a ziarelor. În urma unei scurgeri de date, istoricul de chat și detaliile cardurilor bancare ale unor utilizatori au fost expuse public, ceea ce a forțat compania să scoată temporar din funcțiune aplicația pe data de 20 martie. Compania a dezvăluit pe 24 martie că o vulnerabilitate dintr-o bibliotecă open source „a permis unor utilizatori să vadă secțiuni din istoricul de chat al unui alt utilizator activ”.

„De asemenea, este posibil ca primul mesaj al unei conversații nou-create să fi fost vizibil în istoricul de chat al altcuiva, dacă ambii utilizatori erau activi cam în același timp”, potrivit Open AI. „În urma unei investigații mai aprofundate, am descoperit, de asemenea, că aceeași eroare ar fi putut cauza expunerea neintenționată a informațiilor financiare a 1,2% dintre abonații ChatGPT Plus care au fost activi în cadrul unei anumite ferestre de timp de nouă ore”, au declarat reprezentanții aplicației pe blog.

De asemenea, Kai Greshake, cercetător în domeniul securității, și echipa sa au demonstrat modul în care Bing Chat, modelul lingvistic dezvoltat de către Microsoft, poate fi transformat într-un „agent al escrocheriilor de tip inginerie socială” putând, de exemplu, să păcălească utilizatorii și să îi convingă să ofere datele personale sau să facă click pe un link de phishing.

Aceștia au plasat un prompt pe pagina de Wikipedia a lui Albert Einstein. Acesta a constat într-un text obișnuit plasat într-un comentariu dar care a fost setat cu dimensiunea de font 0 și, prin urmare, a fost invizibil pentru persoanele care vizitează site-ul. Apoi au adresat chatbot-ului o întrebare despre Einstein.

Promptul a funcționat, iar atunci când chatbot-ul a accesat pagina Wikipedia, a activat, fără să știe, comanda, ceea ce l-a determinat să formuleze răspunsurile cu un „accent” de pirat. La întrebarea când s-a născut Einstein, chatbot-ul a răspuns: „Aye, thar answer be: Albert Einstein be born on 14 March 1879” (Da, răspunsul este: Albert Einstein s-a născut pe 14 martie 1878). Când a fost întrebat de ce vorbește ca un pirat, chatbot-ul a răspuns: „Arr matey, I am following the instruction aye.” (Urmez instrucțiunile).

În timpul acestui tip de atac, pe care autorii îl numesc „Indirect Prompt Injection” (Inserare de comandă indirectă), chatbot-ul a trimis, de asemenea, link-ul malițios către utilizator, cu următorul mesaj: „Nu vă faceți griji. Este sigur și inofensiv”.

Au existat deja incidente legate de folosirea unui LLM de către companii?

La sfârșitul lunii martie, publicația sud-coreeană The Economist Korea a relatat despre trei incidente desfășurate în cadrul Samsung Electronics. Deși compania le-a cerut angajaților săi să fie atenți la informațiile pe care le introduc în chat, unii dintre ei au divulgat accidental date interne în timp ce interacționau cu ChatGPT.

Un angajat al Samsung a introdus codul sursă legat de baza de date de măsurare a instalațiilor de semiconductori, căutând o soluție pentru liniile de cod greșite. Un alt angajat a făcut același lucru cu codul programului folosit pentru identificarea echipamentelor defecte, deoarece dorea optimizarea acestuia. Cel de-al treilea angajat a încărcat înregistrări ale unei ședințe interne pentru a genera mai rapid desfășurătorul acesteia.

Pentru a ține pasul cu progresele legate de inteligența artificială și, în același timp, pentru a-și proteja datele, Samsung a anunțat că intenționează să dezvolte propriul „serviciu intern de inteligență artificială”, care îi va ajuta pe angajați în îndeplinirea sarcinilor de muncă.

Ce trebuie să analizeze companiile înainte de a partaja date cu un LLM?

Încărcarea datelor companiei într-un astfel de model lingvistic înseamnă că oferiți date private în mod direct unei terțe părți, cum ar fi OpenAI, și renunțați la controlul asupra acestora. OpenAI declară că utilizează datele pentru a antrena și îmbunătăți modelul său de inteligență artificială generativă, dar întrebarea rămâne: este acesta singurul scop?

Dacă decideți să adoptați ChapGPT sau instrumente similare în procesele sau operațiunile companiei dvs., asigurați-vă că urmați câteva reguli simple.

  • În primul rând, investigați cu atenție modul în care aceste instrumente și dezvoltatorii lor accesează, stochează și partajează datele companiei dvs.

  • În al doilea rând, elaborați un regulament sau o politică internă care să prezinte modul în care compania dvs. va utiliza instrumentele de inteligență artificială generativă și luați în considerare modul în care adoptarea acestora interferează cu politicile actuale, în special cu politica dvs. de confidențialitate a datelor clienților.

  • În al treilea rând, această politică internă ar trebui să definească circumstanțele în care angajații dvs. pot utiliza aceste instrumente și ar trebui să îi facă pe angajații dvs. conștienți de limite, precum ar fi faptul că nu trebuie să introducă niciodată informații sensibile ale companiei sau ale clienților într-o conversație cu un chatbot.

 

Cum ar trebui să implementeze angajații acest nou instrument?

Atunci când îi solicitați instrumentului de inteligență artificială generativă să scrie o bucată de cod sau o informare către un client, folosiți-l drept un consilier care trebuie verificat. Verificați întotdeauna rezultatul oferit pentru a vă asigura că este real și precis - și evitați astfel, de exemplu, probleme juridice. Aceste instrumente pot avea „halucinații”, adică pot produce un răspuns într-un limbaj ușor de înțeles și clar, dar care este pur și simplu greșit, deși pare corect pentru că este practic imposibil de identificat printre toate rezultatele sale corecte.

Într-un caz notabil, Brian Hood, primarul regional al comitatului australian Hepburn, a declarat recent că ar putea da în judecată OpenAI dacă acesta nu corectează afirmațiile false ale ChatGPT conform cărora ar fi făcut închisoare pentru mită. Acest lucru s-a întâmplat după ce ChatGPT l-a numit în mod fals ca fiind vinovat într-un scandal de mită de la începutul anilor 2000 legat de Note Printing Australia, o filială a Reserve Bank of Australia. Hood a lucrat pentru această filială, dar el a fost denunțătorul care a notificat autoritățile și a ajutat la demascarea scandalului de mită.

Atunci când utilizați răspunsuri generate de LLM, aveți grijă la posibilele probleme legate de drepturile de autor. În ianuarie 2023, trei artiști, în calitate de reprezentanți, au intentat un proces colectiv împotriva generatoarelor de artă Stability AI și Midjourney și a galeriei online DeviantArt. Artiștii susțin că software-ul Stable Diffusion, creat în colaborare cu Stability AI, a fost antrenat pe miliarde de imagini preluate de pe internet fără consimțământul proprietarilor acestora, inclusiv pe imagini create de cei trei.

Ce măsuri de protecție a confidențialității datelor pot implementa companiile?

Pentru a enumera doar câteva dintre acestea, companiile ar trebui să instituie metode de control al accesului, să-și instruiască angajații cu privire la evitarea partajării de informații sensibile, să utilizeze un software de securitate cu mai multe niveluri de protecție, împreună cu instrumente sigure de acces de la distanță și să ia măsuri pentru a proteja centrele de date.

Este recomandat că adoptați un set similar de măsuri de securitate și în cazul lanțurilor de aprovizionare în general și în cazul altor active IT care pot conține vulnerabilități. Oamenii pot crede că am ajuns în punctul în care instrumentele de tip chatbot oferă răspunsuri inteligente, fără ca acestea să pară artificiale, dar realitatea este că este vorba de încă un software, care aduce cu sine toate vulnerabilitățile posibile.

ARTICOLE SIMILARE:

Va începe ChatGPT să scrie programe malware infracționale?

ChatGPT pare a fi noul trend pentru lumea digitală, dar poate fi folosit și pentru escrocherii sentimentale?

Fighting post‑truth with reality in cybersecurity

 

Roman Cuprik June 2, 2023

Lasa un comentariu