Deepfakes în 2024, un an electoral la nivel global: o armă pentru manipularea în masă?


Știrile false au dominat titlurile electorale de când au ajuns pe prima pagină în timpul cursei pentru Casa Albă din 2016. Dar opt ani mai târziu, există o amenințare probabil mai mare: o combinație de dezinformare și deepfakes care ar putea păcăli chiar și experții. Sunt șanse mari ca exemplele recente de conținut generat de inteligența artificială cu tematică electorală (imagini și videoclipuri care au circulat în perioada premergătoare alegerilor prezidențiale din Argentina sau un mesaj audio fals al președintelui american Joe Biden) să fi fost prevestitori a ceea ce va urma, de data asta la o scară mai mare.

Având în vedere că aproximativ un sfert din populația lumii se îndreaptă către urne în 2024, crește îngrijorarea că dezinformarea și trucurile bazate pe inteligența artificială ar putea fi folosite de actori malițioși pentru a influența rezultatele, mulți experți temându-se de consecințe generalizate ale deepfake-urilor.

Amenințarea dezinformării de tip Deepfake

După cum am menționat deja, nu mai puțin de două miliarde de oameni sunt pe cale să se îndrepte în acest an la secțiile de votare locale pentru a-și alege reprezentanții favoriți și liderii de stat. Deoarece alegerile majore urmează să aibă loc în mai multe țări, inclusiv în SUA, Marea Britanie și India (precum și pentru Parlamentul European), acest lucru are potențialul de a schimba peisajul politic și direcția geopoliticii în următorii câțiva ani.

În același timp, însă, dezinformarea a fost clasată de Forumul Economic Mondial (WEF) drept riscul numărul unu la nivel mondial în următorii doi ani.

Provocarea cu deepfake-urile este că tehnologia bazată pe inteligență artificială devine tot mai ieftină, accesibilă și suficient de puternică pentru a provoca daune la scară largă. Aceasta oferă o mai mare libertate și sporește capacitatea infractorilor cibernetici, a actorilor de stat și a hacktiviștilor de a lansa campanii convingătoare de dezinformare precum și mai multe escrocherii ad-hoc, de tip one time deal. Potrivit 1.490 de experți din mediul academic, de afaceri, din guvern, din comunitatea internațională și din societatea civilă consultați de WEF, care au analizat aceste noi preocupări recente de securitate mondială, dezinformarea este cel mai mare risc global din următorii doi ani și pe numărul doi actual, după vremea extremă. 

Raportul avertizează: „Conținutul sintetic va manipula indivizi, va afecta economiile și va distruge societățile în numeroase moduri în următorii doi ani... există riscul ca unele guverne să acționeze prea încet, confruntându-se cu un compromis între prevenirea dezinformării și protejarea libertății de exprimare.”

Fenomenul Deepfakes

Provocarea este că instrumente precum ChatGPT și de AI generativă accesibilă gratuit (GenAI) au făcut posibil ca o gamă mai largă de indivizi să se implice în crearea de campanii de dezinformare conduse de tehnologia deepfake. Cu toată munca grea făcută pentru ei, actorii rău intenționați au mai mult timp să-și îmbunătățească mesajele și eforturile de amplificare pentru a se asigura că conținutul lor fals este răspândit cât mai larg.

Într-un context electoral, deepfake-urile ar putea fi în mod evident folosite pentru a eroda încrederea alegătorilor într-un anumit candidat. La urma urmei, este mai ușor să convingi pe cineva să nu facă ceva decât invers. Dacă susținătorii unui partid politic sau ai candidatului pot fi influențați în mod adecvat de mesaje audio sau video false, atunci ar fi o victorie sigură pentru grupurile rivale. În unele situații, statele corupte pot încerca să submineze încrederea în întregul proces democratic, astfel încât oricine câștigă va avea dificultăți să guverneze cu legitimitate.

În centrul provocării se află un adevăr simplu: atunci când oamenii procesează informații, ei tind să prețuiască cantitatea și ușurința de înțelegere. Aceasta înseamnă că, cu cât vedem mai mult conținut cu un mesaj similar și cu cât informația este mai ușor de înțeles, cu atât sunt mai mari șansele să credem. Iată motivul pentru care campaniile de marketing tind să fie compuse din mesaje scurte și repetate continuu. Adăugați la aceasta faptul că deepfake-urile devin din ce în ce mai greu de distins de conținutul real și aveți rețeta pentru un dezastru democratic.

De la teorie la practică

În mod îngrijorător, deepfake-urile ar putea avea un impact asupra sentimentului alegătorilor. Luați acest exemplu recent: în ianuarie 2024, un audio deepfake al președintelui american Joe Biden a fost distribuit printr-un apel automat către un număr necunoscut de alegători din New Hampshire. În mesaj, Biden le-ar fi transmis să nu se prezinte și, în schimb, „să își păstreze votul pentru alegerile din noiembrie”. Numărul de identificare a apelantului afișat a fost, de asemenea, fals pentru a apărea ca și cum mesajul automat ar fi fost trimis de la numărul personal al lui Kathy Sullivan, o fostă președintă a Partidului Democrat care conduce acum un super-PAC (super Political Action Committee) pro-Biden.

Nu este greu de înțeles cum ar putea fi folosite astfel de apeluri pentru a descuraja alegătorii să se prezinte pentru candidatul lor preferat înainte de alegerile prezidențiale din noiembrie. Riscul va fi deosebit de acut în alegerile strâns contestate, unde trecerea unui număr mic de alegători de la o parte la alta determină rezultatul. Cu doar câteva zeci de mii de alegători dintr-o selecție de state cheie induși în eroare și manipulați, o campanie direcționată ca aceasta ar putea provoca pagube semnificative. Și așa cum s-a întâmplat și în cazul de mai sus, în care mesajul s-a răspândit prin apeluri automate, mai degrabă decât prin intermediul rețelelor sociale, este și mai greu de urmărit sau măsurat impactul.

Ce fac firmele de tehnologie în acest sens?

Se spune că atât YouTube, cât și Facebook au răspuns lent la fenomenele deepfake care au fost menite să influențeze alegerile recente. Asta în ciuda unei noi legi a UE (Digital Service Act) care impune firmelor de social media să restrângă încercările de manipulare a scrutinului electoral.

La rândul său, OpenAI a declarat că va implementa acreditările digitale ale Coaliției pentru Proveniența și Autenticitatea Conținutului (C2PA) pentru imaginile generate de DALL-E 3. Tehnologia de filigranare criptografică, testată și de Meta și Google, este concepută pentru a face este mai greu să produci imagini false.

Cu toate acestea, aceștia sunt încă doar pași mici și există îngrijorări justificate că răspunsul tehnologic la amenințare va fi prea puțin, prea târziu, deoarece febra alegerilor este în toi. În special atunci când sunt răspândite în rețele relativ închise, cum ar fi grupuri de WhatsApp sau apeluri automate, va fi dificil să urmăriți și să demontați rapid orice mesaj audio sau video fals.

Teoria „prejudecății de ancorare” sugerează că prima informație pe care o aud oamenii este cea care le rămâne în minte, chiar dacă ulterior se dovedește a fi falsă. Dacă campaniile deepfakes vor ajunge să încline balanța suficient de mult într-o direcție sau în cealaltă,  atunci toate pariurile sunt anulate. În era rețelelor sociale și a dezinformarii bazate pe inteligență artificială, zicala lui Jonathan Swift „minciuna zburdă, iar adevărul vine șchiopătând după ea” capătă un sens cu totul nou.

Phil Muncaster February 22, 2024

Lasa un comentariu