Ce se întâmplă dacă chatbot-ul dvs. romantic cu AI nu poate păstra un secret?


Știe chatbot-ul dvs. prea multe? Iată de ce ar trebui să vă gândiți de două ori înainte să îi spuneți chiar totul. În filmul „Her”, eroul poveștii are o relație romantică, în cele din urmă sortită eșecului, cu un sistem AI sofisticat. La momentul lansării, în 2013, părea cu siguranță SF. Însă, odată cu apariția inteligenței artificiale generative (GenAI) și a modelelor lingvistice mari (LLM), nu mai este un scenariu chiar nerealist. De fapt, aplicațiile de tip „companion” se înmulțesc în prezent.

Totuși, inevitabil, există riscuri ale relațiilor cu un bot AI. Cum puteți ști că informațiile dvs. personale nu vor fi împărtășite unor terți? Sau că nu vor fi furate de hackeri? Răspunsurile la astfel de întrebări vă vor ajuta să decideți dacă merită sau nu riscul.

În căutarea iubirii (digitale)

Aplicațiile de tip „companion” răspund unei cereri în creștere pe piață. Partenerii virtuali pe bază de AI valorifică puterea modelelor lingvistice mari (LLM) și a procesării limbajului natural (NLP) pentru a interacționa cu utilizatorii prin conversații extrem de personale. Aplicații precum Character.AI, Nomi și Replika satisfac o nevoie psihologică și, uneori, romantică a celor care le folosesc. Nu este greu de înțeles de ce dezvoltatorii sunt interesați de domeniu.

Chiar și marile platforme vin din urmă. OpenAI a anunțat recent că va lansa în curând „conținut erotic” și ar putea permite dezvoltatorilor să creeze aplicații „pentru adulți” bazate pe ChatGPT. De asemenea, xAI, compania lui Elon Musk, a lansat în aplicația Grok companioni AI.

Cercetări publicate în luna iulie au arătat că aproape trei sferturi dintre adolescenți au apelat la companioni AI, iar jumătate dintre aceștia o fac în mod regulat. Mai îngrijorător, o treime au ales boți AI în locul oamenilor pentru conversații serioase, iar un sfert le-a oferit acestora informații personale.

Este cu atât mai îngrijorător cu cât încep să apară și povești ce ridică semnale de alarmă. În octombrie, cercetătorii au atras atenția că două aplicații de tip companion AI (Chattee Chat și GiMe Chat) au expus neintenționat informații extrem de sensibile ale utilizatorilor. O instanță de server (broker) Kafka configurată greșit a lăsat sistemele de streaming și de livrare a conținutului pentru aceste aplicații fără controale de acces. Ceea ce a însemnat că oricine ar fi putut accesa peste 600.000 de fotografii încărcate de utilizatori, adrese IP și milioane de conversații intime aparținând unui număr de peste 400.000 de utilizatori.

Riscurile relațiilor cu un bot

Atacatorii oportuniști pot întrezări aici o nouă modalitate de a face bani. Informațiile împărtășite de victime în conversațiile romantice cu companionul lor AI sunt extrem de vulnerabile la șantaj. Imaginile, videoclipurile și fișierele audio ar putea fi folosite în instrumente de tip deepfake pentru escrocherii de tip sextortion, de exemplu. Sau informațiile personale ar putea fi vândute pe dark web pentru fraude de identitate ulterioare. În funcție de nivelul de securitate al aplicației, hackerii ar putea, de asemenea, să obțină informații despre cardurile de credit stocate pentru achiziții în aplicație. Potrivit Cybernews, unii utilizatori cheltuiesc mii de dolari pe astfel de achiziții.

Așa cum arată exemplul de mai sus, pentru dezvoltatorii de aplicații AI prioritatea este generarea de venituri, nu securitatea cibernetică. Asta înseamnă că atacatorii pot găsi vulnerabilități sau configurări greșite pe care să le exploateze. Unii ar putea chiar să încerce să creeze propriile aplicații „companion” care imită originalele, dar ascund cod malițios pentru furt de informații sau manipulează utilizatorii astfel încât să divulge date sensibile ce pot fi folosite pentru fraudă sau șantaj.

Chiar dacă aplicația dvs. este relativ sigură, poate prezenta risc de confidențialitate. Unii dezvoltatori colectează cât mai multe informații despre utilizatori pentru a le vinde mai departe publicitarilor terți. Politicile de confidențialitate opace pot face dificil de înțeles dacă și cum sunt protejate datele dvs. De asemenea, este posibil ca informațiile și conversațiile pe care le împărtășiți cu partenerul dvs. virtual să fie folosite pentru a antrena sau a ajusta modelul lingvistic (LLM) de bază, ceea ce amplifică și mai mult riscurile legate de confidențialitate și securitate.

Cum să vă protejați familia

Indiferent dacă folosiți chiar dvs. o aplicație de tip companion AI sau sunteți îngrijorat pentru copiii dvs., sfatul rămâne același: plecați de la premisa că AI-ul nu are măsuri de securitate sau confidențialitate implementate. Nu împărtășiți nicio informație personală sau financiară așa cum nu ați oferi-o unui străin. Inclusiv fotografii sau videoclipuri potențial jenante sau care dezvăluie prea multe.

Și mai bine, dacă dvs. sau copiii dvs. doriți să încercați una dintre aceste aplicații, faceți cercetări în prealabil pentru a le identifica pe acelea care oferă cele mai bune măsuri de securitate și confidențialitate. Asta presupune să citiți politicile de confidențialitate pentru a înțelege cum sunt folosite și/ sau partajate datele voastre. Evitați orice aplicație care nu specifică clar modul în care va fi folosită informația sau care recunoaște că vinde datele utilizatorilor.

Odată ce ați ales aplicația, asigurați-vă că activați funcțiile de securitate, cum ar fi autentificarea în doi pași. Vă va ajuta la prevenirea preluării contului prin parole furate sau sparte prin atacuri de tip brute-force. De asemenea, parcurgeți setările de confidențialitate pentru a spori nivelul de protecție. De exemplu, s-ar putea să existe opțiunea de a nu salva conversațiile dvs. pentru antrenarea modelului.

Dacă sunteți îngrijorat de securitatea, confidențialitatea și implicațiile psihologice ale utilizării acestor aplicații de către copiii dvs., purtați o discuție cu ei pentru a afla mai multe. Reamintiți-le despre riscurile dezvăluirii în exces și subliniați că aceste aplicații sunt un instrument construit pentru profit și nu au întotdeauna în vedere interesele utilizatorilor. Dacă sunteți preocupat de efectele pe care le pot avea asupra copiilor, ați putea stabili limite privind timpul petrecut pe ecran și utilizarea aplicațiilor – limite care pot fi implementate prin aplicații de monitorizare parentală.

Este de la sine înțeles că nu ar trebui să permiteți utilizarea vreunei aplicații de tip companion AI care nu oferă protecții suficiente pentru copii prin politicile de verificare a vârstei și moderare a conținutului.

Rămâne de văzut dacă autoritățile de reglementare vor interveni pentru a impune reguli mai stricte privind ceea ce pot și ce nu pot face dezvoltatorii în acest domeniu. În prezent, boții romantici operează într-o zonă oarecum gri, deși viitoarea Lege a Echității Digitale (Digital Fairness Act) din UE ar putea interzice experiențele excesiv de adictive și personalizate.

Până când dezvoltatorii și autoritățile de reglementare vor reduce decalajul, poate fi mai bine să nu tratați companionii AI ca pe confidenți sau sprijin emoțional.

Phil Muncaster November 17, 2025

Lasa un comentariu