Două noi instrumente vor avertiza utilizatorii cu privire la riscurile asociate căutării și distribuirii de conținut prin care se promovează acte de exploatare a copiilor, inclusiv posibilele consecințe juridice ale acestor fapte.
Facebook a anunțat lansarea unor noi instrumente pentru a ajuta la combaterea conținutului care prezintă acte de abuz și exploatare a copiilor la nivelul platformei sale și a celorlalte aplicații deținute de gigant. În vreme ce primul instrument își propune să limiteze partajarea potențial malițioasă a conținutului de acest tip, al doilea se ocupă cu partajările fără scop malițios.
Primul instrument vine sub forma unui pop-up afișat utilizatorilor care caută în aplicațiile Facebook termeni care sunt de obicei asociați cu exploatarea copiilor. „Fereastra pop-up oferă modalități de a obține ajutor de la organizațiile de deturnare a infractorilor și împărtășește informații despre consecințele vizualizării conținutului ilegal”, a scris Antigone Davis, Șeful Global al Securității în cadrul Facebook, într-o postare de blog care vorbește despre noile instrumente.
Cel de-al doilea instrument este o alertă de siguranță afișată în cazul persoanelor care au distribuit conținut viral de tip „meme”, care face referire la exploatare de copii. Alerta va informa utilizatorul în legătură cu prejudiciile pe care le-ar putea suferi și va emite, de asemenea, un avertisment cu privire la ramificațiile legale pentru partajarea unor astfel de materiale.
„Trimitem această alertă de siguranță, după eliminarea conținutului nepotrivit, transferarea și raportarea acestuia către NCMEC. Conturile care promovează astfel de conținut vor fi eliminate. Folosim datele generate în urma alertei de siguranță pentru a ne ajuta pe viitor să identificăm tiparele comportamentale ale celor care ar putea fi predispuși să împărtășească astfel de conținut, astfel încât să îi putem educa și să îi încurajăm să nu răspândească conținut nepotrivit pe nicio platformă - fie că o fac în mod privat sau public", a adăugat Davis.
„În timp ce infractorii exploatează rețelele sociale pentru a comite infracțiuni pe baza unor materiale ce denotă abuz sexual asupra copiilor, trafic de minori și turism sexual cu copii, utilizarea acestor platforme pentru a facilita acte de răpire este mai puțin cunoscută”, a declarat agenția.
Un articol pe aceeași temă: The best social networks for younger children
Facebook a lucrat cu experți în domeniul exploatării copiilor, inclusiv Centrul Național al Statelor Unite pentru Copii Dispăruți și Exploatați (NCMEC), pentru a veni cu o taxonomie susținută de cercetări privind clasificarea intenției unei persoane din spatele partajării unui astfel de conținut. După evaluarea a 150 de conturi raportate la NCMEC pentru publicarea de conținut ce denotă exploatare pentru copii, Facebook a constatat că aproximativ peste 75% dintre oameni nu au decurs la acest gest, cu o intenție rău intenționată. Mai degrabă, au încercat să provoace indignare sau au împărtășit conținutul cu umor slab. Cu toate acestea, compania a adăugat că concluziile nu ar trebui luate ca o „măsură precisă” a ecosistemului siguranței copiilor.
Rețeaua socială și-a modificat, de asemenea, politicile sale destinate siguranței copiilor, accentuând ideea că va continua să șteargă profilurile, paginile și grupurile de Facebook, împreună cu conturile de Instagram, care partajează imagini ale copiilor inocenți care sunt însoțite de comentarii, hashtag-uri sau descrieri ce denotă semne necorespunzătoare de apreciere ori alte observații cu caracter suspect despre copiii din fotografii.
„Am eliminat întotdeauna conținutul care sexualizează în mod explicit copiii, însă e mai greu să definim conținutul care nu este explicit și care nu înfățișează nuditate infantilă. Conform acestei noi politici, în timp ce imaginile în sine pot să nu încălce regulile noastre, textul care însoțește poza ne poate ajuta să stabilim mai bine dacă conținutul sexualizează copilul și dacă profilul, pagina, grupul sau contul asociat ar trebui eliminate”, a explicat compania.
În plus, pentru a simplifica procesul de raportare a conținutului care încalcă politicile Facebook legate de exploatarea copiilor, gigantul rețelelor de socializare a adăugat opțiunea „involves a child” în categoria „Nudity and Sexual Activity” de raportare, pentru a filtra mai ușor aceste cazuri.
Rețelele sociale și-au intensificat eforturile pentru a reduce conținutul cu caracter abuziv asupra copiilor și au implementat diverse instrumente și măsuri pentru a contribui la atingerea acestui obiectiv. Anul trecut, spre exemplu, Facebook a extins controlul parental pentru Messenger Kids în timp ce TikTok a introdus funcția Family Pairing.
Pentru a afla mai multe despre mai multe pericole cu care se confruntă copiii online și despre modul în care tehnologia îi poate ajuta, accesați platforma noastră cu resurse utile, Safer Kids Online.
Lasa un comentariu