Bisnis.com, JAKARTA - Facebook menyatakan bahwa mereka bakal meningkatkan perjuangannya melawan pelecehan anak daring dengan fitur baru untuk mengenali konten terkait dan aturan yang lebih ketat.
Antigone Davis, Kepala Keamanan Global Facebook mengatakan penggunaan aplikasi atau platform itu untuk menyakiti anak-anak adalah hal yang menjijikkan dan tidak dapat diterima.
"Kami sedang mengembangkan solusi yang tertarget, termasuk fitur dan kebijakan baru untuk mengurangi berbagai jenis konten [eksploitasi anak] ini," katanya dalam postingan di blog resmi, seperti dikutip Rabu (24/2/2021).
Baca Juga Kenali 4 Gejala Long Covid-19 pada Anak |
---|
Raksasa media sosial itu memperbarui pedomannya untuk memperjelas bahwa mereka akan menghapus akun Facebook dan Instagram yang didedikasikan untuk berbagai gambar dan keterangan terkait anak yang tidak pantas.
"Berdasarkan kebijakan baru ini, meskipun gambarnya tidak melanggar aturan, teks yang menyertainya dapat membantu kami menentukan dengan lebih baik apakah konten itu mengarah pada seksualitas anak," imbuhnya.
Fitur baru yang sedang diuji termasuk salah satu alat yang memicu pesan pop-up sebagai tanggapan atas istilah penelusuran yang terkait dengan eksploitasi anak. Perusahaan bakal memperingatkan orang tentang hal itu.
Facebook juga menguji peringatan keamanan yang menginformasikan orang-orang yang membagikan konten eksploitasi anak, tentang bahaya yang ditimbulkannya dan konsekuensi hukum yang bisa timbul.
Hal itu juga dilakukan bersamaan dengan penghapusan konten yang melanggar aturan Facebook, postingan semacam itu dilaporkan kepada National Center for Missing and Exploited Children (NCMEC).
"Kami menggunakan wawasan dari peringatan keamanan ini untuk membantu mengidentifikasi sinyal perilaku dari mereka yang mungkin berisiko membagikan materi ini," kata Davis.
Facebook juga bekerja sama dengan NCMEC dan grup lain untuk mendapatkan informasi yang jelas tentang orang-orang yang membagikan konten eksploitasi anak, termasuk tujuan dan maksud mereka.
Disimpulkan bahwa lebih dari 75 persen dari konten yang diteliti tidak berbahaya, tetapi dilakukan untuk alasan seperti mengekspresikan kemarahan atau mengunakannya sebagai candaan yang tidak pantas.