Facebook, Instagram Buat Basis Data Hash untuk Menghapus Porno Anak

Foto: Leon Neal (Getty Images)

Facebook dan Instagram mengambil beberapa langkah terkuat mereka untuk menekan materi pelecehan seksual anak (CSAM) yang membanjiri jejaring sosial mereka. Meta, perusahaan induk dari keduanya, sedang membuat database dalam kemitraan dengan National Center for Missing and Exploited Children (NCMEC) yang akan memungkinkan pengguna mengirimkan “sidik jari digital” dari materi pelecehan anak yang diketahui, kode numerik yang terkait dengan gambar atau video daripada file itu sendiri. Kode tersebut akan disimpan dan digunakan oleh platform lain yang berpartisipasi untuk mendeteksi tanda-tanda gambar atau video yang sama dibagikan di tempat lain secara online.

Meta mengatakan hari Senin bahwa pihaknya bermitra dengan NCMEC untuk menemukan “sebuah platform baru yang dirancang untuk secara proaktif mencegah gambar intim anak muda menyebar secara online.” Inisiatif tersebut, dijuluki Take It Down, menggunakan nilai hash dari gambar CSAM untuk mendeteksi dan menghapus salinan yang berpotensi dibagikan di platform media sosial, baik milik Meta atau tempat lain. Facebook dan Instagram menghapus gambar porno balas dendam dengan cara ini, dan inisiatif membuka sistem untuk perusahaan lain yang ingin melakukan hal yang sama untuk aplikasi mereka. Situs-situs yang diarahkan pada pornografi dan video seperti Pornhub dan Onlyfans berpartisipasi, begitu pula jejaring sosial Prancis Yubo.

Fitur hash pada dasarnya berfungsi sebagai “sidik jari digital” dari nomor unik yang ditetapkan untuk setiap gambar atau video. Pengguna di bawah umur yang berharap gambar telanjang atau sebagian telanjang dari diri mereka dihapus dari platform dapat mengirimkan file tersebut ke Take It Down, yang kemudian akan menyimpan hash yang terkait dengan file tersebut dalam database. Anggota yang berpartisipasi, seperti Facebook dan Instagram, kemudian dapat mengambil basis data hash tersebut dan memindainya dengan gambar dan video di platformnya. Baik orang yang bekerja untuk Take It Down maupun untuk Meta tidak boleh benar-benar melihat gambar atau video yang dimaksud, karena memiliki pornografi anak adalah kejahatan.

“Orang-orang dapat membuka TakeItDown.NCMEC.org dan mengikuti petunjuk untuk mengirimkan kasus yang secara proaktif akan mencari gambar intim mereka di aplikasi yang berpartisipasi,” bunyi siaran pers Meta.

Take it Down dibangun dari platform StopNCII Meta 2021, yang bermitra dengan LSM untuk menggunakan teknik hashing untuk mendeteksi dan menghapus gambar intim yang dibagikan secara nonkonsensual. Take It Down berfokus pada gambar telanjang dan sebagian telanjang dari pengguna di bawah umur. Orang tua atau “orang dewasa tepercaya” lainnya juga dapat mengajukan klaim atas nama pengguna muda.

G/O Media dapat memperoleh komisi

Siapa pun yang yakin bahwa mereka memiliki gambar telanjang atau sebagian telanjang dari tema yang dibagikan di platform online yang tidak terenkripsi dapat mengajukan permintaan ke Take It Down. Kelayakan tersebut berlaku untuk pengguna berusia di atas 18 tahun yang percaya bahwa gambar video mereka saat masih di bawah umur mungkin masih bersembunyi di suatu tempat di web. Pengguna juga tidak diharuskan untuk mengirimkan nama, alamat, atau informasi pribadi lainnya ke Take It Down. Meskipun itu memberikan anonimitas kepada calon korban, itu juga berarti mereka tidak akan menerima peringatan atau pesan apa pun yang memberi tahu mereka jika ada materi yang terlihat dan dihapus.

“Take It Down dirancang dengan dukungan keuangan Meta,” kata Kepala Keamanan Meta Global Antigone Davis dalam sebuah pernyataan. “Kami bekerja sama dengan NCMEC untuk mempromosikan Take It Down di seluruh platform kami, selain mengintegrasikannya ke Facebook dan Instagram sehingga orang dapat dengan mudah mengaksesnya saat melaporkan konten yang berpotensi melanggar.”

Gambar pelecehan seksual anak meningkat

Kemitraan Meta dengan NCMEC hadir saat platform media sosial berjuang untuk menekan lonjakan materi pelecehan anak yang terdeteksi secara online. Laporan tahunan yang dirilis tahun lalu oleh Internet Watch Foundation menemukan 252.194 URL berisi atau mempromosikan materi CSAM yang diketahui. Itu naik 64% dari waktu yang sama tahun sebelumnya. Angka-angka tersebut sangat mengkhawatirkan di AS: Tahun lalu, menurut Tinjauan Teknologi MIT, AS menyumbang 30% mengejutkan dari tautan CSAM yang terdeteksi secara global.

Sebagian besar tautan CSAM yang dilaporkan dari perusahaan media sosial AS terjadi di aplikasi keluarga Meta. Data yang dirilis tahun lalu oleh NCMEC menunjukkan Facebook sendiri menyumbang 22 juta laporan CSAM. Itu dibandingkan dengan masing-masing sekitar 87.000 dan 154.000 laporan dari Twitter dan TikTok. Meskipun angka-angka tersebut tampaknya menjadikan Facebook sebagai sarang CSAM yang tak tertandingi secara material, tetapi perlu dicatat bahwa jumlah besar tersebut sebagian mencerminkan upaya Meta yang lebih berkomitmen untuk benar-benar mencari dan mendeteksi materi CSAM. Dengan kata lain, semakin keras Anda melihat, semakin banyak yang akan Anda temukan.

Deteksi CSAM dan enkripsi end-to-end: tarik ulur

Banyak perusahaan teknologi lain telah melontarkan ide mereka sendiri tentang membatasi materi CSAM dalam beberapa tahun terakhir dengan berbagai tingkat dukungan. Proposal yang paling terkenal datang dari Apple pada tahun 2021 ketika mengusulkan alat baru yang diduga peneliti keamanan akan “memindai” ponsel pengguna untuk bukti materi CSAM sebelum gambar dikirim dan dienkripsi di iCloud. Pendukung privasi segera berteriak curang, takut alat baru dapat berfungsi sebagai “pintu belakang” pemerintah asing atau badan intelijen lainnya dapat menggunakan kembali untuk terlibat dalam pengawasan. Dalam backpedal yang jarang terjadi, Apple benar-benar menghentikan alat sebelum secara resmi membatalkan rencana tersebut sama sekali tahun lalu.

Demikian pula, pendukung privasi dan enkripsi telah memperingatkan minat kongres yang berkembang dalam cara-cara baru untuk membatasi materi CSAM dapat, sengaja atau tidak, mengarah pada pengurangan enkripsi ujung-ke-ujung untuk pengguna internet sehari-hari. Kekhawatiran itu tidak terbatas pada AS. Baru minggu lalu, presiden Signal Meredith Whittaker mengatakan kepada Ars Technica bahwa aplikasi tersebut bersedia untuk meninggalkan pasar Inggris sama sekali jika bergerak maju dengan RUU Keamanan Daringnya, undang-undang yang seolah-olah ditujukan untuk memblokir materi CSAM tetapi yang privasi pendukung mengatakan bisa mengirim kapak melalui enkripsi.

“Sinyal tidak akan pernah, tidak akan pernah, 1.000 persen tidak akan berpartisipasi, dalam segala jenis pemalsuan teknologi kami yang akan merusak janji privasi kami,” kata Whitaker kepada Ars Technica, “Mekanisme yang tersedia dan hukum fisika dan realitas teknologi dan pendekatan yang telah dicoba sangat cacat baik dari sudut pandang hak asasi manusia maupun dari sudut pandang teknologi.”