Meta membagikan kode sumber untuk alat moderasi kontennya

Moderasi konten online itu sulit (seperti yang Elon Musk ketahui saat ini). Tetapi Meta—perusahaan di belakang Facebook, Instagram, dan WhatsApp—berharap dapat mempermudah platform lain. Minggu lalu diumumkan bahwa mereka akan membuka kode sumber untuk alat Hasher-Matcher-Actioner (HMA) dan membuatnya tersedia secara bebas. Berita ini muncul saat Meta ditetapkan untuk menjabat sebagai ketua Dewan Operasi Global Internet Forum to Counter Terrorism (GIFCT).

Didirikan pada tahun 2017 oleh Facebook, Microsoft, Twitter, dan YouTube, GIFCT telah berkembang menjadi organisasi nirlaba yang bekerja dengan perusahaan anggota, pemerintah, dan organisasi masyarakat sipil untuk menangani konten teroris dan ekstremis kekerasan di internet. Salah satu aspeknya adalah mempertahankan basis data hash bersama dari konten ekstremis sehingga jika satu perusahaan, katakanlah Facebook, menandai sesuatu yang terkait dengan teroris, perusahaan lain, seperti YouTube, dapat menghapusnya secara otomatis.

Agar database ini bekerja secara efisien (dan agar tidak ada perusahaan yang harus menyimpan petabyte konten kekerasan yang mengerikan), mereka tidak menyimpan salinan lengkap dari konten yang melanggar. Sebaliknya, mereka menyimpan sidik jari digital yang unik, atau hash.

Beginilah cara hash dibuat: Intinya, salinan video ekstremis, foto teroris, manifesto PDF, atau apa pun dimasukkan melalui algoritme yang mengubahnya menjadi rangkaian angka dan huruf yang unik. Anda tidak dapat membuat ulang konten menggunakan hash, tetapi menempatkan video yang sama melalui algoritme akan selalu memberikan hasil yang sama. Selama semua platform menggunakan algoritme yang sama untuk membuat hash, mereka dapat menggunakan database bersama untuk melacak konten teroris.

[Related: Antivaxxers use emojis to evade Facebook guidelines]

Alat HMA Meta memungkinkan platform untuk mengotomatiskan proses hashing gambar atau video apa pun, mencocokkannya dengan database, dan mengambil tindakan terhadapnya—seperti menghentikan video agar tidak diposting, atau memblokir akun yang mencoba melakukannya. Itu tidak terbatas pada konten teroris, dan dapat bekerja dengan database bersama seperti yang dikelola oleh GIFCT, atau yang eksklusif seperti Content ID YouTube.

Perlu diperhatikan bahwa semua ini terjadi di latar belakang, sepanjang waktu. Setelah HMA atau alat otomatis serupa lainnya aktif dan berjalan, semua foto dan video yang diposting pengguna akan di-hash dan diperiksa dengan basis data yang relevan saat diunggah. Jika sesuatu kemudian ditandai oleh moderator sebagai kekerasan, ofensif, atau memerlukan penghapusan, itu dapat kembali dan secara otomatis menghapus contoh lain yang ada di platform. Ini adalah proses berkelanjutan yang berupaya agar konten yang tidak menyenangkan tidak terlihat atau menyebar.

Sementara sebagian besar platform besar sudah beroperasi dengan semacam moderasi konten otomatis, Meta berharap alat HMA-nya akan membantu perusahaan kecil yang kekurangan sumber daya platform utama. “Banyak perusahaan tidak memiliki kemampuan teknologi internal untuk menemukan dan memoderasi konten yang melanggar dalam volume tinggi,” jelas Nick Clegg, mantan Wakil Perdana Menteri Inggris Raya dan sekarang Presiden Urusan Global Meta, dalam siaran pers. Dan semakin besar jumlah perusahaan yang berpartisipasi dalam database hash bersama, semakin baik setiap perusahaan dalam menghapus konten yang mengerikan—terutama karena konten tersebut jarang dibagikan di satu tempat saja. “Orang sering berpindah dari satu platform ke platform lain untuk membagikan konten ini.”

Meta mengklaim telah menghabiskan sekitar $5 miliar untuk keselamatan dan keamanan tahun lalu dan berkomitmen untuk menangani konten teroris sebagai “bagian dari pendekatan yang lebih luas untuk melindungi pengguna dari konten berbahaya di layanan kami”. Clegg mengklaim bahwa “ujaran kebencian sekarang dilihat dua kali untuk setiap 10.000 tampilan konten di Facebook, turun dari 10-11 kali per 10.000 tampilan kurang dari tiga tahun yang lalu.” Tanpa akses ke data internal Facebook, kami tidak dapat memverifikasi klaim tersebut, dan beberapa laporan tampaknya mengindikasikan bahwa sistem perusahaan itu sendiri masih jauh dari sempurna. Namun, inisiatif seperti HMA dan Oversight Board setidaknya memberikan kesan bahwa Meta serius dalam menyelesaikan masalah moderasi konten secara adil dan konsisten—tidak seperti Twitter.