Dewan Pengawas Meta, badan mirip Mahkamah Agung yang dibentuk sebagai pengawas atas keputusan moderasi konten Facebook dan Instagram, menerima hampir 1,3 juta banding atas keputusan raksasa teknologi itu tahun lalu. Angka raksasa itu sama dengan banding setiap 24 detik, 3.537 kasus sehari. Sebagian besar dari banding tersebut melibatkan dugaan pelanggaran hanya pada dua standar komunitas Meta: kekerasan/hasutan dan ujaran kebencian.
Kesalahan Menembak Meta
Angka banding adalah bagian dari laporan tahunan 2022 Dewan Pengawas, dibagikan dengan Gizmodo Selasa. Pengguna Facebook dan Instagram mengajukan banding atas keputusan Meta untuk menghapus konten mereka sebanyak 1.290.942 kali, yang menurut Dewan Pengawas menandai peningkatan jumlah banding sebesar 25% dibandingkan tahun sebelumnya. Dua pertiga dari banding tersebut berkaitan dengan dugaan kekerasan/hasutan dan ujaran kebencian. Bagan di bawah ini menunjukkan perkiraan persentase banding yang diterima Dewan Pengawas, dikelompokkan berdasarkan jenis konten yang melanggar, sejak mulai menerima pengajuan pada akhir tahun 2020. Meskipun banding terkait ujaran kebencian telah menurun, banding terkait kekerasan/hasutan telah meroket dalam beberapa tahun terakhir. bertahun-tahun.
Tangkapan layar: Dewan Pengawas
Porsi terbesar dari banding tersebut (45%) berasal dari Amerika Serikat dan Kanada, yang memiliki beberapa basis pengguna Facebook dan Instagram terbesar di dunia. Pengguna Amerika dan Kanada juga telah menggunakan Facebook dan Instagram untuk waktu yang relatif lama. Sebagian besar banding (92%) melibatkan pengguna yang meminta agar akun atau konten mereka dipulihkan dibandingkan dengan persentase yang jauh lebih kecil (8%) yang mengajukan banding agar konten tertentu dihapus.
“Dengan membuat rekomendasi ini secara terbuka, dan memantau tanggapan dan implementasi Meta secara terbuka, kami telah membuka ruang untuk dialog transparan dengan perusahaan yang sebelumnya tidak ada,” kata Dewan Pengawas.
Dewan Pengawas membatalkan keputusan Meta dalam 75% keputusan kasus
Meskipun menerima lebih dari satu juta banding tahun lalu, Dewan Pengawas hanya membuat keputusan yang mengikat dalam segelintir kasus profil tinggi. Dari 12 keputusan yang dipublikasikan pada tahun 2022, Dewan Pengawas membatalkan keputusan moderasi konten asli Meta 75% dari waktu, menurut laporannya. Dalam 32 kasus lainnya untuk dipertimbangkan, Meta memutuskan bahwa keputusan awalnya salah. Total 50 kasus untuk ditinjau mungkin tidak terdengar banyak dibandingkan dengan jutaan banding, tetapi Dewan Pengawas mengatakan bahwa mereka mencoba mengatasi perbedaan tersebut dengan sengaja memilih kasus yang “meningkatkan masalah mendasar yang dihadapi sejumlah besar pengguna di seluruh dunia”. Dengan kata lain, beberapa kasus itu, secara teori, harus mengatasi masalah moderasi yang lebih besar yang meliputi jejaring sosial Meta.
Sembilan keputusan moderasi konten yang dibatalkan Dewan Pengawas pada tahun 2022 menjalankan keseluruhan dalam hal materi pelajaran. Dalam satu kasus, dewan menegur keputusan Meta untuk menghapus posting dari pengguna Facebook yang meminta saran tentang cara berbicara dengan dokter tentang Adderall. Kasus lain yang lebih baru melihat Dewan Pengawas membatalkan keputusan Meta untuk menghapus postingan Facebook yang membandingkan tentara Rusia di Ukraina dengan Nazi. Unggahan kontroversial itu terutama menyertakan puisi yang menyerukan pembunuhan kaum fasis serta gambar mayat. Dalam kasus ini, Meta diharuskan untuk menghormati keputusan dewan dan menerapkan perubahan moderasi dalam waktu tujuh hari sejak penerbitan keputusan tersebut.
Selain menjungkirbalikkan keputusan moderasi, Dewan Pengawas juga menghabiskan sebagian besar waktunya terlibat dalam peran yang kurang mencolok tetapi berpotensi sama pentingnya dalam mengeluarkan rekomendasi kebijakan. Rekomendasi ini dapat mengubah cara Meta menafsirkan dan menerapkan tindakan moderasi konten untuk miliaran penggunanya. Pada tahun 2022, Oversight Board mengeluarkan 91 rekomendasi kebijakan. Banyak dari mereka, dengan satu atau lain cara, meminta Meta untuk meningkatkan transparansi dalam hal memberi tahu pengguna mengapa konten mereka dihapus. Terlalu sering, Dewan Pengawas mencatat dalam laporan, pengguna “menebak” mengapa mereka menghapus konten tertentu.
Menanggapi rekomendasi transparansi tersebut, Meta dilaporkan telah mengadopsi pesan baru yang memberi tahu orang-orang kebijakan spesifik mana yang mereka langgar jika pelanggaran tersebut melibatkan ujaran kebencian, organisasi berbahaya, intimidasi, atau pelecehan. Meta juga akan memberi tahu pengguna apakah keputusan untuk menghapus konten mereka dibuat oleh manusia atau sistem otomatis. Perusahaan mengubah sistem tegurannya untuk menangani keluhan dari pengguna bahwa akun mereka dikunci secara tidak adil di Penjara Facebook.
Meta juga melakukan perubahan cara menangani krisis dan konflik akibat tekanan Oversight Board. Perusahaan mengembangkan Protokol Kebijakan Krisis baru yang digunakan untuk mengukur kemungkinan risiko kerugian yang terkait dengan pemulihan akun mantan Presiden Donald Trump. Sementara beberapa pendukung pidato seperti ACLU memuji keputusan Meta untuk mengembalikan Trump, kelompok hak asasi lainnya seperti Global Project Against Hate and Extremism dan Media Matters mengatakan itu terlalu dini. Demikian pula, Meta juga meninjau kebijakannya seputar individu dan organisasi berbahaya agar lebih berbasis risiko. Kini, kelompok atau individu yang dianggap paling berbahaya diprioritaskan untuk tindakan penegakan hukum di platform tersebut.
Leave a Reply
You must be logged in to post a comment.