Gagalnya Facebook Redam Ujaran Kebencian Berujung Serangan Anti-Muslim di India
Facebook di India selektif dalam mengekang ujaran kebencian, misinformasi dan unggahan yang menghasut – khususnya konten anti-Muslim – menurut dokumen bocor yang diperoleh The Associated Press (AP).
Facebook di India selektif dalam mengekang ujaran kebencian, misinformasi dan unggahan yang menghasut – khususnya konten anti-Muslim – menurut dokumen bocor yang diperoleh The Associated Press (AP), bahkan ketika karyawannya sendiri meragukan motif dan kepentingan perusahaan.
Dari penelitian baru-baru ini pada Maret tahun ini hingga memo perusahaan yang berasal dari tahun 2019, dokumen internal perusahaan di India menyoroti perjuangan terus-menerus Facebook dalam menghentikan konten kasar di platformnya di negara itu.
-
Kapan Nursyah mulai menari ala India? Nursyah sendiri sebelumnya telah sering membagikan video dirinya menari ala India di media sosial.
-
Kapan status Facebook menjadi tren? Merangkum dari beragam sumber, Kamis (6/7) berikut adalah kumpulan status FB kekinian dan menarik yang bisa dijadikan referensi.
-
Kenapa netizen India marah kepada Nupur? Netizen India marah banget sama Nupur yang dianggap kurang ajar ke keluarganya gara-gara nikah pake baju yang nggak banget.
-
Bagaimana cara menghiasi media sosial dengan status Facebook yang kekinian? Ada banyak sekali status FB kekinian yang bisa ditulis dalam akun pribadimu. Status FB ini akan membuat FB-mu semakin penuh dengan keceriaan, keromantisan dan kekinian.
-
Siapa yang menciptakan Facebook? Sejarah 4 Februari Hari Ulang tahun Facebook, yaitu dimulai Mark Zuckerberg ingin membuat platform chat. Bersama teman-temannya, Andrew McCollum, Eduardo Saverin, Chris Hughes, dan Dustin Moskovitz, Zuckerberg mengembangkan Facebook saat mereka masih kuliah di Universitas Harvard.
-
Apa yang terjadi di bawah permukaan Bumi India? Sebuah studi mengungkapkan bahwa India mulai mengalami perubahan drastis di bawah permukaan Bumi. Para ilmuwan mengklaim bahwa perubahan terjadi secara horizontal dan lempeng tersebut terbelah menjadi lapisan-lapisan terpisah.
Ketegangan komunal dan agama di India memiliki sejarah yang dipicu percikan hasutan di media sosial dan memicu kekerasan.
Facebook Papers, yang dibocorkan mantan pegawainya, Frances Haugen, menunjukkan perusahaan tersebut menyadari masalah itu selama bertahun-tahun, menimbulkan pertanyaan apakah mereka telah bertindak cukup untuk mengatasi masalah ini.
Banyak kritikus dan pakar digital menilai Facebook gagal, terutama dalam kasus di mana anggota Partai Bharatiya Janata (BJP) yang berkuasa di bawah Perdana Menteri Narendra Modi terlibat.
Di seluruh dunia, Facebook menjadi platform yang semakin penting dalam politik, begitu juga di India.
Modi dituding memanfaatkan platform tersebut untuk keuntungan partainya selama pemilihan, dan laporan The Wall Street Journal tahun lalu meragukan apakah Facebook secara selektif menegakkan kebijakannya soal ujaran kebencian untuk menghindari pukulan balik dari BJP.
Modi dan CEO Facebook Mark Zuckerberg terlihat akrab, seperti diabadikan dalam foto yang diambil pada 2015 dimana keduanya berpelukan di markas besar Facebook.
Dokumen yang bocor termasuk sejumlah laporan internal perusahaan tentang ujaran kebencian dan misinformasi di India. Dalam beberapa kasus, sebagian besar dipicu fitur dan algoritma "yang direkomendasikan" sendiri Facebook.
Tetapi mereka juga memasukkan kekhawatiran staf perusahaan atas kesalahan penanganan masalah ini dan ketidakpuasan mereka yang diungkapkan tentang "konten buruk" viral di platform tersebut.
Menurut dokumen tersebut, Facebook melihat India sebagai salah satu "negara paling berisiko" di dunia dan mengidentifikasi bahasa Hindi dan Bengali sebagai prioritas untuk "otomatisasi pelanggaran ucapan permusuhan". Namun, Facebook tidak memiliki cukup moderator bahasa lokal atau penandaan konten untuk misinformasi yang terkadang mengarah pada kekerasan di dunia nyata.
Dalam sebuah pernyataan kepada AP, Facebook mengatakan pihaknya “berinvestasi besar dalam teknologi untuk menemukan ujaran kebencian dalam berbagai bahasa, termasuk Hindi dan Bengali” yang telah menghasilkan “pengurangan jumlah ujaran kebencian yang dilihat orang hingga setengahnya” pada tahun 2021.
“Ujaran kebencian terhadap kelompok-kelompok yang terpinggirkan, termasuk Muslim, sedang meningkat secara global. Jadi kami meningkatkan penegakan dan berkomitmen untuk memperbarui kebijakan kami saat ujaran kebencian berkembang secara online,” jelas juru bicara Facebook, dikutip dari Al Jazeera, Senin (25/10).
Laporan AP, bersama laporan lainnya yang diterbitkan, berdasarkan bocoran yang diungkapkan ke Komisi Sekuritas dan Bursa dan diberikan kepada Kongres dalam bentuk dokumen yang disunting oleh mantan karyawan Facebook yang menjadi penasihat hukum Frances Haugen. Versi yang disunting diperoleh oleh konsorsium organisasi berita, termasuk AP.
Pada Februari 2019 dan menjelang pemilu, ketika kekhawatiran beredarnya misinformasi semakin tinggi, seorang karyawan Facebook ingin memahami apa yang dilihat pengguna baru di negara tersebut di umpan berita mereka jika yang mereka lakukan hanyalah mengikuti halaman dan grup yang hanya direkomendasikan oleh platform tersebut.
Karyawan tersebut membuat akun pengguna uji coba dan membiarkannya tetap aktif selama tiga minggu, periode di mana peristiwa luar biasa mengguncang India - serangan bunuh diri di Kashmir yang dikelola India menewaskan lebih dari 40 tentara India, membuat India hampir perang dengan Pakistan .
Karyawan ini mengaku “syok” dengan konten yang membanjiri umpan berita yang berisi konten yang memecah belah, misinformasi, dan kekerasan. Grup yang tampaknya tidak berbahaya yang direkomendasikan Facebook dengan cepat berubah menjadi grup di mana ujaran kebencian, desas-desus yang tidak diverifikasi, dan konten viral merajalela.
Kelompok yang direkomendasikan dibanjiri dengan berita palsu, retorika anti-Pakistan, dan konten Islamofobia. Sebagian besar isinya sangat grafis.
“Mengikuti Umpan Berita pengguna uji coba ini, saya telah melihat lebih banyak gambar orang mati dalam tiga minggu terakhir daripada yang saya lihat sepanjang hidup saya,” tulis peneliti.
Ini memicu kekhawatiran mendalam konten yang memecah belah seperti itu bisa berlanjut di dunia nyata, di mana media lokal pada saat itu melaporkan warga Kashmir yang diserang.
“Haruskah kita sebagai perusahaan memiliki tanggung jawab ekstra untuk mencegah kerusakan integritas yang diakibatkan oleh konten yang direkomendasikan?” tanya para peneliti dalam kesimpulan mereka.
Namun pertanyaan itu tidak terjawab dalam memo perusahaan. tidak menjawab pertanyaan itu. Tapi mengekspos bagaimana algoritma Facebook atau pengaturan default berperan dalam memacu konten berbahaya tersebut.
Meskipun penelitian dilakukan selama tiga minggu yang bukan merupakan representasi rata-rata, mereka mengakui hasilnya menunjukkan bagaimana konten yang "tidak dimoderasi" dan bermasalah "dapat sepenuhnya mengambil alih" selama "peristiwa krisis besar".
Juru bicara Facebook mengatakan studi uji coba ini "mengilhami analisis yang lebih dalam dan lebih ketat" dari sistem rekomendasinya dan "berkontribusi pada perubahan produk untuk memperbaikinya".
"Secara terpisah, tugas kami untuk mengekang ujaran kebencian terus berlanjut dan kami semakin memperkuat klasifikasi kebencian yang kami buat, memasukkan empat bahasa India," kata juru bicara itu.
Propaganda anti-Muslim
Facebook disebut tidak memiliki pemeriksa fakta bahasa lokal yang cukup, yang berarti banyak konten yang tidak diverifikasi.
Di samping misinformasi, dokumen yang bocor mengungkapkan masalah lain yang mengganggu Facebook di India: propaganda anti-Muslim, terutama oleh kelompok supremasi Hindu garis keras.
India adalah pasar terbesar Facebook dengan setidaknya 340 juta pengguna – hampir 400 juta orang India juga menggunakan layanan pesan WhatsApp. Namun keduanya dituduh sebagai kendaraan untuk menyebarkan ujaran kebencian dan berita palsu terhadap minoritas.
Pada Februari 2020, politikus BJP mengunggah video di Facebook di mana ia meminta para pendukungnya mengusir sebagian besar pengunjuk rasa Muslim dari sebuah jalan di New Delhi jika polisi tidak melakukannya. Kerusuhan penuh kekerasan pecah dalam beberapa jam, menewaskan 53 orang, sebagian besar Muslim.
Setelah dilihat dan dibagikan ribuan kali, Facebook menghapus video tersebut.
Pada April 2020, misinformasi yang menargetkan Muslim kembali viral di Facebook ketika tagar “Coronajihad” membanjiri linimasa, menyalahkan komunitas Muslim atas lonjakan kasus Covid-19. Tagar itu populer di Facebook selama berhari-hari tetapi kemudian dihapus perusahaan tersebut.
Seorang pendakwah Muslim di New Delhi, Mohammad Abba (54), mengatakan pesan-pesan itu mengkhawatirkan.
Beberapa klip video dan unggahan konon menunjukkan Muslim meludahi pihak berwenang dan staf rumah sakit. Namun unggahan-unggahan itu terbukti palsu, namun masyarakat India kembali terbelah.
Misinformasi itu memicu gelombang kekerasan, boikot bisnis, dan ujaran kebencian terhadap Muslim. Ribuan masyarakat, termasuk Abbas, dikarantina selama berminggu-minggu di seluruh negeri. Beberapa bahkan dipenjarakan, kemudian dibebaskan oleh pengadilan.
“Orang-orang membagikan video hoaks di Facebook yang mengklaim Muslim menyebarkan virus. Apa yang dimulai sebagai kebohongan di Facebook menjadi kebenaran bagi jutaan orang,” sesal Abbas.
Keraguan Facebook batasi konten ujaran kebencian
Pada Agustus 2020, The Wall Street Journal menerbitkan serangkaian cerita yang merinci bagaimana Facebook secara internal memperdebatkan apakah akan mengklasifikasikan seorang legislator Hindu yang berasal dari BJP sebagai “individu berbahaya” – setelah menerbitkan unggahan anti-Muslim dari akunnya.
Dokumen tersebut mengungkapkan petinggi Facebook ragu-ragu pada keputusan tersebut, memicu kekhawatiran beberapa karyawan bahwa Facebook hanya menunjuk organisasi ekstremis non-Hindu sebagai "berbahaya".
Dokumen-dokumen tersebut juga menunjukkan bagaimana kepala kebijakan Facebook Asia Selatan, membagikan apa yang dirasakan banyak orang sebagai unggahan Islamofobia di profil Facebook pribadinya. Pada saat itu, dia juga berpendapat mengklasifikasikan politisi sebagai berbahaya akan merusak prospek Facebook di India.
“Facebook secara rutin membuat pengecualian untuk aktor berpengaruh saat menegakkan kebijakan konten,” jelas penulis dokumen internal Desember 2020.
Dokumen tersebut juga mengutip seorang mantan kepala keamanan Facebook yang mengatakan di luar Amerika Serikat, kepala kebijakan Facebook lokal direkrut dari partai politik yang berkuasa dan jarang berasal dari kelompok etnis, agama atau kelompok yang kurang beruntung, hal ini membuat keputusan yang dibuat kerap berpihak pada penguasa.
Beberapa bulan kemudian, pejabat India mundur dari Facebook. Perusahaan itu juga menghapus politisi dari platform, tetapi dokumen menunjukkan banyak karyawan Facebook merasa platform itu keliru menangani situasi, menuduhnya bias selektif untuk menghindari garis bidik pemerintah India.
“Beberapa rekan Muslim sangat terganggu atau terluka oleh beberapa bahasa yang digunakan dalam unggahan dari pimpinan kebijakan (Facebook) India di profil FB pribadi mereka,” tulis seorang karyawan.
Menurut file yang bocor, ini adalah masalah yang terus berlanjut bagi Facebook.
Maret lalu, internal Facebook memperdebatkan apakah mereka dapat mengendalikan “penjual ketakutan, narasi anti-Muslim” yang dipicu Rashtriya Swayamsevak Sangh (RSS), sebuah kelompok supremasi Hindu sayap kanan yang juga merupakan bagian dari Modi.
Dalam satu dokumen berjudul "Lotus Mahal", perusahaan tersebut mencatat anggota terkait ke BJP membuat beberapa akun Facebook untuk memperkuat konten anti-Muslim, mulai dari "seruan untuk mengusir populasi Muslim dari India" dan "Jihad Cinta", sebuah tindakan yang belum terbukti di mana kelompok Hindu menuduh pria Muslim menggunakan pernikahan beda agama untuk memaksa perempuan Hindu pindah agama.
Penelitian menemukan banyak dari konten ini "tidak pernah ditandai atau ditindaklanjuti" karena Facebook tidak memiliki "pengklasifikasi" dan "moderator" dalam bahasa Hindi dan Bengali. Facebook mengatakan telah menambahkan pengklasifikasi ujaran kebencian dalam bahasa Hindi mulai tahun 2018 dan memperkenalkan bahasa Bengali pada tahun 2020.
Karyawan juga menulis, Facebook belum menetapkan kelompok ini sebagai kelompok berbahaya karena kepekaan politik.
Perusahaan mengatakan proses penetapan harus melalui peninjauan setiap kasus oleh tim terkait di seluruh perusahaan dan fokus pada indikator kekerasan dan kebencian. Namun, sampai saat ini belum diketahui apakah Facebook telah menetapkan RSS sebagai kelompok "berbahaya".
(mdk/pan)