Beginilah cara kerja pusat sensor di Facebook

Beginilah cara kerja pusat sensor di Facebook

"A Clockwork Orange" adalah film Stanley Kubrick yang terkenal dilarang di banyak negara, karena gambarnya yang penuh kekerasan dan pesan ambigu yang dapat disalahartikan oleh banyak orang. Di dalamnya, seorang pemuda ultra-kekerasan ditangkap oleh pihak berwenang dan dihadapkan pada ujian untuk menghambat, dalam kepribadiannya, keinginan bebas, yaitu, menerapkan metode untuk menjadikannya orang yang baik. Bagaimana mereka melakukannya? Melalui perawatan kejut: subjek diikat di depan layar raksasa , dengan mata terbuka secara permanen, dan dipaksa untuk menonton adegan yang tidak menyenangkan selama berjam-jam. Ketika dia dilepaskan dan merasakan dorongan untuk melakukan tindakan kekerasan, mual terjadi, dikondisikan oleh situasi yang dia alami beberapa hari sebelumnya.

Beginilah cara kerja pusat sensor di Facebook

Sekarang, bayangkan Anda menonton kekerasan, gambar yang tidak menyenangkan, konten yang penuh kebencian, penghinaan, video pemenggalan ... selama delapan jam sehari untuk perusahaan besar. Pekerjaan Anda di pusat ini membantu Anda menentukan apa yang bisa dan tidak bisa dilihat orang lain. Anda bekerja di salah satu dari 20 pusat yang diatur Facebook di dunia untuk mengelola sensor terkait konten yang dilarang oleh jaringan sosial Mark Zuckerberg. Eldiario.es memiliki akses ke sumber-sumber dari pusat-pusat ini di kota-kota seperti Warsawa atau Lisbon, serta dokumen yang mengungkapkan kondisi di mana agen tersebut harus menerapkan penyensoran.

Menurut dokumen-dokumen ini, para pelaku moralitas dan perilaku baik di Facebook harus bekerja dalam kondisi yang menyedihkan . Kantor tanpa jendela tempat ratusan orang harus terus menatap layar tempat konten aneh terjadi untuk menghilangkannya dan tidak meluas. Mereka, seperti Álex dalam 'A Clockwork Orange', subjek yang terpapar gambar-gambar mengerikan selama delapan jam sehari tanpa sepenuhnya dihargai apa konsekuensi dari tindakan semacam itu. Algoritme yang sering kita bicarakan tidak lain adalah orang-orang, seperti Anda dan saya.

facebook 02

Kondisi kerja fisik dan mental mereka ekstrim

Sebanyak 15.000 orang bekerja di pusat-pusat seperti itu. Banyak dari mereka yang mengklaim bahwa tidak mungkin untuk 100% adil, bahwa dalam kondisi tempat mereka bekerja, dan karena sifat tugasnya, kegagalan dapat terjadi terus menerus. Petugas sensor di Facebook mengenakan biaya, masing-masing, 700 euro per bulan dan disubkontrakkan melalui konsultan internasional, mereka dilarang memberi tahu siapa pun bahwa mereka bekerja untuk Facebook , selalu harus menyebutnya sebagai 'klien. Eldiario.es telah memperoleh pernyataan dari tiga karyawan center jenis ini, harus menjaga anonimitas mereka.

Kondisi kerja sangat ekstrim. Mereka memiliki setengah jam untuk istirahat dalam delapan jam sehari dan mereka harus mengaturnya setiap jam untuk istirahat visual, meregangkan kaki mereka, pergi ke kamar mandi dan bahkan makan. Di dalam ruangan selalu ada reviewer yang mencatat dan menghukum perilaku tidak pantas: karyawan yang berhenti, saat memilih gambar, minum air atau mengeluarkan ponselnya untuk berkonsultasi dengan sesuatu adalah alasan pemberian sanksi. Selain itu, karyawan sendiri didorong, melalui program poin, untuk saling menuduh jika mereka melihat ada rekan mereka yang terlibat dalam perilaku yang dapat dihukum.

Beginilah cara kerja pusat sensor di Facebook 1

Apa pekerjaanmu?

Pekerjaan itu bekerja sebagai berikut. Di depannya, karyawan tersebut memiliki layar tempat semua konten yang lebih banyak keluhan, oleh pengguna, terakumulasi. Pekerja kemudian memiliki dua opsi 'Hapus', yang dengannya dia menghapus konten, 0 'Abaikan', jika dia menganggap bahwa dia tidak melanggar aturan Facebook. Setiap orang dapat menganalisis hingga 600 kasus sehari dan mereka harus menekan salah satu dari dua tombol keputusan, total tiga puluh detik untuk masing-masing kasus. Normal, tentu saja, ketidakadilan dilakukan, dengan mempertimbangkan semua yang sekarang diketahui tentang pusat-pusat ini.

Surat kabar tersebut memberikan contoh kasus nyata di mana karyawan yang diwawancarai harus turun tangan. Misalnya, gambar ini muncul di hadapan mereka, ilustrasi yang memperingatkan tentang kanker payudara.

puting

Salah satu algoritme, yang otomatis ini, yang sudah mulai berfungsi adalah algoritme gambar di mana puting susu wanita dapat dilihat. Namun, ada pengecualian, karena gambarnya informatif . Tampak jelas bahwa, melihat ilustrasi di atas, karyawan harus 'membuka' gambar tersebut karena ini adalah informasi kepentingan umum tentang kanker dan bukan gambar yang bersifat erotis.

meme bullying anak

Di sini kita melihat bagaimana pekerjaan yang dilakukan moderator ini bisa begitu rumit. Apakah meme itu mewakili tindakan penindasan terhadap anak? Karyawan harus memutuskan, dalam waktu tiga puluh detik, apakah akan menghapusnya atau tidak. Ini adalah cuplikan dari wawancara nyata dan obesitas tidak dianggap sebagai kecacatan. Di Facebook, tidak ada yang dihapus yang dapat menyinggung siapa pun kecuali bahwa seseorang milik sekelompok orang cacat. Dalam hal ini moderator akan memilih tombol 'Abaikan'.

Kontradiksi penyensoran di Facebook

Dua contoh yang mungkin kurang lebih jelas tetapi dicakup di banyak contoh lainnya di mana ambiguitas aturan Facebook muncul. Misalnya, konten yang mengacu pada Hitler otomatis dihapus. Namun, konten di mana permintaan maaf Franco dibuat diperbolehkan. Salah satu pengulas berkonsultasi dengan klaim bahwa fasisme diperbolehkan di Facebook. Anda dapat mengisi dinding Anda dengan foto-foto Mussolini yang tidak akan terjadi apa-apa. Tapi hati-hati terhadap pembunuh bayaran . Atau puting wanita.

Beginilah cara kerja pusat sensor di Facebook 2

Di antara keputusan paling gila yang harus diambil sensor Facebook adalah mempertimbangkan ukuran jenggot pria Arab untuk menentukan apakah mereka teroris atau bukan; Selanjutnya, orang yang diwawancarai mencela standar ganda yang jelas karena harus menguntungkan kelompok tertentu. " Menghina keyakinan tertentu diperbolehkan dan yang lain sepenuhnya dilarang ." Misalnya Zionisme. Setiap seruan untuk boikot produk Israel, karena pembantaian yang dilakukan negara itu di Palestina, akan disensor. Selain itu, kemungkinan konten akan dihapus di Facebook sangat berkaitan dengan kekuatan dan kapasitas organisasi grup yang tertarik untuk menghilangkannya.

Di masa depan, masih akan dilihat konsekuensi psikologis yang akan dimiliki karyawan Facebook ini serta penggunaan ideologis khusus yang mereka berikan untuk moderasi konten.