Pertarungan melawan deepfakes, bagaimana kita bisa melawan mereka

Pertarungan melawan deepfakes, bagaimana kita bisa melawan mereka

Di tengah era digital, kepedulian terhadap berita palsu semakin menyita perhatian organisasi publik, media, dan semua jenis kepribadian. Bukan tanpa alasan, Fake News memiliki bobot tertentu dalam proses pemilihan penting seperti pemilihan presiden Amerika Serikat pada tahun 2016, referendum keluarnya Inggris dari Uni Eropa atau jenderal Brasil yang memberi kemenangan kepada Bolsonaro.

Tanpa harus melangkah sejauh itu, di negara kita Facebook baru-baru ini harus menutup tiga jaringan besar sayap kanan yang, melalui 30 halaman, grup dan akun duplikat mengumpulkan lebih dari satu setengah juta pengikut dan lebih dari 7 juta interaksi . Kelompok-kelompok ini berdedikasi untuk menyebarkan hoax dan gambar palsu.

Tapi sekarang kita menghadapi jenis ancaman digital lain yang menimbulkan sakit kepala baru. Kita berbicara tentang apa yang disebut Deepfake, istilah yang muncul dari kombinasi "Deep Learning"  dan "Fake". Pada dasarnya ini adalah bentuk kecerdasan buatan  yang memungkinkan setiap pengguna mengedit video dan audio palsu dari orang-orang yang tampak nyata. Untuk melakukan ini,  jaringan generatif antagonistik (AGRs) digunakan , sejenis algoritma yang dapat membuat jenis data baru dari set lain yang sudah ada.

Pada akhirnya, "deepfakes" adalah satu lagi bentuk manipulasi digital , dan salah satu yang paling mungkin digunakan untuk "trolling" dalam kasus-kasus terbaik. Tapi bagaimana kita bisa mendeteksinya? Dan, di atas semua itu, apa yang dilakukan oleh lembaga dan perusahaan swasta untuk mencegah konsekuensi yang merusak? Dalam acara khusus ini kami akan meninjau upaya yang sedang dilakukan untuk menghentikan momok digital baru ini.

Mengapa deepfake sangat berbahaya?

Teknologi "deepfake" memungkinkan kita dengan mudah mengganti wajah seseorang dengan wajah orang lain, seolah-olah itu adalah semacam topeng atau topeng digital, untuk membuat kita percaya  bahwa dia telah mengatakan hal-hal tertentu yang tidak pernah benar-benar terjadi . Seperti yang bisa Anda tebak, teknik-teknik ini memiliki serangkaian implikasi yang cukup signifikan untuk menentukan keabsahan informasi yang beredar di internet.

Meskipun sering digunakan untuk membuat video lucu, kenyataannya "deepfakes" memiliki potensi gelap untuk menghancurkan citra publik seseorang atau memengaruhi opini publik melalui penggunaan disinformasi. Sayangnya, kami harus memberi tahu Anda bahwa penyalahgunaan ini lebih meluas daripada yang kami inginkan, dan dengan kesuksesan besar kami harus menambahkan.

Contoh jelasnya adalah aplikasi DeepNude, yang memungkinkan Anda mengunggah gambar seseorang dengan pakaian dan membuat  gambar baru dari orang telanjang yang sama . Untungnya, ini sudah ditutup, tetapi kita harus menekankan kemudahan penggunaan alat jenis ini yang tidak memerlukan pengetahuan pengeditan karena algoritme itu sendiri yang melakukan semua pekerjaan.

deepnude

Dalam kasus DeepNude, platform ini menawarkan hasil yang sangat realistis dan dapat diakses sepenuhnya melalui situs webnya untuk Windows dan Linux . Dan seperti yang diharapkan, montase dengan selebritis seperti Katy Perry atau Gal Gadot tidak butuh waktu lama untuk muncul di jaringan, sampai-sampai tekanan dari pengacara aktris ini tidak berhenti sampai situs konten dewasa yang penting menghapus video tersebut. .

Ini hanyalah puncak gunung es dari kapasitas penanganan yang dapat dimiliki jenis aplikasi ini. Sekarang bayangkan konsekuensi dari kampanye jenis ini yang ditujukan kepada tokoh politik tertentu untuk memanipulasi proses pemilu di suatu negara atau wilayah. Kejahatan tidak mengenal batas.

deepfake

Bagaimana pertarungan deepfakes?

Salah satu perusahaan pertama yang angkat bicara tidak lain adalah Google, yang mengumumkan keinginan kuatnya untuk memerangi deepfakes dan, seperti yang mereka katakan dalam kasus ini, api memadamkan api. Raksasa teknologi itu mengonfirmasi peluncuran seluruh database hingga 3.000 video yang dimanipulasi dengan kecerdasan buatan (deepfakes) yang telah dibuat khusus untuk membantu menyempurnakan alat deteksi para peneliti.

Untuk melakukan ini, Google telah menyewa aktor sungguhan untuk merekam wajah mereka dan menggunakannya sebagai titik referensi untuk menentukan apakah video telah diubah secara artifisial. Menggunakan metode pembuatan deepfake yang tersedia untuk semua orang, ribuan deepfake dibuat dari rekaman ini.

Video yang dihasilkan, asli dan palsu, diunggah ke platform pengembangan kolaboratif GitHub sehingga peneliti memahami sepenuhnya apa yang diproduksi oleh sistem. Basis data ini, seperti yang kami katakan, dapat diakses sepenuhnya, meskipun mereka harus memberi Anda izin terlebih dahulu .

Facebook juga berencana membuat database serupa pada akhir tahun ini. Menurut chief executive officer-nya, Mark Zuckerberg, masalah utamanya adalah bahwa  industri tidak memiliki sistem standar untuk mendeteksi mereka . Itulah mengapa ia bekerja sama dengan Association of AI, Microsoft, dan akademisi dari Cornell Tech, MIT, Oxford, UC Berkeley, University of Maryland, College Park, dan University of Albany-SUNY untuk membangun Tantangan Deteksi Deepfake. (DFDC untuk akronimnya dalam bahasa Inggris).

Proyek makro ini akan mencakup database ekstensif dan klasifikasi terperinci , selain bantuan keuangan dan donasi untuk mendorong sebanyak mungkin kolaborator. Idenya adalah untuk membuat semacam komunitas yang membantu mendeteksi dan menghindari video yang dimanipulasi melalui AI.

Tidak diragukan lagi bahwa penyebaran "deepfakes" telah menjadi masalah yang sangat serius, dengan konsekuensi parah yang tidak dapat diabaikan. Meskipun langkah-langkah yang diusulkan oleh agen utama yang berkomitmen untuk tujuan ini mungkin tampak tidak praktis, atau bahkan kontraproduktif, dalam jangka panjang, mereka mungkin satu-satunya cara untuk memberantas kejahatan ini. Meskipun mungkin tampak kontradiktif, memerangi "deepfake" dengan lebih banyak "deepfake" akan membantu alat deteksi menyerap lebih banyak data untuk membantu mereka menemukan jenis montase ini dengan lebih mudah .