Ekonomi Waspadai Bahaya ”Deepfake”

Industri digital

Waspadai Bahaya ”Deepfake”

Kini muncul teknologi baru, yaitu ”deepfake” atau kebohongan mendalam, melalui pengolahan video dan suara. Pemerintah dan aparat keamanan sepertinya perlu segara mewaspadainya.

Oleh ANDREAS MARYOTO
· 4 menit baca
KOMPAS/RADITYA HELABUMI

Aparatur sipil negara di lingkup Kementerian Dalam Negeri mengikuti apel bersama untuk menyukseskan Pemilu 2019 dengan damai serta menolak kampanye ujaran kebencian, hoaks, dan fitnah di kompleks Kementerian Dalam Negeri, Jakarta, Jumat (22/3/2019).

Belum lama kita dicekam oleh berbagai berita bohong atau berita dipelintir saat pemilihan presiden yang lalu. Produksi kabar seperti itu juga masih terjadi. Kita belum lagi bisa berbenah dan menangani sepenuhnya masalah ini, kini muncul teknologi baru, yaitu deepfake (kebohongan mendalam) melalui pengolahan video dan juga suara sehingga seolah-olah gambar dan suara tokoh itu asli. Sejumlah negara dan lembaga tengah menghadapi masalah ini. Kita mungkin tinggal menunggu waktu.

Awal tahun ini, sejumlah media melaporkan penggunaan teknologi berbasis Generative Adversarial Network itu. Namun, seperti dugaan salah satu peneliti, akhir tahun ini bakal heboh soal penyalahgunaan deepfakes. Media Financial Times pekan lalu membuat laporan panjang mengenai penyalahgunaan teknologi berbasis kecerdasan buatan ini. Mereka menyebut beberapa tokoh di beberapa negara telah jadi korban. Di Malaysia tengah ribut soal dugaan hubungan khusus Menteri Urusan Ekonomi Azmin Ali dengan menteri lain. Banyak kalangan jadi korban deepfake, tetapi ada yang percaya bila video itu asli.

Di Gabon, sebuah negara di Afrika, Presiden Ali Bongo Ondimba disebutkan tengah sakit Oktober tahun lalu dan ada di Maroko. Sedikit informasi yang keluar mengenai keadaannya hingga muncul video tentang presiden ini yang menimbulkan spekulasi di kalangan oposisi. Video ini kemudian memberi ide kudeta. Rencana ini berhasil ditumpas oleh aparat pemerintah. Wajah Presiden Argentina juga pernah diganti dengan wajah Adolf Hitler.

Kompas/Hendra A Setyawan

Hoaks kini menyebar di jaringan internet. Pembaca pun menyeleksinya dengan hanya membaca dari sumber tepercaya.

Secara umum, teknologi ini digunakan untuk menggabungkan dua video yang berbeda sehingga muncul video baru yang tampak asli. Video asli akan ditempeli dengan video yang jadi target. Beberapa artis jadi korban karena teknologi ini digunakan di dalam industri pornografi. Publik akan mengira pelaku pornografi itu artis tertentu. Beberapa fans kelompok musik juga menggunakan teknologi ini hingga menghasilkan video seolah-olah ia tengah bernyanyi dengan artis idolanya.

Di tengah maraknya penggunaan teknik manipulasi untuk membuat hoaks, kehadiran deepfake ini sangat membahayakan di Tanah Air. Masyarakat yang masih rentan dengan berita bohong dan berita yang dipelintir akan mudah percaya dengan kehadiran info berbasis video dan suara ini untuk menjatuhkan tokoh tertentu. Teknologi ini juga bisa membuat kocar-kacir industri keuangan dan perekonomian pada umumnya ketika semisal seorang menteri atau pebajat publik dimanipulasi sehingga bisa mengguncang pasar.

Beberapa apklikasi yang digunakan untuk manipulasi ini antara lain FakeApp, myFakeApp, Deepfakes Web, dan FaceSwap. Aplikasi ini memungkinkan orang merekonstruksi wajah seseorang secara akurat dan mengaplikasikannya pada video atau gambar bergerak. Teknologi ini juga memunculkan untuk menukar wajah seseorang dengan orang lain, semisal video pidato berisi kebencian dari orang biasa bisa diganti dengan wajah seorang presiden atau artis. Publik pun langsung bisa gempar.

Sudah Berlangganan? Silakan Masuk

Next-level goal requires next-level knowledge

Harian Kompas x The Straits Times Get a two-for-one digital subscription deal from the two biggest news publisher in Indonesia and Singapore.

Baca juga: Pesan Kuat dari Kerusuhan Wamena

Di tengah situasi seperti ini, muncul pasar video manipulasi. Sebuah usaha rintisan bernama Deepfakes Web menawarkan pembuatan video manipulasi. Mereka meminta biaya hanya 2 dollar AS per jam untuk mengkreasi video hoaks itu.

Tawaran yang lebih netral, tidak berniat menjatuhkan pihak lain, semisal manipulasi seseorang yang tiba-tiba bisa berada di sebuah potongan film atau manipulasi video yang membuat orang bisa menari-nari. Kategori kedua yang terakhir ini disebutkan hanya untuk senang-senang saja.

Sejumlah akademisi, usaha rintisan, dan lembaga pemerintah di beberapa negara tengah menangani penyebaran penggunaan teknologi ini untuk kepentingan kejahatan dan politik. Ada aplikasi yang bisa digunakan untuk mengecek keaslian video.

Salah satunya adalah usaha rintisan bernama Deeptrace yang melacak peredaran video hoaks itu dan memastikan konten-konten manipulasi. Sejak tujuh bulan lalu telah ditemukan 15.000 video manipulasi, dan sebanyak 96 persen di antaranya berupa video pornografi.

Pemerintah dan aparat keamanan sepertinya perlu segara waspada dengan kehadiran teknologi ini. Indonesia yang warganya dikategorikan menggilai media sosial perlu diiingatkan bahaya teknologi ini karena karena video hoaks akan mudah menyebar melalui kanal media sosial. Publik perlu dipulihkan dari babak belur hoaks masa sebelumnya dan dibangun kesadaran akan rasa aman dan percayanya pada pernyataan resmi pemerintah atau lembaga karena masa depan teknologi ini tak bisa diduga hingga lima tahun mendatang.

Versi cetak artikel ini terbit di harian Kompas edisi 5 November 2019 di halaman 13 dengan judul "Bahaya "Deepfake"". baca epaper kompas