Sebuah tangkapan layar dari seorang teman langsung menghancurkan ketenangan Wu Hua, seorang turis yang baru saja pulang dari kunjungannya ke Korea Selatan. Bagaimana tidak! Ia mendapati wajahnya ditempelkan pada tubuh dalam video tidak senonoh yang tersebar di internet.
Pengalaman mengerikan ini adalah salah satu dari sekian banyak kasus pornografi deepfake yang hampir merajalela di kalangan masyarakat setempat. Tidak hanya menyerang penduduk lokal, tetapi juga menyeret orang-orang dari luar negeri yang mengunjungi negeri asal K-pop tersebut.
Apa sebenarnya yang terjadi dalam kasus deepfake di Korea Selatan ini? Dan, apa yang dimaksud dengan istilah 'deepfake' itu sendiri? Bagaimana pemerintah setempat mengatasinya secara optimal?
Fenomena deepfake
Perkembangan teknologi telah memunculkan fenomena deepfake, yaitu penggunaan teknologi Kecerdasan Buatan atau Artificial Intelligence (AI) untuk membuat foto, audio, dan video palsu yang sangat meyakinkan, salah satunya dengan menggunakan wajah orang yang ditargetkan.
Dengan kecanggihan teknologi ini, para pelaku kriminal memanfaatkannya secara tidak bertanggung jawab untuk menciptakan konten-konten ‘kotor’ berupa gambar dan/atau video yang melibatkan wajah korban tanpa izin atau persetujuan, lalu menyebarkannya secara luas di internet.
Kasus pornografi di Korea Selatan
Dalam beberapa waktu terakhir, semakin banyak masyarakat Korea Selatan, termasuk anak di bawah umur, menjadi korban kejahatan pornografi deepfake. Badan Kepolisian Nasional Korea Selatan mencatat setidaknya 297 kasus kejahatan deepfake pada periode Januari hingga Juli 2024.
Berdasarkan laporan KrAsia, kasus ini tidak hanya menyerang penduduk Korea Selatan, tetapi juga wisatawan yang mengunjungi negeri tersebut. Data statistik dari SecurityHero pun menemukan bahwa 53% konten pornografi deepfake di dunia pada 2023 berasal dari Korea Selatan.
Salah satu kasus yang mencuat adalah kasus Wu Ha. Dalam laporannya, ia menerima tangkapan layar dari seorang teman yang menunjukkan sebuah akun media sosial yang hampir identik dengan akunnya, di mana terdapat tautan menuju video senonoh yang menggunakan wajah Wu Ha.
Kasus serupa juga menimpa seorang mahasiswi bernama Hae In di Korea Selatan, seperti dilaporkan BBC. Ia menerima banyak pesan berisi foto yang menampilkan wajahnya pada tubuh orang asing yang sedang melakukan hubungan intim, hasil manipulasi teknologi deepfake.
Kasus 'Nth Room 2.0'
Kedua kasus yang menyeret korban Wu Ha dan Hae In adalah beberapa dari banyaknya kasus kejahatan pornografi dengan teknologi deepfake di Korea Selatan, memicu kasus yang lebih menyeramkan dengan sebutan, ‘Nth Room 2.0 Case’ atau artinya, ‘Kasus Nth Room 2.0.’
Istilah tersebut terinspirasi dari kasus kejahatan pornografi yang pertama kali dibuat oleh seseorang dengan nama panggilan ‘GodGod’ sejak Desember 2018. Pada kasusnya, ia menyebarkan konten pornografi berupa hasil rekaman melalui ruang obrolan berjudul ‘Nth Room’ di Telegram.
Dalam ‘Kasus Nth Room 2.0,’ kejahatan ini dilaporkan dimulai oleh seorang mahasiswa di Universitas Inha, yang membuat ruang obrolan dengan lebih dari 1.200 anggota untuk menyebarkan konten pornografi hasil teknologi deepfake dan informasi kontak para korban.
Namun, sejak 20 Agustus 2024, media dan kepolisian Korea Selatan mengungkap fakta yang lebih mengejutkan, yakni gelombang ruang obrolan serupa yang dibuat oleh berbagai lapisan masyarakat, termasuk sekolah, rumah sakit, dan bahkan militer, dengan ratusan ribu anggota.
Di dalam ruang obrolan tersebut, pria menargetkan perempuan yang mereka kenal di kehidupan nyata sebagai sasaran penghinaan. Menggunakan berbagai alat teknologi deepfake, mereka menempelkan wajah perempuan ke dalam gambar dan video yang menunjukkan tindakan pelecehan seksual.
Ruang obrolan yang lebih besar bahkan dibagi menjadi kategori yang lebih spesifik, seperti ‘ruang penyiksaan keluarga,’ di mana pria mengunggah foto-foto yang diambil secara diam-diam dari ibu, saudara perempuan, atau putri mereka untuk dipermalukan secara publik.
Tindakan tegas pemerintah
Melansir dari The Guardian, Presiden Korea Selatan, Yoon Suk Yeol, telah memerintahkan penegakan hukum yang tegas terhadap epidemi kejahatan dengan penggunaan teknologi deepfake yang menargetkan banyak perempuan menjadi korban tak sadar, termasuk anak di bawah umur.
Dengan arahan tersebut, polisi mengejar orang-orang yang membuat dan menyebarkan materi tersebut dengan ancaman hukuman berupa penjara lima tahun atau denda sebesar 50 juta won atau setara dengan sekitar 650 juta rupiah.
Salah satu penangkapan pelaku kejahatan pornografi deepfake terjadi pada Mei 2024. Dilaporkan seorang lulusan Universitas Nasional Seoul berusia 40 tahun dengan nama belakang Park ditangkap karena menggunakan foto 48 perempuan untuk memproduksi 1.852 konten eksploitasi seksual.
Di sisi lain, sebuah pengungkapan tindakan kejahatan serupa juga terjadi pada pelaku yang merupakan anak remaja, yakni seorang murid sekolah di Seoul yang menggunakan wajah gurunya sebagai sasaran dari pembuatan dan penyebaran konten pornografi dengan teknologi deepfake.
Setelah kasus demi kasus terkuak, banyak relawan membantu dengan membuat peta pelanggar berdasarkan laporan media dan pernyataan anonim. Peta terebut dipenuhi dengan penanda merah, hampir meliputi seluruh daerah-daerah yang tersebar di Korea Selatan bagian tengah.
Dengan demikian, para pihak berwenang dan relawan bersatu untuk sama-sama menumpas segala upaya tindakan kejahatan pornografi dengan menggunakan teknologi deepfake. Kami pun berharap semua pelaku tertangkap dan aksi ini pun berhenti secara permanen.