Faktual

Bahaya Deepfake dan Ancaman Radikalisme Digital : Belajar dari Kasus Sri Mulyani

Beberapa hari lalu, publik dikejutkan dengan beredarnya video Menteri Keuangan Sri Mulyani yang seolah-olah menyebut guru sebagai “beban negara”. Video itu cepat menyebar, menimbulkan kemarahan, hingga menuai serangan warganet.

Sri Mulyani segera meluruskan dengan mengatakan bahwa potongan itu tidak pernah ia ucapkan. Video tersebut adalah hasil deepfake—rekayasa kecerdasan buatan yang memanipulasi wajah dan suara sehingga tampak meyakinkan. Video itu adalah potongan tidak utuh dari pidato resminya pada acara Forum Konvensi Sains, Teknologi, dan Industri di ITB (7 Agustus) yang telah dimanipulasi.

Kasus ini menjadi alarm keras. Jika seorang pejabat setingkat menteri bisa menjadi korban, bagaimana dengan masyarakat awam yang setiap hari dibanjiri konten digital tanpa sempat memverifikasi? Lebih berbahaya lagi, teknologi deepfake berpotensi dimanfaatkan oleh kelompok radikal dan teroris untuk menyebarkan propaganda yang menyesatkan dan membakar emosi publik. Deepfake bukan sekadar prank digital, tetapi potensi menjadi senjata propaganda yang bisa dimanfaatkan oleh kelompok radikal untuk meradikalisasi masyarakat.

Deepfake: Senjata Baru Propaganda

Deepfake lahir dari perkembangan teknologi machine learning dan artificial intelligence. Algoritma ini mampu menukar wajah, mengubah suara, bahkan menciptakan pidato seolah-olah asli. teknologi deepfake—berbasis AI generatif—mampu menciptakan video atau suara palsu yang hampir tidak bisa dibedakan dari rekaman asli.

Jika dipakai untuk hiburan atau edukasi, teknologi ini mungkin berguna. Namun di tangan kelompok radikal, ia bisa menjelma senjata propaganda yang lebih berbahaya dari sekadar pamflet atau ceramah daring.

Penelitian dari Brookings Institution (2020) menegaskan bahwa deepfake merupakan “the new frontier of disinformation”, yakni medan baru perang informasi yang berpotensi memicu konflik sosial, politik, bahkan keamanan. Potensi manipulasi ini sangat membahayakan ketika konteks politik atau ideologis digoreng tanpa verifikasi.

Radikalisme dan Manipulasi Emosi Melalui Deepfake

Kelompok radikal sejak lama menggunakan propaganda visual untuk menarik simpati. ISIS, misalnya, dikenal memproduksi video dengan kualitas sinematik untuk memengaruhi anak muda. Kini, dengan teknologi deepfake, mereka bisa “memproduksi” tokoh kharismatik yang seolah-olah sedang menyeru jihad, atau menampilkan pemimpin dunia seakan menghina Islam untuk memprovokasi kemarahan umat.

Misalnya dalam liputan VOA Indonesia, Peneliti di AS menemukan kecerdasan buatan digunakan membuat konten ekstremis di Indonesia. Video-video itu menggunakan wajah terpidana kasus terorisme yang telah meninggal dunia, dan diedarkan di media sosial.  Wajah seperti Noordin M Top dan Dr Azhari yang dimanfaatkan dalam propaganda online.

Kasus serupa sudah pernah terjadi. Pada 2019, Europol mengingatkan bahwa kelompok teroris menggunakan manipulasi audio-visual untuk membuat video yang menampilkan tokoh fiktif menyampaikan narasi jihad. Walau belum sepopuler kasus deepfake politik, tren ini terus berkembang.

Belajar dari Kasus bagaimana deepfake Sri Mulyani mampu menggerakkan kemarahan publik. Sekarang, bayangkan jika deepfake dipakai untuk menampilkan seorang ulama nasional seolah-olah mendukung kekerasan. Dampaknya bisa jauh lebih dahsyat dibandingkan propaganda teks biasa.

Bahaya deepfake bukan sekadar soal reputasi individu, melainkan juga ketahanan nasional. Propaganda berbasis deepfake dapat merusak kepercayaan publik terhadap institusi negara. Kemudian, ia mampu memicu perpecahan sosial dengan menebar kebencian berbasis SARA. Dan selanjutnya, deepfake mampu mempercepat radikalisasi online, karena video deepfake jauh lebih meyakinkan daripada teks atau meme.

Sebuah survei Reuters Institute (2022) menunjukkan bahwa 59% responden lebih cepat percaya pada informasi berbasis video ketimbang teks. Di sinilah celah yang bisa dimanfaatkan kelompok radikal untuk menyusupkan ideologi kekerasan melalui teknologi AI deepfake.

Menghadapi bahaya ini, ada dua langkah penting. Pertama, memperkuat literasi digital masyarakat. Publik harus dilatih untuk skeptis terhadap konten viral, memeriksa sumber, dan menggunakan alat deteksi deepfake.

Kedua, membangun kerja sama antara pemerintah, akademisi, dan platform digital untuk mengembangkan sistem deteksi otomatis dan memperketat regulasi distribusi konten manipulatif.

Dalam kasus Sri Mulyani mungkin bisa segera mengklarifikasi, tetapi bagaimana dengan korban lain yang tidak punya akses ke media besar? Hoaks bisa menelan reputasi, memicu konflik horizontal, bahkan menggerakkan orang pada aksi kekerasan.

Nurhana

Recent Posts

Anak di Peta Digital: Merebut Kembali Ruang Bermain dari Ancaman Maya

Dalam rentang dua dekade, peta dunia anak-anak telah bergeser secara fundamental. Jika dahulu tawa dan…

7 jam ago

Bangsa Indonesia Tidak Boleh Merasa “Menang” dari Aksi Teror

Sejak awal dipublikasi pada 2023 hingga hari ini, narasi zero terrorist attack memang tidak bisa…

7 jam ago

Teror tanpa Bom : Ancaman Sunyi Melalui Soft Propaganda

Perubahan signifikan tengah terjadi dalam lanskap gerakan terorisme di Indonesia. Jika pada dua dekade pertama…

7 jam ago

Bagaimana Roblox sebagai Socio-Digital Bisa Menjadi Begitu Mencekam?

Pada Januari 2025, seorang pria bernama James Wesley Burger menggunakan Robloxuntuk secara terbuka menyiarkan ancaman…

1 hari ago

Kewaspadaan Kolektif: Menjaga Fondasi NKRI dari Terorisme Digital

Laporan Global Terrorism Index (GTI) 2024 yang menempatkan Indonesia pada status zero attack selama dua…

1 hari ago

Dari Warhammer ke Roblox; Visualisasi Ekstremisme di Semesta Gim Daring

Isu terkait penggunaan gim daring (online game) sebagai sarana terorisme sebenernya bukan hal baru. Maka,…

1 hari ago