Bahaya Deepfake dan Ancaman Radikalisme Digital : Belajar dari Kasus Sri Mulyani

Bahaya Deepfake dan Ancaman Radikalisme Digital : Belajar dari Kasus Sri Mulyani

- in Faktual
2
0
Bahaya Deepfake dan Ancaman Radikalisme Digital : Belajar dari Kasus Sri Mulyani

Beberapa hari lalu, publik dikejutkan dengan beredarnya video Menteri Keuangan Sri Mulyani yang seolah-olah menyebut guru sebagai “beban negara”. Video itu cepat menyebar, menimbulkan kemarahan, hingga menuai serangan warganet.

Sri Mulyani segera meluruskan dengan mengatakan bahwa potongan itu tidak pernah ia ucapkan. Video tersebut adalah hasil deepfake—rekayasa kecerdasan buatan yang memanipulasi wajah dan suara sehingga tampak meyakinkan. Video itu adalah potongan tidak utuh dari pidato resminya pada acara Forum Konvensi Sains, Teknologi, dan Industri di ITB (7 Agustus) yang telah dimanipulasi.

Kasus ini menjadi alarm keras. Jika seorang pejabat setingkat menteri bisa menjadi korban, bagaimana dengan masyarakat awam yang setiap hari dibanjiri konten digital tanpa sempat memverifikasi? Lebih berbahaya lagi, teknologi deepfake berpotensi dimanfaatkan oleh kelompok radikal dan teroris untuk menyebarkan propaganda yang menyesatkan dan membakar emosi publik. Deepfake bukan sekadar prank digital, tetapi potensi menjadi senjata propaganda yang bisa dimanfaatkan oleh kelompok radikal untuk meradikalisasi masyarakat.

Deepfake: Senjata Baru Propaganda

Deepfake lahir dari perkembangan teknologimachine learningdanartificial intelligence. Algoritma ini mampu menukar wajah, mengubah suara, bahkan menciptakan pidato seolah-olah asli. teknologi deepfake—berbasis AI generatif—mampu menciptakan video atau suara palsu yang hampir tidak bisa dibedakan dari rekaman asli.

Jika dipakai untuk hiburan atau edukasi, teknologi ini mungkin berguna. Namun di tangan kelompok radikal, ia bisa menjelma senjata propaganda yang lebih berbahaya dari sekadar pamflet atau ceramah daring.

Penelitian dari Brookings Institution (2020) menegaskan bahwa deepfake merupakan “the new frontier of disinformation”, yakni medan baru perang informasi yang berpotensi memicu konflik sosial, politik, bahkan keamanan. Potensi manipulasi ini sangat membahayakan ketika konteks politik atau ideologis digoreng tanpa verifikasi.

Radikalisme dan Manipulasi Emosi Melalui Deepfake

Kelompok radikal sejak lama menggunakan propaganda visual untuk menarik simpati. ISIS, misalnya, dikenal memproduksi video dengan kualitas sinematik untuk memengaruhi anak muda. Kini, dengan teknologi deepfake, mereka bisa “memproduksi” tokoh kharismatik yang seolah-olah sedang menyeru jihad, atau menampilkan pemimpin dunia seakan menghina Islam untuk memprovokasi kemarahan umat.

Misalnya dalam liputan VOA Indonesia, Peneliti di AS menemukan kecerdasan buatan digunakan membuat konten ekstremis di Indonesia. Video-video itu menggunakan wajah terpidana kasus terorisme yang telah meninggal dunia, dan diedarkan di media sosial. Wajah seperti Noordin M Top dan Dr Azhari yang dimanfaatkan dalam propaganda online.

Kasus serupa sudah pernah terjadi. Pada 2019, Europol mengingatkan bahwa kelompok teroris menggunakan manipulasi audio-visual untuk membuat video yang menampilkan tokoh fiktif menyampaikan narasi jihad. Walau belum sepopuler kasus deepfake politik, tren ini terus berkembang.

Belajar dari Kasus bagaimana deepfake Sri Mulyani mampu menggerakkan kemarahan publik. Sekarang, bayangkan jika deepfake dipakai untuk menampilkan seorang ulama nasional seolah-olah mendukung kekerasan. Dampaknya bisa jauh lebih dahsyat dibandingkan propaganda teks biasa.

Bahaya deepfake bukan sekadar soal reputasi individu, melainkan juga ketahanan nasional. Propaganda berbasis deepfake dapat merusak kepercayaan publik terhadap institusi negara. Kemudian, ia mampu memicu perpecahan sosial dengan menebar kebencian berbasis SARA. Dan selanjutnya, deepfake mampu mempercepat radikalisasi online, karena video deepfake jauh lebih meyakinkan daripada teks atau meme.

Sebuah survei Reuters Institute (2022) menunjukkan bahwa 59% responden lebih cepat percaya pada informasi berbasis video ketimbang teks. Di sinilah celah yang bisa dimanfaatkan kelompok radikal untuk menyusupkan ideologi kekerasan melalui teknologi AI deepfake.

Menghadapi bahaya ini, ada dua langkah penting. Pertama, memperkuat literasi digital masyarakat. Publik harus dilatih untuk skeptis terhadap konten viral, memeriksa sumber, dan menggunakan alat deteksi deepfake.

Kedua, membangun kerja sama antara pemerintah, akademisi, dan platform digital untuk mengembangkan sistem deteksi otomatis dan memperketat regulasi distribusi konten manipulatif.

Dalam kasus Sri Mulyani mungkin bisa segera mengklarifikasi, tetapi bagaimana dengan korban lain yang tidak punya akses ke media besar? Hoaks bisa menelan reputasi, memicu konflik horizontal, bahkan menggerakkan orang pada aksi kekerasan.

Facebook Comments