KANALBERITA.COM– Perang antara Iran dengan Amerika Serikat dan Israel telah meluas ke ranah digital melalui banjir konten kecerdasan buatan (AI) yang mengaburkan batas antara kenyataan dan rekayasa. Masifnya penyebaran deepfake telah membuat publik kesulitan membedakan informasi otentik, bahkan video asli pun kini kerap dicurigai sebagai produk AI.
Fenomena ini menimbulkan keraguan yang meluas di kalangan pengguna internet terhadap setiap bukti visual yang beredar di media sosial. Salah satu contoh yang mencuat adalah video mengenai Perdana Menteri Israel Benjamin Netanyahu yang diduga merupakan hasil manipulasi AI.
Pertanyaan “Apakah Netanyahu itu nyata atau hasil AI?” mendadak menjadi viral dan memicu perdebatan intens mengenai video perdana menteri Israel yang tampak memiliki enam jari.
Meskipun video tersebut sebenarnya asli, dalam panasnya konflik Timur Tengah, kebenaran sering kali menjadi korban. Spekulasi liar muncul, menuduh bahwa Netanyahu telah tewas atau terluka dalam serangan Iran, dan Israel menggunakan deepfake untuk menutupi insiden tersebut.
Liar’s Dividend dan Krisis Kepercayaan Informasi
Para peneliti forensik digital segera mengklarifikasi bahwa “jari keenam” tersebut hanyalah ilusi optik akibat pantulan cahaya yang menyerupai digit tambahan. Namun, penjelasan logis ini justru tenggelam oleh riuhnya perdebatan di kalangan warganet.
Teknologi AI saat ini telah mencapai tingkat kecanggihan yang luar biasa, bahkan mampu menghilangkan cacat visual seperti jumlah jari yang tidak sesuai. Hal ini menciptakan fenomena baru yang disebut para ahli sebagai Liar’s Dividend, atau keuntungan bagi pihak yang menyebarkan kebohongan.
“Masalahnya bukan lagi sekadar orang percaya pada disinformasi, tetapi mereka mulai tidak percaya pada berita yang benar,” ungkap Constance de Saint Laurent, profesor dari Maynooth University, seperti dikutip dari AFP.
Ketika Netanyahu mengunggah video yang menampilkan dirinya sedang berada di sebuah kafe sambil menunjukkan kedua tangannya, teori konspirasi justru semakin berkembang. Warganet menuduh video tersebut tetap merupakan hasil AI karena volume kopi dalam cangkirnya tidak berkurang setelah ia terlihat meminumnya.
Sejak konflik ini memanas, jaringan global AFP telah berhasil menyanggah lebih dari 500 informasi palsu, di mana sekitar 20 persen di antaranya menggunakan teknologi AI.
Invasi Rusia ke Ukraina, perang Israel-Gaza, serta konflik antara India dan Pakistan telah memicu lonjakan konten yang dihasilkan oleh AI. Namun, perbedaan utama konflik kali ini dibandingkan dengan yang sebelumnya adalah volume dan tingkat realisme dari gambar AI yang diproduksi secara masif namun dengan biaya yang relatif murah.
Platform teknologi kini dibanjiri oleh apa yang secara umum disebut sebagai ‘AI slop‘ atau sampah AI.
Konsekuensinya adalah krisis kepercayaan yang semakin dalam, di mana fabrikasi AI yang sangat realistis bersaing ketat untuk mendapatkan perhatian, dan sering kali berhasil menenggelamkan gambar serta video otentik.
Platform media sosial seperti X turut memperparah situasi ini. Algoritma yang memprioritaskan keterlibatan (engagement) dan insentif finansial bagi para pembuat konten justru membuat berita sensasional—meskipun palsu—menyebar lebih cepat.
Salah satu contoh ekstrem adalah video AI yang menampilkan gedung pencakar langit Burj Khalifa di Dubai runtuh. Video tersebut berhasil menarik 12 juta penonton sebelum akhirnya diberi label verifikasi.
Dewan Pengawas Meta telah memperingatkan bahwa konten palsu tidak hanya sekadar hiburan, tetapi berpotensi memicu kekerasan nyata dan memperkeruh situasi konflik yang sudah ada.
Lebih lanjut, alat pendeteksi AI pun seringkali menunjukkan hasil yang tidak akurat. Dalam kasus Netanyahu, satu alat mengindikasikan videonya 96,9 persen buatan AI, sementara alat lain memberikan hasil yang berbeda.
“Inilah yang diinginkan oleh aktor jahat: membuat orang berpikir bahwa segala sesuatu bisa dipalsukan, sehingga mereka tidak bisa mempercayai apa pun,” tegas Hannah Covington dari News Literacy Project.
Kini, batasan antara fakta dan fabrikasi semakin kabur. Ketika serangan udara menghantam sebuah sekolah dasar di Minab, Iran, pada Februari lalu, akun resmi pemerintah mengunggah foto tas sekolah berlumuran darah yang kuat terindikasi sebagai buatan AI.
Meskipun palsu, banyak warganet tidak terlalu mempermasalahkannya. Bagi mereka, selama “makna terasa nyata”, akurasi visual bukan lagi prioritas utama.
Video meme yang tampak realistis juga telah digunakan untuk menggambarkan kemenangan militer fiktif Iran, bahkan Selat Hormuz yang strategis digambarkan ulang sebagai gerbang tol bergaya kartun.
Presiden AS Donald Trump pernah memperingatkan bahwa AI telah menjadi “senjata disinformasi yang digunakan Iran dengan sangat baik.”
“Bangunan dan kapal yang tampak terbakar sebenarnya tidak – Itu BERITA PALSU, yang dihasilkan oleh AI,” tulisnya di Truth Social.
Namun, presiden AS tersebut justru menunjukkan penerimaan yang kuat terhadap teknologi ini, dengan membagikan gambar dan video hasil AI untuk menggambarkan dirinya sebagai raja dan Superman, sekaligus menampilkan lawan-lawannya sebagai penjahat atau objek hiburan.
Ia juga memanfaatkan meme AI untuk memicu teori konspirasi dan narasi palsu.
Sementara itu, operasi informasi terkoordinasi yang terkait dengan Rusia sedang memanfaatkan kekacauan daring ini, dengan menyamar sebagai media tepercaya seperti BBC untuk menyebarkan informasi bohong.













