Video AI Veo 3 Sulit Dibedakan dengan Konten Nyata, Ini Solusinya dari Ahli
- YouTube/Whuidih
Jakarta, VIVA Digital – Di tengah semakin populernya video AI dari platform seperti Veo3 milik Google dan Sora dari OpenAI, muncul satu pertanyaan besar: masih bisakah kita membedakan mana video yang dibuat manusia dan mana yang buatan AI? Pertanyaan ini bukan sekadar spekulasi, tapi jadi isu serius yang kini diperbincangkan banyak pakar, termasuk Ari Abelson, pendiri OpenOrigins—perusahaan yang khusus menangani keaslian konten digital.
Kekhawatiran ini semakin menguat setelah tayangnya film Mountainhead, sebuah karya fiksi futuristik yang menampilkan bagaimana perangkat lunak AI video meruntuhkan tatanan sosial dunia melalui penyebaran deepfake yang sangat realistis. Meski hanya sebuah cerita, film ini memunculkan bayang-bayang nyata tentang bagaimana AI generatif bisa menciptakan kekacauan global jika tak terkendali.
Salah satu karakter utama film tersebut adalah perangkat AI video yang sangat menyerupai kemampuan Veo3—dapat menciptakan klip video realistis dari deskripsi teks sederhana. Di dalam skenario fiksional Mountainhead, perangkat seperti ini digunakan secara bebas oleh masyarakat dan menyebabkan kerusuhan, perang antar geng, hingga kehancuran ekonomi.
Deepfake dan Krisis Kepercayaan Global
Menurut Abelson, kita kini memasuki era disinformasi ultra-realistis. "Veo3 dan teknologi sejenis memperlihatkan sekilas masa depan di mana kebenaran bisa diciptakan dan dimanipulasi. 90% penonton bahkan tak bisa lagi membedakan video buatan AI dari konten manusia asli," jelasnya, dikutip dari TechRadar, Sabtu 14 Juni 2025.
Abelson mengingatkan bahwa disinformasi tak perlu canggih untuk menciptakan kekacauan. Kasus video palsu Nancy Pelosi yang hanya diperlambat kecepatannya sudah cukup memicu kontroversi dan keraguan publik. Kini, dengan teknologi seperti Veo3, ancaman itu meningkat ribuan kali lipat.
Bukti Keaslian Jadi Kebutuhan Mendesak
Solusinya? Bukan membatasi teknologi, melainkan membangun sistem pembuktian keaslian yang kuat. “Kita membutuhkan sistem kepercayaan digital terdesentralisasi untuk membuktikan bahwa konten itu benar-benar dibuat manusia,” kata Abelson. Ini akan menjadi sangat penting bagi institusi seperti media, pemerintah, militer, hingga perusahaan asuransi.
Selain itu, Abelson juga menyoroti pentingnya arsip konten manusia yang aman dan tak dapat dirusak, untuk menjaga jejak sejarah dari tsunami konten palsu yang bisa menghapus kolektif memori umat manusia.
Dua Jenis Internet: Solusi Radikal Melawan Deepfake
Abelson bahkan mengusulkan solusi ekstrem namun revolusioner: membagi internet menjadi dua lapisan—internet manusia dan internet agen (AI). Lapisan pertama hanya berisi konten yang terverifikasi dibuat oleh manusia. Sedangkan lapisan kedua adalah tempat semua konten AI berada.
Konsep ini bertujuan untuk menyelamatkan satu hal terpenting yang kini semakin terancam: kepercayaan masyarakat terhadap apa yang mereka lihat dan dengar di internet.
Kesimpulan: Masa Depan Ada di Tangan Kita
Dengan kemunculan teknologi seperti Veo3 dan Sora, batas antara kenyataan dan manipulasi digital semakin kabur. Pakar deepfake seperti Ari Abelson mengingatkan bahwa tanpa sistem validasi dan regulasi yang kuat, kita bisa masuk ke era post-truth, di mana opini menggantikan fakta dan realitas bisa dimanipulasi sesuka hati.
Solusinya memang bukan sederhana. Namun, tanpa tindakan cepat, dunia bisa berubah menjadi seperti Mountainhead — tempat di mana kebenaran tak lagi punya tempat, dan setiap gambar atau video tak bisa dipercaya begitu saja.
Langkah awalnya bisa dimulai dari kesadaran kita sebagai pengguna. Mulailah lebih kritis terhadap konten yang kita konsumsi, dan dukung inisiatif yang mengedepankan transparansi serta keaslian informasi digital.