Google Tambah Watermark di Video AI Veo 3, Efektif untuk Cegah Disinformasi?

Google Veo 3
Sumber :
  • Istimewa

Jakarta, VIVA Digital – Minggu lalu, Google mengumumkan perubahan besar dalam pendekatannya terhadap transparansi konten buatan AI. 

Dalam sebuah utas di X (sebelumnya Twitter), Josh Woodward, Wakil Presiden Google Labs dan Google Gemini, menyatakan bahwa perusahaan kini menambahkan tanda air atau watermark yang terlihat pada video yang dihasilkan oleh Veo 3.

Menurut Woodward, tanda air ini akan hadir di hampir semua video Veo, kecuali yang dibuat melalui alat Flow oleh pengguna paket Google AI Ultra

Langkah ini merupakan tambahan dari SynthID, tanda air tak terlihat yang sudah tertanam di semua konten AI dari Google. SynthID juga dilengkapi dengan detektor internal yang saat ini masih dalam tahap pengujian terbatas.

“Tanda air yang terlihat adalah langkah pertama saat kami bekerja untuk membuat Detektor SynthID kami tersedia untuk lebih banyak orang secara paralel,” ujar Woodward, dikutip dari Mashable Senin, 9 Juni 2025.

Tanda Air yang Tidak Begitu Terlihat

Namun, meskipun penambahan watermark ini dimaksudkan sebagai upaya untuk melawan disinformasi, banyak pihak mempertanyakan efektivitasnya. Tanda air "Veo" hanya muncul sebagai teks putih pucat di sudut kanan bawah video, dan sangat mudah terlewatkan oleh pengguna biasa, terutama saat menggulir cepat di feed media sosial.

“Tanda air kecil ini tidak mungkin terlihat oleh sebagian besar konsumen yang sedang menelusuri feed media sosial mereka dengan kecepatan tinggi,” kata Hany Farid, pakar forensik digital dan profesor di UC Berkeley.

Farid memperingatkan bahwa watermark seperti ini bisa dengan mudah dipotong atau diedit, sehingga kurang andal sebagai satu-satunya garis pertahanan.

Realisme Video Veo 3 dan Ancaman Disinformasi

Setelah diperkenalkan di Google I/O 2025, Veo 3 menarik perhatian global berkat kemampuan menghasilkan video ultra-realistis, lengkap dengan audio dan dialog buatan yang natural. Dari video hewan berperilaku manusia, hingga klip wawancara jalanan, iklan influencer, segmen berita palsu, dan video unboxing, model ini telah menunjukkan kecanggihan luar biasa.

Namun, justru karena realisme itulah muncul kekhawatiran akan penyalahgunaan, terutama dalam konteks penyebaran informasi yang menyesatkan.

“Orang yang tertipu oleh kanguru yang dibuat oleh AI adalah contoh yang relatif tidak berbahaya,” tulis Mashable. “Namun, ketersediaan dan realisme Veo 3 yang meluas memperkenalkan tingkat risiko baru untuk penyebaran informasi yang salah.”

Apa Solusinya?

Menurut para ahli, hanya mengandalkan watermark kecil tidaklah cukup. Negar Kamali, peneliti dari Kellogg School of Management, menyarankan agar platform media sosial turut ambil bagian dalam edukasi pengguna:

“Tanda air harus lebih terlihat, atau platform yang menghosting gambar dapat menyertakan catatan di samping gambar — seperti ‘Periksa tanda air untuk memverifikasi apakah gambar tersebut dibuat oleh AI’,” katanya. “Seiring waktu, orang bisa belajar untuk mencarinya.”

Sementara itu, SynthID, watermark tak terlihat milik Google, dinilai lebih tangguh. Farid menyebut teknologi ini "cukup sulit dihilangkan", namun tantangannya terletak pada aksesibilitasnya:

“Rata-rata pengguna tidak dapat melihat watermark SynthID ini tanpa pembaca khusus, jadi tujuannya sekarang adalah memudahkan konsumen mengetahui apakah suatu konten mengandung watermark jenis ini.” tandasnya.

Langkah Google menambahkan tanda air yang terlihat ke dalam video AI adalah upaya awal menuju transparansi, tetapi masih jauh dari solusi sempurna. Meskipun teknologi seperti SynthID menawarkan pertahanan yang lebih kuat, keterbatasan akses publik terhadap alat deteksi membuat transparansi konten AI tetap menjadi tantangan besar. Untuk benar-benar memerangi disinformasi berbasis AI, kolaborasi antara pengembang teknologi, platform sosial, dan edukasi publik sangat diperlukan.