Waspada! Penipuan Suara AI Makin Marak, Begini Cara Melindungi Diri dan Keluarga
- Istimewa
Digital – Zaman dulu, penipu hanya mengandalkan telepon biasa. Kini, dengan bantuan teknologi kecerdasan buatan, mereka bisa meniru suara siapa pun hanya dengan beberapa detik rekaman. Hasilnya? Penipuan suara AI makin marak dan semakin sulit dikenali.
Contohnya, seorang ibu mertua nyaris menjadi korban. Ia mendapat telepon dengan suara yang terdengar persis seperti anaknya yang “memohon” agar ia segera mentransfer uang karena sedang disandera. Tentu saja, ternyata anaknya aman-aman saja, tapi suara itu begitu meyakinkan hingga sang ibu hampir menyerahkan ribuan dolar.
Menakutkan, bukan? Mari kita bahas bagaimana penipuan suara AI bekerja dan cara melindungi diri.
Bagaimana Penipuan Suara AI Bekerja?
Teknologi voice cloning berbasis AI hanya memerlukan sedikit sampel suara,bisa dari video di media sosial, pesan suara, atau podcast. Dalam hitungan menit, penipu bisa membuat replika suara yang sangat mirip.
Lalu mereka menelepon korban, berpura-pura jadi anggota keluarga atau teman yang sedang dalam krisis, misalnya diculik atau mengalami kecelakaan. Tujuannya? Membuat Anda panik dan segera mengirim uang atau data pribadi.
Penelitian dari University of Wisconsin–Madison menunjukkan bahwa banyak orang bisa tertipu hanya dengan mendengar suara palsu yang meyakinkan.
Tak hanya itu, penipu juga bisa menyamar sebagai figur publik, pejabat, atau selebritas untuk memancing korban mengklik tautan berbahaya atau membagikan informasi sensitif.
Ini Bukan Sekadar Teori, Sudah Banyak Korbannya
FBI bahkan telah mengeluarkan peringatan soal serangan “vishing” (voice phishing) berbasis AI. Dalam salah satu kasus, suara palsu yang meniru Senator Marco Rubio digunakan untuk menghubungi pejabat luar negeri demi menggali informasi penting.
Bahkan aplikasi pesan aman seperti Signal pun tak sepenuhnya kebal. Penipuan ini berbiaya rendah, berdampak tinggi, dan sulit dideteksi, terutama jika korban panik.
Tanda-Tanda Penipuan Suara AI
Bagaimana agar tidak terjebak? Berikut hal yang perlu diperhatikan:
- Nada suara terlalu datar atau sempurna, tanpa emosi alami.
- Jeda bicara yang aneh atau tidak wajar.
- Suara latar yang tidak konsisten, misalnya terlalu bersih atau terpotong.
Jika mendapat telepon mendesak yang terdengar mencurigakan, jangan langsung bereaksi karena takut. Ambil waktu untuk mengecek.
Cara Melindungi Diri dan Keluarga
- Selalu verifikasi. Jika ada panggilan panik meminta uang, segera hubungi orang tersebut lewat nomor atau chat yang sudah Anda kenal sebelumnya.
- Buat kode rahasia keluarga. Kata sandi khusus yang hanya keluarga Anda tahu bisa membantu memastikan identitas di situasi darurat.
- Batasi rekaman suara publik. Konten audio yang diunggah online bisa dipakai untuk cloning suara.
- Kenali teknik manipulasi. Jika merasa takut, bersalah, atau terburu-buru, berhenti sejenak, itu tanda penipuan.
Apa yang Sedang Dilakukan untuk Mengatasinya?
Peneliti sedang mengembangkan teknologi seperti ASRJam, alat yang bisa mengganggu bot suara AI dengan gangguan audio halus yang tidak terdengar manusia. Selain itu, pihak berwenang mendorong korban untuk melapor ke FBI Internet Crime Complaint Center (IC3) agar pola penipuan bisa dilacak.
Penipuan suara AI memang nyata dan makin canggih. Namun dengan kesadaran dan langkah pencegahan sederhana, Anda bisa terhindar dari jeratnya.