Waspada! Penipuan Suara AI Makin Marak, Begini Cara Melindungi Diri dan Keluarga

Speaker HP Terkena Air
Sumber :
  • Istimewa

Digital – Zaman dulu, penipu hanya mengandalkan telepon biasa. Kini, dengan bantuan teknologi kecerdasan buatan, mereka bisa meniru suara siapa pun hanya dengan beberapa detik rekaman. Hasilnya? Penipuan suara AI makin marak dan semakin sulit dikenali.

ChatGPT Diduga Terlibat Kasus Pembunuhan, OpenAI Angkat Bicara

Contohnya, seorang ibu mertua nyaris menjadi korban. Ia mendapat telepon dengan suara yang terdengar persis seperti anaknya yang “memohon” agar ia segera mentransfer uang karena sedang disandera. Tentu saja, ternyata anaknya aman-aman saja, tapi suara itu begitu meyakinkan hingga sang ibu hampir menyerahkan ribuan dolar.

Menakutkan, bukan? Mari kita bahas bagaimana penipuan suara AI bekerja dan cara melindungi diri.

Bagaimana Penipuan Suara AI Bekerja?

Cara Mengatasi ChatGPT yang Sering Mengulang Pertanyaan dan 5 Trik Prompt Agar Lebih Efektif

Teknologi voice cloning berbasis AI hanya memerlukan sedikit sampel suara,bisa dari video di media sosial, pesan suara, atau podcast. Dalam hitungan menit, penipu bisa membuat replika suara yang sangat mirip.

Lalu mereka menelepon korban, berpura-pura jadi anggota keluarga atau teman yang sedang dalam krisis, misalnya diculik atau mengalami kecelakaan. Tujuannya? Membuat Anda panik dan segera mengirim uang atau data pribadi.

OpenAI dan Perusahaan AI Lain Incar Google Chrome, Apa Untung Ruginya Bagi Pengguna?

Penelitian dari University of Wisconsin–Madison menunjukkan bahwa banyak orang bisa tertipu hanya dengan mendengar suara palsu yang meyakinkan.

Halaman Selanjutnya
img_title