Senin 20 Nov 2023 18:49 WIB

Tertipu Suara Palsu Berujung Puluhan Juta Raib, Begini Cegah Penipuan Berbasis AI

Pelaku kejahatan senantiasa menemukan cara baru dan canggih untuk menipu.

Rep: Santi Sopia/ Red: Natalia Endah Hapsari
Penipuan lewat telepon dengan menggunakan teknologi AI marak/ ilustrasi
Foto: ABC News
Penipuan lewat telepon dengan menggunakan teknologi AI marak/ ilustrasi

REPUBLIKA.CO.ID, JAKARTA---Seiring kemajuan teknologi, modus penipuan juga bisa bermacam-macam. Penipuan suara berbasis kecerdasan buatan (AI) kini menjadi contoh kasus baru dalam daftar penipuan yang terus bertambah. Dengan memanfaatkan kecerdasan buatan, penipu menemukan cara baru dan canggih untuk menipu orang yang berpotensi menimbulkan dampak finansial.

Memahami ancaman yang muncul, sangat penting bagi individu untuk melindungi diri mereka dari menjadi korban penipuan semacam ini. Seorang wanita di Hyderabad, India, berusia 59 tahun, menjadi korban penipuan suara AI dan kehilangan Rs 1,4 lakh atau sekitar Rp 25,9 juta.

Baca Juga

Penipu diketahui menirukan suara keponakan perempuannya dari Kanada. Kemudian mengaku sedang kesusahan dan sangat membutuhkan bantuan keuangan, seperti dilansir Times of India, Senin (20/11/2023)

Bagaimana kronologisnya?

Telepon dilakukan pada larut malam, di mana penelepon mengaku terlibat kecelakaan dan sedang terancam masuk penjara. Penelepon tersebut segera meminta agar wanita tersebut mentransfer uang, menekankan perlunya menjaga kerahasiaan percakapan mereka.

"Dia terdengar seperti keponakan saya dan berbicara persis dalam bahasa Punjabi yang biasa kita gunakan di rumah, dengan segala perbedaannya. Dia menelepon saya larut malam dan mengatakan dia mengalami kecelakaan dan akan dipenjara. Dia meminta saya mentransfer uang dan rahasiakan pembicaraan ini," kata wanita korban penipuan itu.

Baru kemudian ia menyadari telah menjadi korban penipuan. Pejabat kepolisian setempat menyatakan bahwa kasus penipuan semacam ini masih jarang terjadi. Namun polisi tetap mengimbau warga agar lebih berhati-hati guna mencegah insiden serupa alias penipuan suara AI. “Penipuan suara AI sedang terjadi, meski dalam jumlah yang lebih kecil. Masyarakat harus memeriksa ulang dan memverifikasi apakah benar-benar ada rasa urgensi sebelum mentransfer uang,” kata seorang polisi senior di kepolisian Hyderabad, KVM Prasad.

Bagaimana agar tetap aman?

Baru-baru ini, para pakar dunia maya mencatat peningkatan penipuan suara AI yang menargetkan individu yang memiliki anggota keluarga tinggal di negara-negara seperti Kanada dan Israel. Untuk melindungi diri dari penipuan uang suara AI, pertimbangkan tindakan pencegahan berikut:

1. Verifikasi identitas penelepon, terutama jika mereka mengaku sebagai anggota keluarga yang mengalami kesusahan. Periksa kembali kontak yang dikenal melalui cara alternatif.

2. Tetap tenang dan luangkan waktu untuk menilai situasi. Keadaan darurat yang sebenarnya memberikan waktu untuk verifikasi.

3. Hindari berbagi rincian pribadi atau keuangan melalui telepon, terutama jika penelepon menekan Anda.

4. Dalam keadaan darurat, hubungi langsung anggota keluarga melalui nomor telepon yang dikenal untuk memverifikasi situasi.

5. Jika memungkinkan, gunakan panggilan video untuk mengonfirmasi identitas penelepon secara visual dan menilai situasinya

6. Tetap update tentang penipuan dan teknik penipuan terbaru. Kesadaran sangat penting untuk mencegah menjadi korban penipuan.

7. Laporkan setiap panggilan mencurigakan kepada pihak berwenang setempat atau unit kejahatan dunia maya. Laporan Anda mungkin membantu mencegah orang lain menjadi korban.

 

 

 

Advertisement
Berita Lainnya
Advertisement
Terpopuler
1
Advertisement
Advertisement