Rabu 22 Mar 2023 12:35 WIB

Penipuan dengan Deepfake Voice Makin Marak, Ini Cara Menghindarinya

Penipuan melalui deepfake terjadi pada teks, video, gambar hingga suara.

Rep: Gumanti Awaliyah/ Red: Natalia Endah Hapsari
Penipuan melalui deepfake tidak hanya terbatas pada teks, video, atau gambar namun juga suara panggilan. (ilustrasi).
Foto: www.freepik.com
Penipuan melalui deepfake tidak hanya terbatas pada teks, video, atau gambar namun juga suara panggilan. (ilustrasi).

REPUBLIKA.CO.ID, JAKARTA -- Aksi penipuan lewat telepon kian hari kian canggih. Belakangan ini muncul jenis penipuan dengan menggunakan deepfake, teknologi rekayasa citra manusia menggunakan kecerdasan buatan. Penipuan melalui deepfake tidak hanya terbatas pada teks, video, atau gambar namun juga suara panggilan.

Profesor dan Ketua Keamanan Komputasi di Rochester Institute of Technology AS, Matthew Wright, mengatakan bahwa kemajuan dalam hal deep-learning algoritme, pengeditan dan rekayasa audio, serta generator suara sintetis, semakin memungkinkan untuk mensimulasikan suara seseorang secara meyakinkan.

Baca Juga

Lebih buruk lagi, chatbot seperti ChatGPT mulai menghasilkan skrip yang realistis dengan respons waktu nyata yang adaptif. Dengan menggabungkan teknologi ini dengan generator suara, deepfake berubah dari rekaman statis menjadi avatar yang hidup dan nyata yang dapat melakukan percakapan telepon secara meyakinkan.

Menurut Wright, membuat deepfake berkualitas tinggi yang memikat, baik video maupun audio, bukanlah hal yang mudah. Hal ini membutuhkan keterampilan artistik dan teknis yang tinggi, perangkat keras yang kuat, dan sampel suara target yang cukup banyak.

Ada semakin banyak layanan yang menawarkan untuk menghasilkan klon suara berkualitas sedang hingga tinggi dengan biaya tertentu, dan beberapa alat deepfake voice hanya membutuhkan sampel berdurasi satu menit, atau bahkan hanya beberapa detik, untuk menghasilkan klon suara yang cukup meyakinkan untuk menipu seseorang.

"Namun untuk meyakinkan keluarga atau orang yang dicintai, misalnya untuk digunakan dalam penipuan, akan membutuhkan sampel yang jauh lebih besar," kata Wright seperti dilansir dari Japan Today, Rabu (22/3/2023).

Kasus penipuan deepfake voice yang cukup menyita perhatian misalnya terjadi pada 2019, ketika sebuah perusahaan energi di AS ditipu sebesar 243 ribu dolar AS oleh seseorang yang meniru suara bos perusahaan induknya. Lalu pada tahun 2022, banyak orang kena tipu sebesar 11 juta oleh suara yang disimulasikan, termasuk suara dari orang yang memiliki hubungan dekat dan pribadi.

Untuk mencegah penipuan deepfake voice, Wright meminta masyarakat untuk berhati-hati dengan panggilan tak terduga, bahkan dari orang yang dikenal baik. Ini bukan berarti Anda harus mengatur setiap panggilan, tetapi setidaknya orang tersebut telah mengirim email atau pesan teks sebelumnya. 

Selain itu, jangan mengandalkan informasi identitas si penelepon, karena itu juga bisa dipalsukan. Misalnya, jika Anda menerima telepon dari seseorang yang mengaku mewakili bank, langsung tutup telepon dan hubungi bank secara langsung untuk mengonfirmasi keabsahan panggilan tersebut. "Pastikan untuk menggunakan nomor yang telah Anda catat, yang tersimpan di daftar kontak Anda atau yang dapat Anda temukan di Google," tegas Wright.

Selain itu, berhati-hatilah dengan informasi identitas pribadi seperti nomor rekening, alamat rumah, tanggal lahir, nomor telepon, nama tengah, dan bahkan nama anak-anak dan hewan peliharaan Anda. Para penipu dapat menggunakan informasi ini untuk menyamar sebagai diri Anda di bank, agen penjual, dan lainnya.

"Anda juga harus mengetahui bias dan kerentanan intelektual dan emosional Anda. Ini cara untuk melindungi diri dari segala bentuk manipulasi dan penipuan. Para penipu biasanya mencari tahu dan memangsa kecemasan keuangan, keterikatan politik dan kecenderungan lain," jelas dia.

Kewaspadaan ini juga merupakan pertahanan yang layak terhadap disinformasi yang menggunakan deepfakes suara. Deepfakes dapat digunakan untuk mengambil keuntungan dari bias konfirmasi, atau apa yang cenderung Anda percayai tentang seseorang.

Jika Anda mendengar seseorang yang penting, baik dari komunitas atau pemerintah, mengatakan sesuatu yang tampaknya sangat tidak biasa bagi mereka atau menegaskan kecurigaan terburuk Anda terhadap mereka, sebaiknya tetap berhati-hati.

BACA JUGA: Ikuti News Analysis News Analysis Isu-Isu Terkini Perspektif Republika.co.id, Klik di Sini
Advertisement
Berita Lainnya
Advertisement
Advertisement
Advertisement