REPUBLIKA.CO.ID, NEW YORK — Perkembangan teknologi kerap memberikan dampak seperti dua sisi mata uang. Kecanggihan kecerdasan buatan (AI) juga memiliki efek positif dan juga negatif.
Saat ini deepfake atau video dan gambar yang menyerupai orang aslinya, telah menimbulkan banyak masalah, khususnya terkait pornografi. Konten semacam ini pertama kali menyebar di internet beberapa tahun lalu.
Hal itu dipicu ketika seorang pengguna membagikan klip yang menempatkan wajah selebritas wanita di pundak aktor porno. Sejak itu, pembuat deepfake sering kali menargetkan influencer daring, jurnalis, dan lainnya dengan selebritis atau artis. Ribuan video deepfake bisa ditemukan di banyak situs web.
“Kenyataannya adalah bahwa teknologi akan terus berkembang, akan terus berkembang dan akan terus menjadi semudah menekan tombol,” kata Adam Dodge, pendiri EndTAB, sebuah grup yang memberikan pelatihan tentang penyalahgunaan yang dimungkinkan oleh teknologi, seperti dikutip dari Japan Today, Rabu (19/4/2023).
Menurut dia, selama itu terjadi, orang pasti akan terus menyalahgunakan teknologi untuk kejahatan terhadap orang lain, terutama melalui pelecahan seksual daring, pornografi deepfake, dan gambar telanjang palsu.
Noelle Martin, warga Perth, Australia, termasuk korban deepfake palsu. Wanita berusia 28 tahun itu menemukan deepfake porno dirinya 10 tahun yang lalu ketika iseng melihat Google untuk mencari gambar dirinya.
Hingga saat ini, Martin mengaku tidak tahu siapa yang membuat gambar palsu dirinya atau video seksual yang mungkin akan dia temukan. Dia mencurigai fotonya diambil di media sosial. Sulit untuk mengatasi ini, karena menurut dia, orang malah akan menyalahkannya, alih-alih fokus pada kesalahan penyalahgunaan deepfake.
Akhirnya, Martin mengalihkan perhatiannya ke undang-undang. Dia mengadvokasi undang-undang nasional di Australia yang akan mendenda perusahaan sebesar 555 ribu dolar Australia atau sekitar Rp 5 miliar terkait pemberitahuan penghapusan konten semacam itu dari regulator keamanan daring.
Tetapi lebih dari itu, Martin, yang merupakan pengacara dan peneliti hukum di University of Western Australia, meyakini masalah tersebut bisa dikendalikan melalui semacam solusi global.
Sementara itu, beberapa model AI menyatakan sudah membatasi akses konten berbau pornografi. OpenAI, misalnya, menyatakan punya kebijakan menghapus konten porno dari data yang digunakan untuk melatih alat penghasil gambar DALL-E.
Model AI lainnya, Midjourney, memblokir penggunaan kata kunci tertentu dan mendorong pengguna untuk menandai gambar bermasalah ke moderator. Kemudian perusahaan rintisan Stability AI meluncurkan pembaruan pada bulan November yang menghilangkan kemampuan untuk membuat gambar eksplisit menggunakan pembuat gambar Stable Diffusion.
Beberapa perusahaan media sosial juga telah memperketat aturan untuk lebih melindungi platform dari materi berbahaya. TikTok menyatakan semua deepfake atau konten yang dimanipulasi harus diberi label untuk menunjukkan bahwa itu palsu dan deepfake tokoh serta anak-anak tidak lagi diizinkan.
Platform gim Twitch juga memperbarui kebijakannya setelah streamer populer bernama Atrioc diketahui membuka situs web porno deepfake di browsernya selama streaming langsung pada akhir Januari. Perusahaan lain juga telah mencoba untuk melarang deepfake dari platform mereka, tetapi mempertahankannya mungkin membutuhkan ketekunan.
Apple dan Google menghapus aplikasi dari toko aplikasi mereka terkait video aktris deepfake yang menjurus ke arah seksual. Pada bulan Februari, Meta, serta situs dewasa seperti OnlyFans dan Pornhub, mulai berpartisipasi dalam alat daring yang disebut Take It Down yang memungkinkan remaja melaporkan gambar dan video porno diri mereka sendiri dari internet.
“Ketika orang-orang bertanya kepada pimpinan senior kami, apa bahaya besar yang kami khawatirkan? Yang pertama adalah enkripsi end-to-end dan artinya bagi perlindungan anak. Dan yang kedua adalah AI dan khususnya deepfake,” kata Gavin Portnoy, juru bicara National Center for Missing and Exploited Children, yang mengoperasikan Take It Down.