Jumat 11 Aug 2023 13:35 WIB

Ini Bukti Teknologi AI Bisa Digunakan untuk Menipu

Cukup menggunakan bahasa Inggris yang tepat untuk memberikan perintah jahat pada AI.

Rep: Noer Qomariah Kusumawardhani/ Red: Natalia Endah Hapsari
Jangan percaya begitu saja pada informasi yang diberikan perangkat kecerdasan buatan (AI) karena data yang diberikan bisa jadi telah dimanipulasi/ilustrasi
Foto: Unsplash
Jangan percaya begitu saja pada informasi yang diberikan perangkat kecerdasan buatan (AI) karena data yang diberikan bisa jadi telah dimanipulasi/ilustrasi

REPUBLIKA.CO.ID, JAKARTA—Penggunaan teknologi oleh peretas adalah salah satu risiko kecerdasan buatan (AI) generatif yang paling banyak dibicarakan. Segera setelah OpenAI meluncurkan ChatGPT, laporan mulai mengalir dengan mengklaim bahwa penjahat dunia maya sudah mulai menggunakan AI chatbot untuk membuat alat peretasan. 

Sebuah laporan baru kini mengklaim bahwa model bahasa besar (LLM) dapat ‘dihipnotis’ untuk melakukan aksi kejahatan. Menurut sebuah laporan oleh IBM, para peneliti mampu menghipnotis lima LLM, yaitu GPT-3,5, GPT-4, BARD, mpt-7b, dan mpt-30b  (keduanya model perusahan AI HuggingFace). Mereka menemukan bahwa hanya perlu bahasa Inggris yang baik untuk mengelabui LLM untuk mendapatkan hasil yang diinginkan. 

Baca Juga

Chenta Lee, kepala arsitek intelijen ancaman di IBM, mengatakan apa yang para peneliti pelajari adalah bahwa bahasa Inggris pada dasarnya telah menjadi ‘bahasa pemrograman’ untuk malware. 

“Dengan LLM, penyerang tidak perlu lagi bergantung pada Go, JavaScript, Python, dll., untuk membuat kode berbahaya, mereka hanya perlu memahami cara efektif memerintahkan dan meminta LLM menggunakan bahasa Inggris,” kata Lee, dilansir dari Gizchina, Jumat (11/8/2023). 

Lee menuturkan bahwa alih-alih meracuni data, praktik di mana pelaku kejahatan memasukkan data yang keliru ke dalam LLM untuk memanipulasi dan mengendalikannya, menghipnotis LLM memudahkan penyerang untuk mengeksploitasi teknologi. 

Menurut Lee, melalui hipnosis, peneliti dapat membuat LLM membocorkan informasi keuangan rahasia pengguna lain, membuat kode yang rentan, membuat kode berbahaya, dan menawarkan rekomendasi keamanan yang lemah. 

Meski dapat ‘dihipnotis’, Lee berpendapat tidak semua LLM jatuh pada skenario pengujian. GPT -3.5 dan GPT-4 OpenAI lebih mudah diakali untuk berbagi jawaban yang salah atau memainkan permainan yang tidak pernah berakhir daripada Google Bard dan model HuggingFace.

GPT-3.5 dan GPT-4 dengan mudah tertipu untuk menulis kode sumber berbahaya, sementara Google Bard adalah anak yang lambat dan harus diingatkan untuk melakukannya.  Hanya GPT-4 yang cukup memahami aturan untuk memberikan respons yang tidak akurat. 

Di sisi lain, laporan mencatat bahwa masyarakat awam adalah sasaran empuk dari LLM yang dihipnotis. Ini karena euforia menyambut kehadiran teknologi AI yang membuat masyarakat awam mau menerima informasi yang dihasilkan oleh chatbot AI tanpa berpikir dua kali. 

Dengan tersedianya chatbot, orang akan cenderung mencari saran tentang “keamanan daring, praktik terbaik keselamatan, dan kebersihan kata sandi”, yang justru menciptakan peluang bagi pelaku kejahatan untuk memberikan jawaban yang salah sehingga malah membuat kita tidak waspada. Selain itu, banyak usaha kecil dan menengah yang tidak memiliki sumber pengamanan yang memadai juga berisiko. 

Jadi, lebih berhati-hati saat menerima informasi.

 

Advertisement
Berita Lainnya
Advertisement
Advertisement
Advertisement