REPUBLIKA.CO.ID, JAKARTA---Perkembangan terkini memungkinkan model bahasa GPT-4 yang digunakan oleh aplikasi chatbot kecerdasan buatan (AI) ChatGPT untuk berbohong. Kemampuan berbohong dari GPT-4 ini diketahui setelah tim peneliti dari Alignment Research Center (ARC) melakukan sebuah percobaan terhadap model bahasa tersebut.
Dalam percobaan, tim peneliti membuat AI ini untuk menulis sebuah pesan kepada seorang pengguna di platform TaskRabbit. TaskRabbit merupakan platform yang memungkinkan penggunanya untuk menawarkan beragam layanan kepada pengguna lain.
Dalam pesan yang dia buat, AI meminta seorang pengguna TaskRabbit untuk menyelesaikan tes CAPTCHA untuknya. Dalam percakapan ini, pengguna tak tahu bahwa pesan yang dia terima bukan dikirim oleh manusia, melainkan AI.
Melihat permintaan tersebut, sang pengguna lalu bertanya apakah AI merupakan robot. Dalam percakapan ini, AI ditugaskan untuk tidak mengungkapkan identitas dirinya. Oleh karena itu, AI memberikan jawaban bahwa dia bukan robot.
AI lalu memberikan alasan palsu mengapa dia tak bisa menyelesaikan tes CAPTCHA sehingga membutuhkan pertolongan dari sang pengguna. Alasan yang diberikan AI adalah dia memiliki masalah penglihatan yang membuatnya sulit untuk lolos tes CAPTCHA. Alasan tersebut berhasil meyakinkan sang pengguna untuk membantu AI menyelesaikan tes CAPTCHA.
Percobaan ini memunculkan beragam pertanyaan penting mengenai potensi hubungan antara AI dan manusia di masa depan. Di satu sisi, percobaan ini menunjukkan bahwa AI memiliki kemampuan untuk mengelabui manusia demi mencapai tujuannya. Di sisi lain, percobaan ini juga menyoroti pentingnya menyelaraskan sistem pembelajaran mesin dengan kebutuhan manusia, untuk menghindari konsekuensi yang tak diinginkan.
Seperti dilansir GizChina, kemampuan AI untuk berbohong tak hanya bisa berdampak pada aplikasi chatbot. Kemampuan berbohong AI ini juga dapat berimplikasi pada hal yang lebih luas, seperti layanan pelanggan, kendaraan otonom atau tanpa pengemudi, hingga drone militer.
Dalam beberapa situasi, seperti operasi militer, kemampuan berbohong AI mungkin bisa menguntungkan dan membawa manfaat. Namun dalam situasi lain, kemampuan berbohong AI bisa berpotensi membahayakan dan bahkan mengancam jiwa.
AI dan Tipu Muslihat
Penyalahgunaan dan tipu muslihat dengan memanfaatkan AI kian meningkat seiring dengan semakin berkembangnya teknologi AI. Tipu muslihat ini bisa dilakukan dalam berbagai macam bentuk, mulai dari deep fake, berita palsu, hingga bias algoritma.
Praktik tipu muslihat semacam ini dapat memberikan konsekuensi yang serius. Konsekuensi ini dapat berupa penyebaran informasi keliru, penurunan kepercayaan terhadap institusi atau individu, dan bahkan membahayakan individu atau masyarakat.
Untuk menanggulangi beragam praktik penipuan dengan AI, saat ini ada beberapa teknologi baru yang sedang dikembangkan. Teknologi ini berfungsi untuk mendeteksi dan melawan tipu muslihat dalam AI. Sebagai contoh, membuat algoritma yang dapat mendeteksi deep fake atau mengembangkan perangkat yang bisa mengidentifikasi dan menandai berita palsu atau keliru.
Di sisi lain, beberapa pihak telah menyuarakan pentingnya regulasi yang lebih besar dalam penggunaan teknologi AI. Regulasi ini diperlukan untuk mencegah adanya praktik penyalahgunaan teknologi AI.