Kamis 17 Aug 2023 07:57 WIB

Bikin Resah, Perusahaan AI Sekarang Harus Buktikan Teknologi Mereka Aman

Perusahaan AI besar seperti OpenAI terbuka untuk bekerja sama dengan pemerintah AS.

Rep: Noer Qomariah Kusumawardhani/ Red: Natalia Endah Hapsari
Kemampuan kecerdasan buatan (AI) kini memunculkan kecemasan sehingga ada rencana untuk membatasi kekuatan perusahaan AI./ilustrasi
Foto: Unsplash
Kemampuan kecerdasan buatan (AI) kini memunculkan kecemasan sehingga ada rencana untuk membatasi kekuatan perusahaan AI./ilustrasi

REPUBLIKA.CO.ID, JAKARTA—Teknologi Akuntabel Nirlaba, AI Now, dan Pusat Informasi Privasi Elektronik (EPIC) merilis proposal kebijakan yang berupaya membatasi seberapa besar kekuatan yang dimiliki perusahaan kecerdasan buatan (AI) besar pada regulasi yang juga dapat memperluas kekuatan lembaga pemerintah terhadap beberapa penggunaan AI generatif.

Grup mengirimkan kerangka kerja tersebut ke politisi dan lembaga pemerintah terutama di Amerika Serikat (AS) bulan ini, meminta mereka untuk mempertimbangkannya saat menyusun undang-undang dan peraturan baru seputar AI.

Baca Juga

Kerangka kerja, yang mereka sebut Tata Kelola AI Zero trust, bertumpu pada tiga prinsip, yaitu menegakkan hukum yang ada; membuat aturan garis terang yang berani dan mudah diimplementasikan; dan membebani perusahaan untuk membuktikan bahwa sistem AI tidak berbahaya di setiap fase siklus hidup AI. Definisi AI-nya mencakup AI generatif dan model dasar yang memungkinkannya, bersama dengan pengambilan keputusan algoritmik.

“Kami ingin mengeluarkan kerangka kerja sekarang karena teknologinya berkembang dengan cepat, tetapi undang-undang baru tidak dapat bergerak dengan kecepatan itu,” kata Jesse Lehrich, salah satu pendiri Accountable Tech, kepada The Verge.

Dilansir dari The Verge, Kamis (17/8/2023), Lehrich menambahkan bahwa, dengan datangnya musim pemilihan, Kongres akan segera pergi untuk berkampanye, membiarkan nasib peraturan AI tidak jelas.

Saat pemerintah terus mencari cara mengatur AI generatif, kelompok itu mengatakan undang-undang saat ini seputar antidiskriminasi, perlindungan konsumen, dan persaingan membantu mengatasi bahaya yang ada. Diskriminasi dan biasa dalam AI adalah sesuatu yang telah diperingatkan oleh para peneliti selama bertahun-tahun.

Sebuah artikel Rolling Stone baru-baru ini memetakan bagamana para ahli terkenal seperti Timnit Gebru menyuarakan peringatan tentang masalah ini selama bertahun-tahun hanya untuk diabaikan oleh perusahaan yang mempekerjakan mereka.

Lehrich menunjuk pada penyelidikan Komisi Perdagangan Federal terhadap OpenAI sebagai contoh aturan yang ada yang digunakan untuk menemukan potensi kerugian konsumen. Instansi pemerintah lainnya juga telah memperingatkan perusahaan AI bahwa mereka akan memantau secara ketat penggunaan AI sektor spesifik mereka.

Kongres telah mengadakan beberapa dengar pendapat mencoba mencari tahu apa yang harus dilakukan tentang kebangkitan AI generatif. Pemimpin Mayoritas Senat Chuck Schumer mendesak kolega untuk “mengambil langkah” dalam pembuat aturan AI. Perusahaan AI besar seperti OpenAI telah terbuka untuk bekerja sama dengan pemerintah AS untuk menyusun peraturan dan bahkan menandatangani perjanjian yang tidak mengikat dan tidak dapat dilaksanakan dengan Gedung Putih untuk mengembangkan AI yang bertanggung jawab.

Kerangka kerja Zero Trust AI juga berusaha untuk mendefinisikan kembali batas undang-undang perlindungan digital seperti Section 230 sehingga perusahaan AI generatif dimintai pertanggungjawaban jika model tersebut mengeluarkan informasi yang salah atau berbahaya.

“Gagasan di balik Section 230 masuk akal secara umum, tetapi ada perbedaan antara ulasan buruk di Yelp karena seseorang membenci restoran dan GPT mengarang hal-hal yang memfitnah,” kata Lehrich. (Section 230 disahkan sebagian justru untuk melindungi layanan daring dari tanggung jawab atas konten yang memfitnah, tetapi hanya ada sedikit preseden yang ditetapkan untuk apakah platform seperti ChatGPT dapat dimintai pertanggungjawaban karena membuat pernyataan palsu dan merusak.)

Saat pembuat undang-undang terus bertemu dengan perusahaan AI, yang memicu kekhawatiran penangkapan peraturan, Accountable Tech dan mitranya menyarankan beberapa aturan bright-line, atau kebijakan yang didefinisikan dengan jelas dan tidak menyisakan ruang untuk subjektivitas.

Ini termasuk melarang penggunaan AI untuk pengenalan emosi, kebijakan prediktif, pengenalan wajah yang digunakan untuk pengawasan massal di tempat umum, penilaian sosial dan perekrutan, pemecatan dan manajemen SDM yang sepenuhnya otomatis. Mereka juga meminta untuk melarang pengumpulan atau pemrosesan data sensitif dalam jumlah yang tidak perlu untuk layanan tertentu, pengumpulan data biometrik di bidang seperti pendidikan dan perekrutan, dan “iklan pengawasan”.

Accountable Tech juga mendesak anggota parlemen untuk mencegah penyedia cloud besar memiliki atau memiliki kepentingan menguntungkan dalam layanan AI komersial besar untuk membatasi dampak perusahaan Teknologi Besar dalam ekosistem AI. Penyedia cloud seperti Microsoft dan Google memiliki pengaruh yang sangat besar pada AI generatif.

OpenAI, pengembang AI generatif paling terkenal, bekerja sama dengan Microsoft, yang juga berinvestasi di perusahaan tersebut. Google merilis model bahasa Bard yang besar dan sedang mengembangkan model AI lainnya untuk penggunaan komersial.

Grup mengusulkan metode yang serupa dengan yang digunakan dalam industri farmasi, di mana perusahaan tunduk pada peraturan bahkan sebelum menerapkan model AI ke publik dan pemantauan berkelanjutan setelah rilis komersial. Organisasi nirlaba tidak meminta satu badan pengatur pemerintah. Namun, Lehrich mengatakan ini adalah pertanyaan yang harus dihadapi oleh pembuat undang-undang untuk melihat apakah pemisahan peraturan akan membuat peraturan lebih fleksibel atau menghambat penegakan hukum.

Lehrich mengatakan dapat dimengerti bahwa perusahaan kecil mungkin menolak jumlah peraturan yang mereka cari, tetapi dia yakin ada ruang untuk menyesuaikan kebijakan dengan ukuran perusahaan.

“Secara realistis, kami perlu membedakan antara berbagai tahapan rantai pasokan AI dan persyaratan desain yang sesuai untuk setiap fase,” ujarnya. Dia menambahkan bahwa pengembang yang menggunakan model open-source juga harus memastikan panduan ini diikuti.

Advertisement
Berita Lainnya
Advertisement
Advertisement
Advertisement