REPUBLIKA.CO.ID, JAKARTA—Peningkatan kecerdasan buatan (AI) generatif dan otomatisasi yang tak terhindarkan, berdampak besar bagi para profesional dan organisasi tempat mereka bekerja. Jadi, ketika para profesional mulai meningkatkan penggunaan AI mereka, bagaimana mereka dapat memastikan bahwa mereka dan organisasi mereka memanfaatkan teknologi baru ini dengan mempertimbangkan tanggung jawab?
Itulah prioritas utama Carter Cousineau, wakil presiden tata kelola dan model dengan spesialis berita dan informasi Thomson Reuters, yang membantu perusahaannya memanfaatkan AI dan pembelajaran mesin (ML) dengan cara bertanggung jawab. Dia mengatakan ada lima hal utama yang harus dipertimbangkan oleh para profesional jika mereka ingin memakai AI secara bertanggung jawab.
1.Bersiaplah untuk peraturan.
Cousineau memastikan karyawan di Thomson Reuters tetap berpegang pada prinsip-prinsip yang diasah dengan baik ini secara berkelanjutan. Dia mengakui, bagaimanapun, bahwa lini bisnis yang berbeda memiliki persyaratan yang berbeda untuk AI dan otomatisasi. Terlebih lagu, tuntutan itu berubah karena tekanan lebih lanjut datang dari anggota parlemen eksternal.
Baik itu Regulasi Perlindungan Data Umum, Undang-Undang Kecerdasan Buatan Uni Eropa (UE), atau otomatisasi yang tertunda, timnya menerapkan pemeriksaan dan keseimbangan yang tepat untuk membantu staf Thomson Reuters berinovasi dengan data dan model dengan cara yang fleksibel namun juga aman dan terjamin.
2.Tetap terbuka untuk berubah.
Cousineau bukan penggemar bisnis yang membuat satu, daftar periksa standar untuk AI dan kemudian dengan asumsi pekerjaan selesai. “Model Anda—terutama dalam AI generatif—teruslah belajar. Data Anda terus bertransformasi dan ada penggunaan data yang berbeda. Jadi, menciptakan visibilitas aset model data Anda sangatlah besar,” ujar Cousineau, dilansir ZDNET, Senin (21/8/2023).
Dia mengatakan keterbukaan terhadap perubahan dalam hal kewajiban hukum sangat penting, tetapi ada juga titik di mana penekanan itu bergeser -- dan keterbukaan menjadi bermanfaat secara operasional juga.”Penting bagi tim Anda untuk melihat dan memahami cara membangun budaya AI yang bertanggung jawab karena mereka perlu mengetahui lebih banyak [tentang] bagaimana model data tersebut digunakan melalui produsen atau konsumen,” katanya.
3.Gunakan penilaian dampak data.
Apakah model sedang digunakan pada tahap pembuktian konsep menuju produksi Cousineau mengatakan Thomson Reuters terus memeriksa AI yang bertanggung jawab di semua kasus penggunaan.
Sejak awal otomatisasi, timnya melakukan penilaian dampak data. Landasan ini telah terbukti penting karena kasus penggunaan baru yang berkaitan dengan AI generatif telah muncul.
Cousineau mengatakan Thomson Reuters bermitra dengan penasihat umum dan pendekatan mereka menggunakan logika lewati. Berdasarkan kasus penggunaan Anda, ini akan mengarahkan Anda ke tahapan yang sesuai atau masalah etika yang harus Anda jawab dan meminta kasus penggunaan yang ada.
Menurutnya, pendekatan itu membangun gambaran tentang mendukung kebutuhan privasi, tata kelola data, tata kelola model, dan etika untuk kasus penggunaan Anda. Itu adalah sesuatu yang memungkinkan Thomson Reuters untuk bereaksi dengan cepat.
“Jadi, saat kami mendapatkan hasil penilaian dampak data tersebut, tim kami bekerja segera memitigasi risiko tersebut dalam berbagai tim—dan risikonya sangat spesifik,” kata Cousineau.
4.Membangun kemitraan yang terpercaya.
Cousineau mengatakan Thomson Reuters bekerja dengan berbagai individu dan organisasi untuk memastikan privasi, keamanan, dan tanggung jawab berada di depan dan di tengah semua kasus penggunaan AI. Kemitraan tersebut menjangkau lini bisnis dan melampaui firewall untuk menyertakan hubungan dengan pelanggan dan mitra teknologi, termasuk Snowflake.
Bagi Cousineau, AI yang bertanggung jawab kembali ke kemitraan dengan organisasi tepercaya. Ini tentang membangun infrastruktur dan menciptakan budaya kolaboratif tersebut.
“Pekerjaan itu adalah tentang kemampuan untuk memastikan model Anda transparan, bahwa Anda dapat menjelaskannya, dan bahwa mereka dapat ditafsirkan serta memperlakukan orang dan datanya secara adil. Ini juga tentang mempertimbangkan keberlanjutan dan daya komputasi yang diperlukan untuk mendukung model Anda,” ujar Cousineau.
5.Waspadai biaya keuangan
Saat Anda mulai bereksperimen dengan AI, Cousineau mengatakan penting untuk diingat bahwa menyalakan sistem bisa lebih mudah daripada mematikannya. Sama seperti para profesional yang menemukan bahwa sulit untuk memindahkan data mereka dari satu penyedia cloud ke penyedia cloud berikutnya, mereka juga harus menyadari potensi biaya saat membangun model AI dan mendukung infrastruktur teknologi informasi (TI). Oleh karena itu, AI yang bertanggung jawab melibatkan pemikiran tentang perencanaan keuangan jangka panjang.
Cousineau mengatakan waspadai kompleksitas biaya. Setelah Anda membangun AI generatif ke dalam kasus penggunaan Anda – dan itu adalah sesuatu yang ingin terus Anda gunakan di masa mendatang—maka akan sangat sulit untuk bermigrasi dari model bahasa yang besar itu, Cousineau menuturkan, jika Anda ingin beralih ke model bahasa yang berbeda, karena itu dipelajari dari sistem itu. “Jadi, biaya dalam pekerjaan migrasi sangat kompleks,” kata Cousineau.