REPUBLIKA.CO.ID, JAKARTA — Microsoft telah membangun superkomputer untuk rintisan penelitian kecerdasan buatan (AI) OpenAI. Mereka memasukkan ribuan chip grafis Nvidia A100 untuk mendukung chatbot ChatGPT dan Bing AI.
Pembuat Windows itu menginvestasikan 1 miliar dolar AS dalam OpenAI pada 2019, dan telah setuju untuk membangun superkomputer canggih dan masif. Dilansir dari GadgetsNow, Kamis (16/3/2023), berikut adalah beberapa hal yang perlu diketahui tentang superkomputer Microsoft.
Mengapa Microsoft membangun superkomputer?
Tujuan membangun superkomputer ini adalah untuk menyediakan daya komputasi yang cukup, yang dibutuhkan untuk melatih kembali kumpulan model AI yang semakin besar, dengan volume data yang besar untuk jangka waktu yang lama.
“Salah satu hal yang kami pelajari dari penelitian adalah semakin besar modelnya, semakin banyak data yang kita miliki. Dan semakin lama kita bisa berlatih, semakin baik akurasi modelnya,” kata Kepala Produk Microsoft untuk Azure High, Nidhi Chappell.
Akan selalu ada dorongan kuat untuk melatih model yang lebih besar untuk jangka waktu yang lebih lama. Ini berarti Microsoft tidak hanya perlu memiliki infrastruktur terbesar, tetapi juga harus dapat menjalankannya dengan andal untuk jangka waktu yang lama.
Pada konferensi pengembang Build tahun 2020, Microsoft mengumumkan bahwa mereka sedang membangun superkomputer bekerja sama secara eksklusif untuk OpenAI, dihosting di Azure dan dirancang khusus untuk melatih model AI.
“Mendesain bersama superkomputer dengan Azure sangat penting untuk meningkatkan kebutuhan pelatihan AI kami, memungkinkan penelitian dan penyelarasan kami bekerja pada sistem seperti ChatGPT,” kata presiden dan salah satu pendiri OpenAI, Greg Brockman.
Seperti apa arsitektur superkomputer Microsoft?
Microsoft menyatukan puluhan ribu chip grafis Nvidia A100 untuk melatih model AI, dan mengubah caranya memposisikan server di rak untuk mencegah pemadaman listrik.
“Kami membangun arsitektur sistem yang dapat beroperasi dan dapat diandalkan dalam skala yang sangat besar. Itulah yang menyebabkan ChatGPT menjadi mungkin. Itu salah satu model yang keluar darinya. Dan akan ada banyak yang lainnya,” kata Chappell.
Mengenai harga, wakil presiden eksekutif Microsoft yang mengawasi cloud dan AI, Scott Guthrie, mengatakan bahwa biaya proyek ini mungkin lebih besar dari beberapa ratus juta dolar AS.
Akankah Microsoft Azure mendapatkan lebih banyak kekuatan?
Untuk memproses dan melatih model, OpenAI juga membutuhkan lebih dari sekadar superkomputer yakni penyiapan cloud yang andal. Microsoft telah bekerja untuk membuat kemampuan AI Azure Cloud lebih kuat, dengan mesin virtual baru yang menggunakan GPU Nvidia H100 dan A100 Tensor Core bersama dengan jaringan Quantum-2 InfiniBand.
Dengan itu, Microsoft akan mengaktifkan OpenAI dan perusahaan lain (yang sekarang menggunakan chatbot AI) akan mengandalkan Azure untuk melatih model AI yang lebih besar dan lebih kompleks.
Microsoft melihat bahwa mereka perlu membangun kluster tujuan khusus, yang berfokus pada memungkinkan beban kerja pelatihan yang besar dan OpenAI sebagai salah satu bukti awal untuk itu.
“Kami bekerja sama dengan mereka untuk mempelajari hal-hal utama yang mereka cari, saat mereka membangun lingkungan pelatihan dan hal-hal utama yang mereka butuhkan,” kata Wakil Presiden Korporat Azure AI dari Microsoft, Eric Boyd.