Mereka menemukan 3.226 entri yang diduga mengandung CSAM. Banyak dari gambar tersebut yang dikonfirmasi sebagai CSAM oleh pihak ketiga seperti PhotoDNA dan Pusat Perlindungan Anak Kanada.
Pendiri Stability AI, Emad Mostaque, melatih Difusi Stabil menggunakan subset data LAION-5B. Versi penelitian pertama model teks-ke-gambar Imagen Google dilatih pada LAION-400M, tetapi tidak pernah dirilis, Google mengatakan bahwa tidak ada satu pun dari iterasi Imagen itu yang menggunakan kumpulan data LAION.
Juru bicara Stability AI mengatakan kepada Bloomberg bahwa mereka melarang penggunaan sistem teks-ke-gambar untuk tujuan ilegal, seperti membuat atau mengedit CSAM. “Laporan ini berfokus pada kumpulan data LAION-5B secara keseluruhan,” kata juru bicara tersebut.
“Model AI stabilitas dilatih pada subset yang difilter dari kumpulan data tersebut. Selain itu, kami menyempurnakan model ini untuk memitigasi perilaku yang tersisa.”