Sebuah studi dari Stanford Internet Observatory mengungkapkan bahwa lebih dari seribu gambar materi penyalahgunaan seksual anak ditemukan dalam dataset LAION 5B, yang digunakan untuk melatih model AI penghasil gambar. Temuan ini memicu keprihatinan terkait keamanan dan sifat samar data pelatihan.
LAION, penyedia dataset asal Jerman, menanggapi laporan dengan mengatakan bahwa mereka memiliki “kebijakan nol toleransi untuk konten ilegal” dan sedang meninjau temuan tersebut. Dataset LAION 5B telah dinonaktifkan sebagai tindakan pencegahan.
Tim peneliti Stanford melaporkan URL gambar ke otoritas, dan LAION berkolaborasi dengan Internet Watch Foundation untuk menghapus tautan yang dapat mengarah ke konten mencurigakan. Pihak LAION mengatakan bahwa pihaknya telah mencoba menyaring konten eksplisit.
Model AI Stable Diffusion Juga Gunakan?
Bukan hanya LAION saja, model penghasil gambar populer, Stable Diffusion 1.5 juga ternyata diketahui juga memiliki masalah serupa. Perusahaan pemilik Stable Diffusion yaitu Stablity AI, akhirnya berkomentar soal ini.
Stablity AI menyebutkan bahwa Stablet Diffusion 1.5 bukanlah model AI yang dirilis oleh Stability AI, melainkan perusahaan lain tepisah. Sementara itu, untuk versi terbaru yaitu Stable Diffusion 2.0 yang dirlis oleh Stability AI, diklaim lebih telah lebih aman.
Baca Juga: Kominfo Rilis Pedoman Etika Penggunaan AI • HOOQ.ID
Stability AI menyatakan bahwa produk mereka hanya menyertakan filter untuk menghilangkan konten tidak aman sebelum mencapai model yang dirilis. Mereka menekankan larangan penggunaan produk mereka untuk aktivitas ilegal.
Peneliti Stanford pun merekomendasikan penghentian distribusi model berbasis Stable Diffusion 1.5, yang masih populer di beberapa tempat di internet.
Secara umum, laporan dari hasil penelitian ini menyarankan penggunaan dataset web-scale besar dibatasi hanya untuk kebutuhan penelitian. Sementara untuk model yang didistribusikan secara publik, harus menggunakan dataset yang lebih dikurasi dan terverifikasi.
Sumber