OpenAI menghapus daftar tunggu untuk DALL-E 2, memungkinkan siapa saja untuk mendaftar • gerakanpintar.com

Beberapa bulan setelah meluncurkan DALL-E 2 sebagai bagian dari beta terbatas, OpenAI hari ini menghapus daftar tunggu untuk sistem penghasil gambar bertenaga AI, yang akan tetap dalam versi beta tetapi membiarkan siapa pun mendaftar dan mulai menggunakannya. Harga akan terbawa dari periode daftar tunggu, dengan pengguna pertama kali mendapatkan jumlah kredit terbatas yang dapat digunakan untuk menghasilkan atau mengedit gambar atau membuat variasi gambar yang ada.

“Lebih dari 1,5 juta pengguna sekarang secara aktif membuat lebih dari 2 juta gambar sehari dengan DALL-E — dari seniman dan direktur kreatif hingga penulis dan arsitek — dengan sekitar 100.000 pengguna berbagi kreasi dan umpan balik mereka di komunitas Discord kami,” tulis OpenAI dalam sebuah posting blog. “Belajar dari penggunaan di dunia nyata telah memungkinkan kami untuk meningkatkan sistem keamanan kami, memungkinkan ketersediaan yang lebih luas hari ini.”

OpenAI belum membuat DALL-E 2 tersedia melalui API, meskipun perusahaan mencatat dalam posting blog bahwa salah satunya sedang dalam pengujian. Merek seperti Stitch Fix, Nestlé, dan Heinz telah menguji coba DALL-E 2 untuk kampanye iklan dan kasus penggunaan komersial lainnya, tetapi sejauh ini hanya dalam mode ad hoc.

Seperti yang telah kami tulis sebelumnya, siklus rilis konservatif OpenAI tampaknya dimaksudkan untuk menumbangkan kontroversi yang berkembang di sekitar Stability AI’s Stable Diffusion, sistem penghasil gambar yang dapat digunakan dalam format sumber terbuka tanpa batasan apa pun. Difusi Stabil dikirimkan dengan mekanisme keamanan opsional. Tetapi sistem tersebut telah digunakan oleh beberapa orang untuk membuat konten yang tidak pantas, seperti kekerasan grafis dan pornografi, deepfake selebriti nonkonsensual.

Stability AI — yang telah menawarkan Stable Diffusion API, meskipun dengan pembatasan pada kategori konten tertentu — adalah subjek dari surat kritis baru-baru ini dari Perwakilan DPR AS Anna G. Eshoo (D-CA) kepada Penasihat Keamanan Nasional (NSA) dan Kantor Kebijakan Sains dan Teknologi (OSTP). Di dalamnya, dia mendesak NSA dan OSTP untuk mengatasi rilis “model AI yang tidak aman” yang “tidak memoderasi konten yang dibuat di platform mereka.”

Heinz DALL-E 2

Botol Heinz seperti yang “dibayangkan” oleh DALL-E 2. Kredit Gambar: Heinz

“Saya seorang pendukung untuk mendemokratisasikan akses ke AI dan percaya bahwa kita tidak boleh membiarkan mereka yang secara terbuka merilis model yang tidak aman ke internet untuk mendapatkan keuntungan dari kecerobohan mereka,” tulis Eshoo. “Alat penggunaan ganda yang dapat menyebabkan bahaya di dunia nyata seperti generasi pornografi anak, informasi yang salah, dan disinformasi harus diatur dengan tepat.”

Memang, saat mereka berbaris menuju mana-mana, pertanyaan etis dan hukum yang tak terhitung jumlahnya mengelilingi sistem seperti DALL-E 2, Midjourney dan Stable Diffusion. Awal bulan ini, Getty Images melarang unggahan dan penjualan ilustrasi yang dihasilkan menggunakan DALL-E 2, Stable Diffusion, dan alat sejenis lainnya, mengikuti keputusan serupa oleh situs termasuk Newgrounds, PurplePort, dan FurAffinity. CEO Getty Images Craig Peters mengatakan kepada The Verge bahwa larangan itu didorong oleh kekhawatiran tentang “masalah hak yang tidak tertangani,” karena set data pelatihan untuk sistem seperti DALL-E 2 berisi gambar berhak cipta yang diambil dari web.

Data pelatihan juga menghadirkan risiko privasi, seperti yang disoroti oleh laporan Ars Technica minggu lalu. Catatan medis pribadi — mungkin ribuan — adalah di antara banyak foto yang tersembunyi di dalam kumpulan data yang digunakan untuk melatih Difusi Stabil, menurut artikel tersebut. Menghapus catatan ini sangat sulit karena LAION bukanlah kumpulan file itu sendiri tetapi hanya sekumpulan URL yang menunjuk ke gambar di web.

Sebagai tanggapan, teknolog seperti Mat Dryhurst dan Holly Herndon mempelopori upaya seperti Source+, sebuah standar yang bertujuan untuk memungkinkan orang melarang pekerjaan atau kemiripan mereka digunakan untuk tujuan pelatihan AI. Tetapi standar-standar ini — dan kemungkinan akan tetap — sukarela, membatasi potensi dampaknya.

DALL-E 2 Eric Silberstein

Eksperimen dengan DALL-E 2 untuk visualisasi produk yang berbeda — dalam hal ini, lilin meriah. Kredit Gambar: Eric Silberstein

OpenAI telah berulang kali mengklaim telah mengambil langkah-langkah untuk mengurangi masalah seputar DALL-E 2, termasuk menolak unggahan gambar yang berisi wajah realistis dan upaya untuk membuat kemiripan tokoh publik, seperti tokoh politik dan selebriti terkemuka. Perusahaan juga mengatakan telah melatih DALL-E 2 pada kumpulan data yang difilter untuk menghapus gambar yang berisi konten kekerasan, seksual, atau kebencian yang jelas terlihat. Dan OpenAI mengatakan menggunakan campuran sistem pemantauan otomatis dan manusia untuk mencegah sistem menghasilkan konten yang melanggar persyaratan layanannya.

“Dalam beberapa bulan terakhir, kami telah membuat filter kami lebih kuat dalam menolak upaya untuk menghasilkan konten seksual, kekerasan, dan lainnya yang melanggar kebijakan konten kami, dan membangun teknik deteksi dan respons baru untuk menghentikan penyalahgunaan,” tulis perusahaan itu dalam posting blog yang diterbitkan. hari ini. “Menskalakan sistem secara bertanggung jawab sekuat dan serumit DALL-E — sambil mempelajari semua cara kreatif yang dapat digunakan dan disalahgunakan — memerlukan pendekatan penerapan berulang.”

By Sudiati

Related Post