Stanford Üniversitesi merkezli izleme grubu Stanford İnternet Gözlemevi’nin (Stanford Internet Observatory) 20 Aralık’ta yayınlanan raporuna göre, görsel üreten kimi yapay zeka uygulamalarının içinde binlerce çocuk istismarı görüntüsü gizli.
Yapay zeka sistemleri, bu görüntüleri kullanarak çocukların gerçekçi ve müstehcen görüntülerini üretebiliyor. Aynı şekilde gençlerin, sosyal medyada kullandığı fotoğrafları çıplak hale getirmesini kolaylaştırıyor. Rapor, yapay zeka teknolojisi geliştiren şirketleri bu kusuru gidermeye çağırıyor.
Bu durum dünyanın dört bir yanındaki okul ve kolluk kuvvetlerini alarma geçirdi. Çocuklara ait istismar görüntülerinin yakın zamana kadar, kontrol edilemeyen kimi yapay zeka araçları tarafından ve yetişkin pornografisi görüntüleri ve çocukların normal görüntüleri birleştirilerek oluşturulduğu sanılıyordu.
Gelgelelim Stanford İnternet Gözlemevi, Stable Diffusion gibi önde gelen yapay zeka görüntü oluşturucularını eğitmek için kullanılan çevrimiçi görüntülerin ve başlıkların bir dizini olan dev yapay zeka veritabanı LAION'da çocuk cinsel istismarı şüphesi taşıyan 3 bin 200'den fazla görüntü buldu.
Gözlemevi, yasadışı materyalleri tespit etmek ve orijinal fotoğraf bağlantılarını kolluk kuvvetlerine bildirmek için Kanada Çocuk Koruma Merkezi ve diğer istismar karşıtı kurumlarla çalıştı. Bulduğu görüntülerin, yaklaşık bin tanesi haricinde doğrulandığını söyledi.
Rapora tepkiler
Rapora tepkiler gecikmedi. Çarşamba günü yayınlanmasının hemen ardından LAION, Associated Press'e veri setlerini geçici olarak kaldırdığını söyledi.
Kâr amacı gütmeyen Büyük Ölçekli Yapay Zeka Açık Ağı anlamına gelen LAION yaptığı açıklamada, "yasadışı içeriğe karşı sıfır tolerans politikasına sahip olduğunu ve ihtiyatlı davranarak LAION veri setlerini yeniden yayınlamadan önce güvenli olduklarından emin olmak için kaldırdıklarını" bildirdi.
“Görüntüler çocuk istismarı olasılığını yükseltiyor”
Görüntüler LAION'un yaklaşık 5,8 milyar görüntüden oluşan endeksinin sadece bir kısmını oluştursa da Stanford grubu, yapay zeka araçlarının zararlı çıktılar üretme yeteneğini desteklediğini ve birden çok kez görünen gerçek kurbanların, önceki istismarını güçlendirdiğini söylüyor.
Raporu kaleme alan Stanford İnternet Gözlemevi'nin baş teknoloji uzmanı David Thiel, düzeltilmesi kolay bir sorun olmadığını ve alanın çok rekabetçi olması nedeniyle birçok yapay zeka projesinin "etkin bir şekilde piyasaya sürüldüğünü" ve geniş çapta erişilebilir hale getirildiğini söyledi.
Thiel verdiği bir röportajda, “İnternet çapında bir veri setinin tamamını alıp modelleri eğitmek için kullanmak, olsa olsa bir araştırma operasyonuyla sınırlı kalması gereken bir şeydir ve çok daha titiz bir dikkat gösterilmeden açık kaynaklı hale getirilmemelidir" dedi.
Veri setinin geliştirilmesine yardımcı olan önde gelen LAION kullanıcılarından biri de, Stable Diffusion isimli, metinden görüntüye modellerinin üreticisi olan Londra merkezli startup Stability AI.
Stanford raporuna göre, Stable Diffusion'ın yeni sürümleri zararlı içerik oluşturmayı çok daha zor hale getirdi. Ancak geçen yıl tanıtılan ve Stability AI'nin yayınlamadığını söylediği eski bir sürüm, diğer uygulamalarda ve araçlarda hala yer alıyor. Bu sürüm "açık görüntüler oluşturmak için en popüler model" olmaya devam ediyor.
Sektördeki şüpheliler
Kanada'nın çevrimiçi cinsel istismarı bildirme hattını işleten Kanada Çocuk Koruma Merkezi'nin bilgi teknolojileri direktörü Lloyd Richardson, "Bunu geri alamayız. Bu model birçok insanın elinde" dedi.
Stability AI, 20 Aralık’ta yaptığı açıklamada, Stable Diffusion'ın yalnızca filtrelenmiş versiyonlarına ev sahipliği yaptığını ve "Stable Diffusion'ın özel geliştirmesini devraldığından beri, Stability AI'nın kötüye kullanım riskini azaltmak için proaktif adımlar attığını" söyledi.
Şirketten yapılan açıklamada, "Bu filtreler güvenli olmayan içeriğin modellere ulaşmasını engelliyor" denildi. "Bu içeriği modele ulaşmadan önce kaldırarak, modelin güvenli olmayan içerik üretmesini önlemeye yardımcı olabiliriz" denildi.
“Amaç tekelleşmeyi önlemekti”
LAION, Alman bir araştırmacı ve öğretmen olan Christoph Schuhmann'ın fikriydi ve Schuhmann bu yılın başlarında AP'ye verdiği demeçte, böylesine büyük bir görsel veri tabanını kamuya açık hale getirmenin nedenlerinden birinin, yapay zeka gelişiminin geleceğinin bir avuç güçlü şirket tarafından kontrol edilmemesini sağlamak olduğunu söyledi.
Schuhmann, "Araştırma topluluklarının ve tüm halkın bundan faydalanabilmesi için bunu demokratikleştirmek, çok daha güvenli ve çok daha adil olacaktır" dedi.
LAION'un verilerinin çoğu başka bir kaynaktan, açık internetten sürekli olarak taranan bir veri deposu olan Common Crawl'dan geliyor. Fakat Common Crawl'ın yönetici direktörü Rich Skrenta, LAION'un kullanmadan önce aldığı verileri taramanın ve filtrelemenin "görevi" olduğu görüşünde.
“Çocuk güvenliği uzmanlarına danışsalardı daha iyi bir iş çıkarabilirlerdi”
LAION bu hafta yaptığı açıklamada, veri setlerini yayınlamadan önce yasadışı içeriği tespit etmek ve kaldırmak için "titiz filtreler" geliştirdiğini ve bu filtreleri iyileştirmek için hala çalıştığını belirtti.
Stanford raporu, LAION geliştiricilerinin "reşit olmayan" müstehcen içeriği filtrelemek için bazı girişimlerde bulunduğunu, ancak daha önce çocuk güvenliği uzmanlarına danışmış olsalardı daha iyi bir iş çıkarmış olabileceklerini kabul etti.
Metinden görüntü oluşturan birçok uygulama, LAION veritabanından türetildi. Ancak bu uygulamaların hangileri olduğu tam olarak bilinmiyor.
DALL-E ve ChatGPT'nin yapımcısı OpenAI, LAION kullanmadığını ve modellerini, reşit olmayanların cinsel içerik taleplerini reddedecek şekilde ayarladığını söyledi.
Google, metinden görüntüye Imagen modelini LAION veri setini temel alarak oluşturdu ancak veri tabanında yapılan bir denetimde "pornografik görüntüler, ırkçı hakaretler ve zararlı sosyal stereotipler de dahil olmak üzere çok çeşitli uygunsuz içeriklerin ortaya çıkmasının" ardından 2022 yılında bunu kamuya açıklamaktan vazgeçti.
“Temizlemek çok zor”
Verileri geriye dönük olarak temizlemeye çalışmak zor. Bu nedenle Stanford İnternet Gözlemevi daha sert önlemler alınması çağrısında bulunuyor.
Bunlardan biri, içerdiği 5 milyardan fazla resim-metin çifti nedeniyle LAION-5B'den eğitim setleri oluşturan herkesin "bunları silmesi ya da materyali temizlemek için aracılarla çalışması".
Bir diğeri ise Stable Diffusion'ın eski bir versiyonunu internetin en karanlık köşeleri hariç her yerden etkili bir şekilde ortadan kaldırmak.
Thiel'e göre, “meşru platformlar, özellikle de sıklıkla kötü niyetli görüntü üretmek için kullanılıyorlarsa ve bunları engellemek için hiçbir güvenceye sahip değillerse, bu sürümleri tedarik etmeyi kesebilir.”
Thiel örnek olarak, yapay zeka tarafından üretilen pornografi görüntülerini tercih edenlerin kullandığı, ama çocuk görüntülerine karşı güvenlik önlemlerinden yoksun bir platform olan CivitAI'yi gösterdi.
Rapor ayrıca, modellerin eğitim verilerini dağıtan yapay zeka şirketi Hugging Face'e, istismarcı materyallere yönelik bağlantıları bildirmek ve kaldırmak için daha iyi yöntemler uygulaması çağrısında bulunuyor.
Hugging Face, taciz içeren materyalleri tespit etmek ve kaldırmak için düzenleyiciler ve çocuk güvenliği gruplarıyla düzenli olarak çalıştığını söyledi. Bu arada CivitAI, çocukları tasvir eden görüntülerin oluşturulması konusunda katı politikaları olduğunu ve daha fazla koruma sağlamak için güncellemeler yaptığını söyledi. Şirket ayrıca, teknoloji geliştikçe politikalarının "uyum sağlaması ve büyümesi" için çalıştığını söyledi.
Çocuk fotoğrafları için ailelerin rızasının alınması
Stanford raporu ayrıca, Çocukların Çevrimiçi Gizliliğini Koruma Yasası'ndaki korumalar nedeniyle çocuk fotoğraflarının, en masum olanlar dahil, ailelerinin rızası olmadan yapay zeka sistemlerine yüklenip yüklenmemesi gerektiğini de sorguluyor.
Çocuk istismarıyla mücadele kuruluşu Thorn'un veri bilimi direktörü Rebecca Portnoff, kuruluşunun, istismarcılar arasında yapay zeka tarafından üretilen görüntülerin yaygınlığının düşük olduğunu, ancak sürekli olarak arttığını gösteren araştırmalar yaptığını söyledi.
Geliştiriciler, yapay modelleri geliştirmek için kullandıkları veri kümelerinin istismar materyallerinden arındırılmış olduğundan emin olarak bu zararları azaltabilir. Portnoff, modeller dolaşıma girdikten sonra da zararlı kullanımları azaltmak için fırsatlar olduğu görüşünde.
Teknoloji şirketleri ve çocuk güvenliği grupları şu anda çocuk istismarı materyallerini izlemek ve kaldırmak için, videolara ve görüntülere taklit edilemez bir dijital imza (hash) atıyor.
Portnoff'a göre aynı uygulama, kötüye kullanılan yapay zeka modellerinde de yapılabilir. Ancak bu uygulama pek şirket tarafından halen hayata geçirilmiyor.
Forum