Tekno Takip

Enteresan suçlama! Yapay zeka çocuk istismarına karşı müşahede altında!

Ulaş Utku Bozdoğan: Enteresan suçlama! Yapay zeka çocuk istismarına karşı müşahede altında! 1

Stanford araştırmacıları, bilgi kümesinde CSAM’nin varlığının, bilgiler üzerinde eğitilen yapay zeka modellerinin yeni ve hatta gerçekçi CSAM örnekleri oluşturmasına imkan sağlayabileceğini belirtiyor.

Veri setini oluşturan kar hedefi gütmeyen kuruluş LAION, birinci etapta data kümelerini yayınlamadan evvel yasa dışı içeriği tespit etmek ve bunlardan kaldırmak için filtreler oluşturduğunu söyledi. Lakin 404, LAION başkanlarının en az 2021’den bu yana, internetten milyarlarca imgeyi süpürürken sistemlerinin CSAM’i alma ihtimalinin olduğunun farkında olduğuna dikkat çekiyor.

İlginç suçlama! Yapay zeka çocuk istismarına karşı müşahede altında!

Önceki raporlara nazaran, kelam konusu LAION-5B bilgi seti “milyonlarca pornografi, şiddet, çocuk çıplaklığı, ırkçı memler, nefret sembolleri, telif hakkıyla korunan sanat yapıtları ve özel şirket web sitelerinden alınmış eserler” içeriyor. Genel olarak 5 milyardan fazla görsel ve ilgili açıklayıcı başlık içeriyor. LAION’un kurucusu Christoph Schuhmann, bu yılın başlarında data setindeki rastgele bir CSAM’den haberdar olmadığını fakat bilgileri çok derinlemesine incelemediğini söyledi.

ABD’deki çoğu kurumun doğrulama hedefiyle CSAM’i görüntülemesi yasa dışı. Bu nedenle Stanford araştırmacıları potansiyel CSAM’yi aramak için çeşitli teknikler kullandılar. Makalelerine nazaran, “algısal karma tabanlı algılama, kriptografik karma tabanlı algılama ve bilgi kümesindeki imaj yerleştirmelerinden yararlanan en yakın komşu analizini” kullandılar. Kuşkulu CSAM içeren 3.226 giriş buldular. Bu imgelerin birçoklarının CSAM olduğu PhotoDNA ve Kanada Çocuk Müdafaa Merkezi üzere üçüncü taraflarca doğrulandı.

Exit mobile version