Yapay zeka ile çocuk istismarı! Çocuk istismarı materyallerinde yüzde 400 artış
2025’in ilk yarısında AI üretimi çocuk istismarı materyalleri yüzde 400 arttı. Sosyal medyadan çalınan çocuk fotoğrafları sahte videolara dönüştürülüyor. Ebeveyn paylaşımları riski körüklüyor, mevcut filtreler çok dilli içerikte yetersiz kalıyor, acil denetim ihtiyacı öne çıkıyor.
2025’in ilk yarısında, yapay zeka (AI) ile üretilen çocuk cinsel istismarı materyallerinde (CSAM) yüzde 400’lük bir artış kaydedildi. Deutsche Welle’nin Internet Watch Foundation (IWF) verilerine dayandırdığı habere göre, istismarcılar sosyal medyadan çaldıkları çocuk fotoğraflarını AI araçlarıyla manipüle ederek sahte istismar videoları üretiyor. Bu durum, çocuk güvenliğini tehdit eden ciddi bir sorun olarak öne çıkıyor. Ebeveynlerin sosyal medya paylaşımları, bu materyallerin temel kaynağı haline geliyor.
AI İLE CSAM ÜRETİMİNDE BÜYÜK ARTIŞ

IWF’nin 2025’in ilk altı ayına ait raporuna göre, AI ile üretilmiş bin 286 CSAM videosu doğrulandı. Bu, 2024’ün aynı döneminde tespit edilen yalnızca iki videoya kıyasla büyük bir sıçrama. ABD Ulusal Kayıp ve Sömürülen Çocuklar Merkezi (NCMEC), aynı dönemde 485 bin AI bağlantılı CSAM raporu aldı; bu, 2024’ün tamamından yedi kat fazla. İstismarcılar, Instagram, TikTok ve Facebook’tan indirilen çocuk fotoğraflarını, Stable Diffusion gibi AI modellerine yükleyerek gerçekçi videolar oluşturuyor. Amazon 380 bin, OpenAI ise 75 bin vakayı tespit edip kaldırdı. Ancak, bu içeriklerin çoğu tespit edilmeden önce hızla yayılıyor. İngilizce içeriklerde filtreleme yapılsa da, birçok dilde bu önlemler yetersiz kalıyor.
EBEVEYN PAYLAŞIMLARI VE RİSKLER

Sosyal medyada ebeveynlerin çocuklarının fotoğraflarını paylaşması, istismarcılar için kolay bir hedef sunuyor. Okul etkinlikleri, tatil anları veya günlük aktivitelerin yer aldığı görüntüler, AI ile manipüle edilerek istismar materyallerine dönüştürülüyor. Örneğin, bir doğum günü partisi fotoğrafı, sahte bir istismar videosuna malzeme olabiliyor. Uzmanlar, ebeveynlerin konum bilgisi paylaşmaktan kaçınmasını, gizlilik ayarlarını sıkılaştırmasını ve çocuk yüzlerini bulanıklaştırmasını öneriyor. Ancak, birçok ebeveyn bu riskleri göz ardı ederek masum anılarını paylaşmaya devam ediyor, bu da istismarcıların işini kolaylaştırıyor.
KÜRESEL ÇÖZÜM ARAYIŞLARI

IWF ve NCMEC, ebeveynlere “Paylaşmadan önce düşün” kampanyalarıyla farkındalık yaratıyor. Avrupa Birliği, AI ile üretilen CSAM’ı suç kapsamına alan yasaları 2025’te genişletti. ABD’de Senatörler Cornyn ve Kim, AI veri setlerinin CSAM’dan arındırılmasını zorunlu kılan bir yasa tasarısı sundu. Europol, Şubat 2025’te 19 ülkede 25 şüpheliyi gözaltına aldı. Teknoloji şirketleri, AI modellerine CSAM filtreleri entegre etmeye çalışıyor, ancak yasal boşluklar ve çok dilli içeriklerdeki filtreleme eksiklikleri nedeniyle sorun devam ediyor. Sosyal medya platformlarına daha sıkı denetim çağrıları artıyor.