Yapay zekânın IQ'su düşüyor! İşte en hızlı “beyni çürüyen” yapay zekâ modeli
Bilim insanları, yapay zekâ modellerinin internete yayılan düşük kaliteli içerikleri yeniden öğrenmesiyle “kognitif erozyon” yaşadığı uyarısında bulunuyor.
Son yıllarda hızla gelişen yapay zekâ teknolojisi, şimdi beklenmedik bir riskle gündemde. Bu risk “kognitif erozyon” ve “zihinsel çürüme" olarak adlandırılıyor. Bilim insanları, yapay zekâ modellerinin giderek artan tutarsızlık, hatalı veri üretimi ve kendi hatalarını tekrar öğrenme döngüsüne girmesiyle ciddi bir çöküş sürecine adım attığını belirtiyor. Bu erken safhaya literatürde “organizational decay” adı veriliyor.
KENDİ ÜRETTİĞİ İÇERİKLERİN GERİ POMPALANMASIYLA BAŞLAYAN DÖNGÜ

Uzmanlara göre temel sorun, yapay zekânın internete kendi ürettiği içerikleri geri pompalamasıyla başlayan “data feedback loop” (veri geri besleme döngüsü). Modeller, internette dolanıp tekrar kendilerine geri dönen hatalı verileri yeni gerçekmiş gibi öğreniyor. Bu durum, sistemlerin zamanla kendi ürettiği yanlış bilgileri “gerçek dünya bilgisi” zannetmesine neden oluyor. Dijital zihinlerdeki bozulma bu şekilde hızlanıyor.
EN HIZLI BEYNİ ÇÜRÜYEN YAPAY ZEKA MODELLERİ HANGİSİ?

Webtekno'nun aktardığı araştırmada en hızlı “beyni çürüyen” yapay zekâ modelinin Meta’nın LLama sistemi olduğu iddia edildi. Bilim insanları, modelin cümleleri karıştırmaya başladığını, hesaplamalarda hatalar yaptığını ve uydurma bilgiler üretmeye yatkın hale geldiğini dile getiriyor. Bulgulara göre model zamanla konudan koparak dikkat dağınıklığı yaşayan bir robot gibi davranmaya başladı.
YAPAY ZEKADA BOZULMAYI HIZLANDIRAN ETKENLER NELER?

Uzmanlar, yapay zekânın sürekli trend videolar, dramalar, clickbait içerikler ve etkileşim odaklı yüzeysel verilerle eğitilmesinin de bu bozulmayı hızlandırdığı görüşünde. Bu duruma metaforik olarak “beyin çürümesi” adı veriliyor.
Son dönemde bazı popüler platformlarda hazırlanan raporlar, “yapay zekânın IQ’su düşüyor” iddiasını da gündeme taşıdı. Bunun nedeni olarak ise interneti dolduran düşük kaliteli, tekrarlı ve hatalı içerikler gösteriliyor.
Bilim insanları, yapay zekânın gelecekte güvenilirliğini koruyabilmesi için acil önlem alınması gerektiğini belirterek, temiz veri altyapısı, daha kontrollü eğitim süreçleri ve bağımsız doğrulama mekanizmalarının önemine dikkat çekiyor.