Yapay zeka artık sadece araç değil, stratejik bir aktör

Anthropic ve Carnegie Mellon Üniversitesinin ortak çalışması, yapay zekanın insan komutu olmadan karmaşık bir siber saldırıyı baştan sona gerçekleştirebildiğini ortaya koydu. Deney, gelecekteki güvenlik riskleri konusunda önemli uyarılar içeriyor.

Yapay zeka teknolojilerinin geldiği nokta, artık yalnızca içerik üretimi ya da otomasyonla sınırlı değil. Anthropic ve Carnegie Mellon Üniversitesi iş birliğiyle yürütülen yeni bir araştırma, büyük dil modellerinin (LLM) doğrudan komut almadan karmaşık siber saldırılar planlayabildiğini ve uygulayabildiğini ortaya koydu.

Araştırma kapsamında test edilen yapay zeka modeli, 2017 yılında meydana gelen ve 147 milyon Amerikalının kişisel verisinin sızdırıldığı Equifax veri ihlalini, kontrollü bir laboratuvar ortamında kendi başına yeniden gerçekleştirdi. Üstelik bu süreçte herhangi bir insan müdahalesi olmadan; planlama, zararlı yazılım yükleme ve veri sızdırma aşamalarının tamamı model tarafından yürütüldü.

YAPAY ZEKA YÖNETİCİ GİBİ DAVRANDI, GÖREVLERİ BÖLDÜ

Araştırmanın en dikkat çeken noktalarından biri ise modelin yalnızca teknik komutları yürütmekle kalmayıp, görevleri alt ajanlara bölerek adeta bir yönetici gibi hareket etmesiydi. Bu yönüyle yapay zeka, klasik anlamda bir araçtan çok, stratejik kararlar alabilen ve bu kararları yönlendiren bir planlayıcı aktör gibi işlev gördü. Sistem; komut satırlarını, log dosyalarını ve diğer teknik verileri etkili şekilde analiz ederek karmaşık saldırı zincirini organize etmeyi başardı.

Araştırmayı yöneten isimlerden Brian Singer, yapay zekanın bu planlama kabiliyetinin mevcut kullanım alanlarının çok ötesine geçtiğini vurgulayarak, bu tür sistemlerin yalızca görev bazlı çalışan bir araç olmadığını ve aynı zamanda çok aşamalı süreçleri yöneten bir karar vericiye dönüştüklerinin altını çizdi.

SİBER GÜVENLİK ÇÖZÜMLERİ YETERLİ KALMAYABİLİR

Her ne kadar testler laboratuvar ortamında gerçekleştirilmiş olsa da, ortaya çıkan sonuçlar yapay zekanın kötü niyetli kişilerin eline geçtiğinde ciddi güvenlik tehditlerine yol açabileceğini gözler önüne seriyor. Uzmanlar, mevcut antivirüs ve siber güvenlik çözümlerinin bu kadar otonom, çevik ve stratejik hareket edebilen sistemlere karşı yetersiz kalabileceği uyarısında bulunuyor.

Bu çalışma aynı zamanda, yapay zekanın etik, güvenlik ve kontrol alanlarındaki sınırlarının yeniden değerlendirilmesi gerektiğini de ortaya koyuyor. Zira büyük dil modellerinin yalnızca dil işleme değil, bağımsız karar alma ve saldırı planları yürütme gibi yeteneklere de sahip olması, teknolojinin geleceği açısından yeni soruları gündeme taşıyor.

Uzmanlara göre, bu tür araştırmalar sayesinde potansiyel tehditler önceden simüle edilerek bazı güvenlik açıkları oluşmadan kapatılabilir ancak yapay zekanın bu denli hızlı geliştiği bir çağda, önlem almak da her geçen gün daha karmaşık bir sürece dönüşüyor.

SON DAKİKA HABERLERİ
Sonraki Haber