DeepSeek Yapay Zekâ Modelinin Güvenlik Açıkları
Yeni nesil yapay zekâ modeli DeepSeek, güvenlik önlemlerini aşabilen yöntemlere karşı son derece savunmasız olduğu tespit edildi. Gerçekleştirilen kapsamlı testlerde, en basit “jailbreak” teknikleriyle manipüle edilebildiği ve bomba yapımı ile hükümetin veritabanlarına sızma gibi son derece tehlikeli konularda bilgi verebildiği ortaya kondu. Güvenlik araştırmacıları, DeepSeek üzerinde 50 farklı güvenlik testi uyguladı ve modelin, basit manipülasyonlar aracılığıyla engellenmesi gereken içerikleri paylaşmaya başladığı gözlemlendi.
Basit Manipülasyonlarla Yasa Dışı İçeriklere Kapı Aralıyor
Bilhassa bomba yapımı gibi hassas konularda bilgi paylaşabilmesi, son derece endişe verici bir durum olarak değerlendirildi. Örneğin, yapay zekâya bir film karakteri olduğu senaryosu sunulduğunda, bomba yapımıyla ilgili adımları detaylandırarak yanıt vermesi dikkat çekti. Ayrıca, kendisinden bir SQL sorgusu oluşturması istendiğinde, yasa dışı madde üretimiyle ilgili bilgiler içeren bir kod ürettiği belirlendi. Bunun yanı sıra, kelimelerin matematiksel temsillerine dayalı manipülasyonlar gerçekleştirildiğinde, güvenlik önlemlerini aşarak istenmeyen içerikleri paylaşabildiği tespit edildi.
Yapılan testlerde, DeepSeek’in mevcut güvenlik önlemlerini aşabildiği net bir şekilde ortaya kondu. Araştırmacılar, modelin uygulanan 50 farklı testin tamamında başarısız olduğunu ve bu durumun yapay zekâ modelinin kötüye kullanım potansiyelini artırdığını vurguladı. Bu bulgular, yapay zekâ güvenliğiyle ilgili ciddi endişeleri gündeme getirdi.
Kaynak: Webtekno