Categories: Yapay Zeka

OpenAI Yönetim Kuruluna “Anti-Sam Altman” Yetkisi Verildi: Tehlikeli Görülen Yapay Zekâ Çalışmaları Veto Edilebilecek

Son dönemde Sam Altman’ın görevden alınması, sonra geri dönmesi ve yönetim kurulunu değiştirmesi ile epey gündem olan OpenAI hakkında ortaya atılan iddialardan biri, üstün ve tehlikeli bir yapay zekâ geliştirdikleri yönündeydi. OpenAI, o konuda bir açıklama yapmaya gerek duymadıysa da yapay zekâ güvenliğini öne alan düzenlemeler yaptı. 

OpenAI öncelikle “güvenlik danışmanlık grubu” adını verdiği bir ekip oluşturdu. Bu ekip kurumun teknik ekiplerinin üstünde konuşlandırıldı ve teknik ekiplere liderlik tavsiyelerinde bulunacak. Ayrıca OpenAI Yönetim Kurulu, bundan sonra tehlikeli gördüğü yapay zekâ projelerini veto etme hakkına kavuştu. 

Yeni bir “güvenlik danışmanlık grubu” kuruldu, yönetime veto hakkı geldi

Hemen her firmada dönem dönem bu türden değişiklikler yapılıyor olsa da, OpenAI’ın böyle bir değişiklik yapması, son zamanlarda yaşanan olayları ve iddiaları göz önüne aldığımızda büyük önem taşıyor. Sonuçta OpenAI, yapay zekâ alanında öncü kurum durumunda bulunuyor ve bu alandaki güvenlik önlemleri büyük önem taşıyor. 

OpenAI’ın bir blog gönderisi ile açıkladığı yeni düzenleme, “Hazırlıklılık Çerçevesi” olarak adlandırıldı. Kasım ayında yönetim kurulunun agresif büyümeye karşı olmasıyla bilinen iki üyesi, Ilya Sutskever ve Helen Toner kuruldan çıkarılmıştı. Yeni düzenleme ile birlikte “yıkıcı” yapay zekâların tanımlanması, analiz edilmesi ve alınacak aksiyonlara karar verilmesi için bir rehber oluşturulmuş da oldu. 

Yeni şirket içi düzenlemeye göre, güvenlik sistemi takımı üretimdeki modelleri yönetecek. ChatGPT’nin sistematik kötüye kullanımlarını API’lerde sınırlama gibi görevler, bu ekibe düşecek. Hazırlıklılık takımı ise öncül modellerden sorumlu olacak ve olası riskleri tespit edip önlem almaya odaklanacak. Süperyönelim ekibi adı verilen ekip ise süper yapay zekâ modelleri için teorik yönlendirmeleri geliştirecek. Her bir ekip, sorumlu oldukları modelleri “siber güvenlik”, “ikna”, “otonomi”, “CBRN” (Kimyasal, biyolojik, radyolojik ve nükleer tehditler) açısından değerlendirecek. 

OpenAI henüz bu değerledirmelerin nasıl yapılacağına dair bir bilgi paylaşmazken, fonksiyonlar arası güvenlik danışmanları grubu bu çalışmaları genel olarak denetleyecek ve liderlik etmelerine yardımcı olacak. 

Kaynak:  Webtekno

Şinasi Kaya

Recent Posts

Yapay Zeka Destekli Film Seti Gezi Akımı: Adım Adım Uygulama Rehberi

Yapay zeka destekli film seti gezisini adım adım rehberle keşfedin: etkileyici uygulama ipuçları ve pratik…

1 dakika ago

Ubisoft Connect’te Kış İndirimleri: Winnerleri ve Düşen Fiyatlar

Ubisoft Connect’te kış indirimleri: ödüller, düştüğünüz fiyatlar ve en iyi kazançlar için hızlı, akıcı bir…

49 dakika ago

Wild Terra 2: New Lands Steam Ücretsiz Erişim: Kütüphanenize Anlık Dahil Olun

Wild Terra 2: Yeni Ülkeler – Steam Ücretsiz Erişim şimdi! Kütüphanenize anlık dahil edin, keşfetmeye…

1 saat ago

2025 Steam Retrospektifi: Oyuncular Hangi Oyunlarda En Çok Zaman Geçirdi?

2025 Steam Retrospektifi: Oyuncular hangi oyunlarda en çok zaman geçirdi? En çok oynanan başlıklar ve…

1 saat ago

Steam Türkiye: 9-16 Aralık’ta En Çok Satılan Oyunlar ve Güncel İndirimler

Steam Türkiye: 9-16 Aralık'ta en çok satılan oyunlar ve güncel indirimler hakkında kapsamlı rehber. Fırsatlar,…

1 saat ago

iPhone Air 2: Düşen Fiyatla İkinci Kamera, Yükselen İlgi

iPhone Air 2: Düşen fiyatla ikinci kamera tarafında artan ilgi ve avantajlı özelliklerle öne çıkan…

2 saat ago