Categories: Yapay Zeka

OpenAI Yönetim Kuruluna “Anti-Sam Altman” Yetkisi Verildi: Tehlikeli Görülen Yapay Zekâ Çalışmaları Veto Edilebilecek

Son dönemde Sam Altman’ın görevden alınması, sonra geri dönmesi ve yönetim kurulunu değiştirmesi ile epey gündem olan OpenAI hakkında ortaya atılan iddialardan biri, üstün ve tehlikeli bir yapay zekâ geliştirdikleri yönündeydi. OpenAI, o konuda bir açıklama yapmaya gerek duymadıysa da yapay zekâ güvenliğini öne alan düzenlemeler yaptı. 

OpenAI öncelikle “güvenlik danışmanlık grubu” adını verdiği bir ekip oluşturdu. Bu ekip kurumun teknik ekiplerinin üstünde konuşlandırıldı ve teknik ekiplere liderlik tavsiyelerinde bulunacak. Ayrıca OpenAI Yönetim Kurulu, bundan sonra tehlikeli gördüğü yapay zekâ projelerini veto etme hakkına kavuştu. 

Yeni bir “güvenlik danışmanlık grubu” kuruldu, yönetime veto hakkı geldi

Hemen her firmada dönem dönem bu türden değişiklikler yapılıyor olsa da, OpenAI’ın böyle bir değişiklik yapması, son zamanlarda yaşanan olayları ve iddiaları göz önüne aldığımızda büyük önem taşıyor. Sonuçta OpenAI, yapay zekâ alanında öncü kurum durumunda bulunuyor ve bu alandaki güvenlik önlemleri büyük önem taşıyor. 

OpenAI’ın bir blog gönderisi ile açıkladığı yeni düzenleme, “Hazırlıklılık Çerçevesi” olarak adlandırıldı. Kasım ayında yönetim kurulunun agresif büyümeye karşı olmasıyla bilinen iki üyesi, Ilya Sutskever ve Helen Toner kuruldan çıkarılmıştı. Yeni düzenleme ile birlikte “yıkıcı” yapay zekâların tanımlanması, analiz edilmesi ve alınacak aksiyonlara karar verilmesi için bir rehber oluşturulmuş da oldu. 

Yeni şirket içi düzenlemeye göre, güvenlik sistemi takımı üretimdeki modelleri yönetecek. ChatGPT’nin sistematik kötüye kullanımlarını API’lerde sınırlama gibi görevler, bu ekibe düşecek. Hazırlıklılık takımı ise öncül modellerden sorumlu olacak ve olası riskleri tespit edip önlem almaya odaklanacak. Süperyönelim ekibi adı verilen ekip ise süper yapay zekâ modelleri için teorik yönlendirmeleri geliştirecek. Her bir ekip, sorumlu oldukları modelleri “siber güvenlik”, “ikna”, “otonomi”, “CBRN” (Kimyasal, biyolojik, radyolojik ve nükleer tehditler) açısından değerlendirecek. 

OpenAI henüz bu değerledirmelerin nasıl yapılacağına dair bir bilgi paylaşmazken, fonksiyonlar arası güvenlik danışmanları grubu bu çalışmaları genel olarak denetleyecek ve liderlik etmelerine yardımcı olacak. 

Kaynak:  Webtekno

Şinasi Kaya

Recent Posts

Apple, Uçuş Güvenliğini Artıran Yeni Find My Özelliğini Tanıttı

Apple, yeni Find My özelliği ile uçuş güvenliğini artırmayı hedefliyor. Bu yenilikçi sistem, kullanıcıların konumlarını…

8 dakika ago

Samsung Galaxy S25 Slim: Özellikler ve Yenilikler

Samsung Galaxy S25 Slim ile tanışın! İnce tasarımı, güçlü özellikleri ve yenilikçi teknolojileriyle dikkat çeken…

44 dakika ago

Razer ve Squid Game İş Birliği: Özel Tasarım Ürünler

Razer ve Squid Game iş birliğiyle ortaya çıkan özel tasarım ürünler, oyun deneyiminizi bir üst…

2 saat ago

2025’te Akıllı Telefon Dünyasında Beklenen Yenilikler

2025'te akıllı telefon dünyasında bizi nelerin beklediğini keşfedin. Yenilikçi teknoloji, gelişmiş özellikler ve kullanıcı deneyiminde…

2 saat ago

Apple’ın iPhone 17 Pro Serisi: Yenilikler ve Özellikler

Apple'ın iPhone 17 Pro Serisi, etkileyici yenilikleri ve gelişmiş özellikleriyle teknoloji tutkunlarını heyecanlandırıyor. Gelişmiş kamera…

3 saat ago

Ubisoft’un Yeni Web3 Oyunu: Captain Laserhawk: The G.A.M.E

Ubisoft'un yeni Web3 oyunu 'Captain Laserhawk: The G.A.M.E' ile tanışın! Bu heyecan verici macera, yenilikçi…

3 saat ago