Categories: Yapay Zeka

OpenAI Yönetim Kuruluna “Anti-Sam Altman” Yetkisi Verildi: Tehlikeli Görülen Yapay Zekâ Çalışmaları Veto Edilebilecek

Son dönemde Sam Altman’ın görevden alınması, sonra geri dönmesi ve yönetim kurulunu değiştirmesi ile epey gündem olan OpenAI hakkında ortaya atılan iddialardan biri, üstün ve tehlikeli bir yapay zekâ geliştirdikleri yönündeydi. OpenAI, o konuda bir açıklama yapmaya gerek duymadıysa da yapay zekâ güvenliğini öne alan düzenlemeler yaptı. 

OpenAI öncelikle “güvenlik danışmanlık grubu” adını verdiği bir ekip oluşturdu. Bu ekip kurumun teknik ekiplerinin üstünde konuşlandırıldı ve teknik ekiplere liderlik tavsiyelerinde bulunacak. Ayrıca OpenAI Yönetim Kurulu, bundan sonra tehlikeli gördüğü yapay zekâ projelerini veto etme hakkına kavuştu. 

Yeni bir “güvenlik danışmanlık grubu” kuruldu, yönetime veto hakkı geldi

Şinasi Kaya: OpenAI Yönetim Kuruluna "Anti-Sam Altman" Yetkisi Verildi: Tehlikeli Görülen Yapay Zekâ Çalışmaları Veto Edilebilecek 1Şinasi Kaya: OpenAI Yönetim Kuruluna "Anti-Sam Altman" Yetkisi Verildi: Tehlikeli Görülen Yapay Zekâ Çalışmaları Veto Edilebilecek 1

Hemen her firmada dönem dönem bu türden değişiklikler yapılıyor olsa da, OpenAI’ın böyle bir değişiklik yapması, son zamanlarda yaşanan olayları ve iddiaları göz önüne aldığımızda büyük önem taşıyor. Sonuçta OpenAI, yapay zekâ alanında öncü kurum durumunda bulunuyor ve bu alandaki güvenlik önlemleri büyük önem taşıyor. 

OpenAI’ın bir blog gönderisi ile açıkladığı yeni düzenleme, “Hazırlıklılık Çerçevesi” olarak adlandırıldı. Kasım ayında yönetim kurulunun agresif büyümeye karşı olmasıyla bilinen iki üyesi, Ilya Sutskever ve Helen Toner kuruldan çıkarılmıştı. Yeni düzenleme ile birlikte “yıkıcı” yapay zekâların tanımlanması, analiz edilmesi ve alınacak aksiyonlara karar verilmesi için bir rehber oluşturulmuş da oldu. 

Yeni şirket içi düzenlemeye göre, güvenlik sistemi takımı üretimdeki modelleri yönetecek. ChatGPT’nin sistematik kötüye kullanımlarını API’lerde sınırlama gibi görevler, bu ekibe düşecek. Hazırlıklılık takımı ise öncül modellerden sorumlu olacak ve olası riskleri tespit edip önlem almaya odaklanacak. Süperyönelim ekibi adı verilen ekip ise süper yapay zekâ modelleri için teorik yönlendirmeleri geliştirecek. Her bir ekip, sorumlu oldukları modelleri “siber güvenlik”, “ikna”, “otonomi”, “CBRN” (Kimyasal, biyolojik, radyolojik ve nükleer tehditler) açısından değerlendirecek. 

OpenAI henüz bu değerledirmelerin nasıl yapılacağına dair bir bilgi paylaşmazken, fonksiyonlar arası güvenlik danışmanları grubu bu çalışmaları genel olarak denetleyecek ve liderlik etmelerine yardımcı olacak. 

Kaynak:  Webtekno

Şinasi Kaya

Recent Posts

Samsung’un Yeni Katlanabilir Telefonları Galaxy Z Fold7 ve Z Flip7 Hakkında Son Sızıntılar

Samsung'un yeni katlanabilir telefonları Galaxy Z Fold7 ve Z Flip7 hakkında son sızıntılar, özellikler ve…

35 dakika ago

Kendinize Uygun Spor ve Diyet Uygulamalarıyla Sağlıklı Yaşama Adım Atın

Kendinize uygun spor ve diyet uygulamalarıyla sağlıklı yaşama adım atın. Güncel ipuçları ve motivasyonla yaşam…

4 saat ago

vivo X200 FE Türkiye Fiyatı ve Özellikleri Detayları

vivo X200 FE Türkiye fiyatı ve özellikleri hakkında detaylar, performans ve tasarım özellikleriyle ilgili kapsamlı…

4 saat ago

TECNO’nun Yeni POVA Serisi Akıllı Telefonları: POVA 7 5G ve POVA 7 Pro 5G Tanıtıldı

TECNO'nun yeni POVA serisi akıllı telefonları POVA 7 5G ve POVA 7 Pro 5G tanıtıldı.…

17 saat ago

YouTube Shorts Videolarında Yeni Döndürme Seçeneği

YouTube Shorts videolarında yeni döndürme seçeneğiyle içeriklerinizi daha kolay ve hızlı biçimde keşfedin. Güncel özellikleri…

19 saat ago

Tesla Model 3, 2025’in En Güvenli Otomobili Seçildi

Tesla Model 3, 2025'in en güvenli otomobili seçilerek üstün güvenlik özellikleriyle öne çıkıyor. Detaylar için…

20 saat ago