Categories: Yapay Zeka

OpenAI Yönetim Kuruluna “Anti-Sam Altman” Yetkisi Verildi: Tehlikeli Görülen Yapay Zekâ Çalışmaları Veto Edilebilecek

Son dönemde Sam Altman’ın görevden alınması, sonra geri dönmesi ve yönetim kurulunu değiştirmesi ile epey gündem olan OpenAI hakkında ortaya atılan iddialardan biri, üstün ve tehlikeli bir yapay zekâ geliştirdikleri yönündeydi. OpenAI, o konuda bir açıklama yapmaya gerek duymadıysa da yapay zekâ güvenliğini öne alan düzenlemeler yaptı. 

OpenAI öncelikle “güvenlik danışmanlık grubu” adını verdiği bir ekip oluşturdu. Bu ekip kurumun teknik ekiplerinin üstünde konuşlandırıldı ve teknik ekiplere liderlik tavsiyelerinde bulunacak. Ayrıca OpenAI Yönetim Kurulu, bundan sonra tehlikeli gördüğü yapay zekâ projelerini veto etme hakkına kavuştu. 

Yeni bir “güvenlik danışmanlık grubu” kuruldu, yönetime veto hakkı geldi

Hemen her firmada dönem dönem bu türden değişiklikler yapılıyor olsa da, OpenAI’ın böyle bir değişiklik yapması, son zamanlarda yaşanan olayları ve iddiaları göz önüne aldığımızda büyük önem taşıyor. Sonuçta OpenAI, yapay zekâ alanında öncü kurum durumunda bulunuyor ve bu alandaki güvenlik önlemleri büyük önem taşıyor. 

OpenAI’ın bir blog gönderisi ile açıkladığı yeni düzenleme, “Hazırlıklılık Çerçevesi” olarak adlandırıldı. Kasım ayında yönetim kurulunun agresif büyümeye karşı olmasıyla bilinen iki üyesi, Ilya Sutskever ve Helen Toner kuruldan çıkarılmıştı. Yeni düzenleme ile birlikte “yıkıcı” yapay zekâların tanımlanması, analiz edilmesi ve alınacak aksiyonlara karar verilmesi için bir rehber oluşturulmuş da oldu. 

Yeni şirket içi düzenlemeye göre, güvenlik sistemi takımı üretimdeki modelleri yönetecek. ChatGPT’nin sistematik kötüye kullanımlarını API’lerde sınırlama gibi görevler, bu ekibe düşecek. Hazırlıklılık takımı ise öncül modellerden sorumlu olacak ve olası riskleri tespit edip önlem almaya odaklanacak. Süperyönelim ekibi adı verilen ekip ise süper yapay zekâ modelleri için teorik yönlendirmeleri geliştirecek. Her bir ekip, sorumlu oldukları modelleri “siber güvenlik”, “ikna”, “otonomi”, “CBRN” (Kimyasal, biyolojik, radyolojik ve nükleer tehditler) açısından değerlendirecek. 

OpenAI henüz bu değerledirmelerin nasıl yapılacağına dair bir bilgi paylaşmazken, fonksiyonlar arası güvenlik danışmanları grubu bu çalışmaları genel olarak denetleyecek ve liderlik etmelerine yardımcı olacak. 

Kaynak:  Webtekno

Şinasi Kaya

Share
Published by
Şinasi Kaya

Recent Posts

İkinci El Telefon Alırken Dikkat Edilmesi Gerekenler

İkinci el telefon alırken dikkat edilmesi gerekenler hakkında bilgilendirici bir rehber. Cihazın durumu, garanti durumu…

17 dakika ago

Alkışlarla Yaşıyorum: Nostaljik Platformun Kapanış Hikayesi

"Alkışlarla Yaşıyorum: Nostaljik Platformun Kapanış Hikayesi" adlı yazıda, nostaljik anıların ve topluluğun önemine dair içten…

1 saat ago

Apple’ın Araba Üretme Fikri ve Başarısızlığı

Apple'ın araba üretme fikri, teknoloji devinin otomotiv sektörüne adım atma çabasını ortaya koyuyor. Ancak bu…

1 saat ago

EA’den Formula 1 Tutkunlarına Ücretsiz Oyun Fırsatı

EA, Formula 1 tutkunları için heyecan verici bir fırsat sunuyor! Ücretsiz oyun deneyimiyle hız tutkunuzu…

2 saat ago

Şempanzelerin Yüz Kırışıklıkları: Nedenleri ve Özellikleri

Şempanzelerin yüz kırışıklıkları, yaşlanma ve çevresel faktörlerin bir sonucu olarak ortaya çıkar. Bu makalede, şempanzelerin…

3 saat ago

2024 Yılının En İyi Şarkıları Apple Music’te Yayınlandı

2024 yılının en iyi şarkıları, Apple Music'te yayınlandı! En sevdiğiniz sanatçıların hit parçalarını keşfedin ve…

3 saat ago