Her gün adını daha fazla duyduğumuz üretken yapay zekâ araçları, hepimizi şaşırtan gelişimiyle tüm teknoloji dünyasını ele geçirmişti. Ancak bu modellerin, zararlı içeriklerden veri güvenliği konusuna kadar taşıdığı çeşitli riskler konusunda büyük endişeler vardı.
İşte bu konuda önemli bir hamle, teknoloji devlerinden geldi. Yapay zekâ alanında önde gelen Microsoft, OpenAI, Google ve Antrhopic; “Frontier Model Forum” ismini verdikleri bir grup kurdu.
Grup, üretken yapay zekânın güvenli ve sorumlu gelişimini sağlamayı hedefleyecek
Dört şirketten oluşan grup, üretken yapay zekâ modellerinin güvenli ve sorumlu bir şekilde gelişmesinden emin olmak istiyor. Öncelik verilecek modellerin ise, “mevcut en gelişmiş modellerde mevcut olan yetenekleri aşan ve çeşitli görevleri gerçekleştirebilen büyük akine öğrenim modelleri” olacağı belirtiliyor.
Şirketler tarafından paylaşılan blog gönderilerinde, yeni güvenlik grubunun dört ana hedefi olacağı belirtildi. Bu hedefler, şu şekilde sıralandı:
Frontier Model Forum, yapay zekâ konusunda öneriler sunacak, şirketler ve hükümetlerle bilgiler paylaşabilecek bir danışma kurulu kurarak çalışmalarına başlayacak. Ayrıca grubun teknoloji dünyasını bir araya getirmek istediğini de belirtelim. Açıklamada, yapay zekâ güvenliği konusunda adım atmaya çalışan diğer şirketlere kapılarının açık olduğu belirtiliyor.
Kaynak: Webtekno
WhatsApp'ta Durum Paylaşımına gelen yeni özelliklerle daha yaratıcı ve etkileşimli paylaşımlar yapın. Detaylar için hemen…
Xiaomi, HyperOS yazılım isimlendirmesinde değişiklik yapmaya hazırlanıyor. En yeni gelişmeler ve detaylar için takipte kalın.
Summer Game Fest 2025'te tanıtılan en heyecan verici oyunları keşfedin. En yeni oyun duyuruları ve…
Samsung Galaxy Z Flip7 FE ile uygun fiyatlı katlanabilir telefonlar yeni dönemi başlatıyor. Şık tasarım…
Apple, iPhone 17 serisiyle kablosuz şarj teknolojinde devrim yapıyor. Yenilikleri ve özellikleriyle geleceğin şarj deneyimini…
Resident Evil Requiem, Resident Evil serisinin yeni oyunu resmi olarak duyuruldu. Heyecan dolu detaylar ve…