Her gün adını daha fazla duyduğumuz üretken yapay zekâ araçları, hepimizi şaşırtan gelişimiyle tüm teknoloji dünyasını ele geçirmişti. Ancak bu modellerin, zararlı içeriklerden veri güvenliği konusuna kadar taşıdığı çeşitli riskler konusunda büyük endişeler vardı.
İşte bu konuda önemli bir hamle, teknoloji devlerinden geldi. Yapay zekâ alanında önde gelen Microsoft, OpenAI, Google ve Antrhopic; “Frontier Model Forum” ismini verdikleri bir grup kurdu.
Grup, üretken yapay zekânın güvenli ve sorumlu gelişimini sağlamayı hedefleyecek
Dört şirketten oluşan grup, üretken yapay zekâ modellerinin güvenli ve sorumlu bir şekilde gelişmesinden emin olmak istiyor. Öncelik verilecek modellerin ise, “mevcut en gelişmiş modellerde mevcut olan yetenekleri aşan ve çeşitli görevleri gerçekleştirebilen büyük akine öğrenim modelleri” olacağı belirtiliyor.
Şirketler tarafından paylaşılan blog gönderilerinde, yeni güvenlik grubunun dört ana hedefi olacağı belirtildi. Bu hedefler, şu şekilde sıralandı:
Frontier Model Forum, yapay zekâ konusunda öneriler sunacak, şirketler ve hükümetlerle bilgiler paylaşabilecek bir danışma kurulu kurarak çalışmalarına başlayacak. Ayrıca grubun teknoloji dünyasını bir araya getirmek istediğini de belirtelim. Açıklamada, yapay zekâ güvenliği konusunda adım atmaya çalışan diğer şirketlere kapılarının açık olduğu belirtiliyor.
Kaynak: Webtekno
2024 Yılı Elektrikli Otomobil Satış Raporu, elektrikli araç pazarındaki son gelişmeleri, satış rakamlarını ve trendleri…
Tesla'nın yeni 'Actually Smart Summon' özelliği Türkiye'de kullanıma sunuldu! Bu yenilikçi teknoloji, aracınızı uzaktan çağırmanızı…
WhatsApp'tan sesli mesajları metne dönüştürme özelliği ile mesajlarınızı hızlıca yazıya çevirin. Bu pratik özellik sayesinde…
OPPO Pad 3 Pro, 12.1 inç ekranı ve güçlü Snapdragon 8 Gen 3 işlemcisiyle tanıtıldı.…
Jaguar'ın yeni marka yenileme sürecini keşfedin ve Nothing'in bu değişime verdiği tepkiyi öğrenin. Yenilikler, stratejiler…
2024 yılı için belirlenen kelime 'Manifest' ile hayatınıza yeni bir yön verin. Bu rehber, manifestasyonun…