OpenAI, Çin merkezli yapay zekâ girişimi DeepSeek’i, kendi tescilli modellerini kullanarak eğitmekle itham ediyor. Bu tartışmanın merkezinde, büyük yapay zekâ modellerinin çıktılarından daha küçük modelleri eğitmek için sıklıkla kullanılan “damıtma” (distillation) tekniği yer alıyor. Yapay zekâ dünyasında yaygın bir uygulama olarak bilinen bu yöntem, OpenAI’a göre DeepSeek tarafından da kullanıldı.
OpenAI’a yakın bir kaynak, Financial Times’a verdiği demeçte, “Sorun, platform dışına çıkıp kendi modelinizi oluşturmak için bunu kullanmanızla başlıyor.” şeklinde ifadelerde bulundu. Bu durum, DeepSeek’in karşı karşıya olduğu ciddi suçlamaların temelini oluşturuyor.
DeepSeek’in R1 akıl yürütme modeli, düşük maliyetine rağmen piyasadaki rakip modellerle rekabet edebilecek düzeyde performans sergilediği için büyük bir ilgi topladı. Şirket, bu gelişim süreci için yalnızca 5,6 milyon dolar harcadığını iddia ediyor ki bu miktar, OpenAI ve Google gibi devlerin yaptığı yatırımlarla kıyaslandığında oldukça düşük bir rakam olarak öne çıkıyor. Bu durum, doğal olarak birçok soru ve endişeyi de beraberinde getiriyor.
Bloomberg’in haberine göre, OpenAI ve Microsoft, Ağustos ayında bazı hesapların hizmet şartlarını ihlal ettiği şüphesiyle incelemeye alıp engelledi. Şimdi ise bu hesapların DeepSeek ile bağlantılı olabileceği düşünülüyor. Ancak, bu iddialar için henüz resmi anlamda somut bir delil bulunmamakta.
Peki, siz bu konu hakkında ne düşünüyorsunuz? Düşüncelerinizi aşağıdaki yorumlar kısmından bizimle paylaşabilirsiniz.
Kaynak: Webtekno
Görsel ve işitsel yapay zekâ hakkında akışkan bir inceleme: algı, kaçınılmazlık ve evrimsel bakışla yön…
Kapaklı telefonların nostaljisini yaşatırken, unutulmaz tasarımlar ve efsane modellerle altın çağını keşfedin.
PS6 beklentileri ve özellikleri üzerine güncel izlenimler: yayınlanmaya hazırlanan nesle dair güçlü bir önizleme ve…
Gmail ile tek tıklamada abonelikten çıkın: kolay adımlar, güvenli işlem ve temiz bir gelen kutusu…
Üniversite öğrencileri için ÖTV muafiyetindeki yeni taslak ve fiyat etkilerini inceleyen kapsamlı rehber.
İtiraf Modülüyle yapay zekada şeffaflığı artırın: Yanıltıcı içeriklere karşı açık dürüstlük sistemiyle güvenilir bilgiye hızlı…