Yapay zekâ şirketi Anthropic, gizlilik politikasında önemli bir değişikliğe giderek Claude adlı sohbet botunun artık kullanıcı sohbetlerinden eğitilmesine başlanacağını duyurdu. Yeni kullanıcılara kayıt sırasında vazgeçme seçeneği sunulurken, mevcut kullanıcılar ise gelecek günlerde ek bir bildirimle tercihini belirleyebilecekler.
28 Eylül tarihine kadar karar vermeyen kullanıcıların Claude’u kullanmaya devam edebilmesi için şartları kabul etmesi gerekecek. Verilerin saklanması konusunda yeni politika şu şekilde işliyor: sohbetler eğitim amacıyla paylaşıldığında beş yıl boyunca saklanacak; ayrıca silinen konuşmalar gelecekteki eğitimlerde kullanılmayacak.
Şirket, kullanıcıların kişisel bilgilerini üçüncü taraflarla paylaşmadığını vurgularken, hassas verilerin filtrelenmesi için çeşitli güvenlik araçları kullandığını belirtti. Claude’nun geçmişte yalnızca kullanıcıların doğrudan verdiği geri bildirimlerle eğitildiğini hatırlatırken, bu yeni dönemde sohbetlerin iki kat daha büyük rol oynayacağı ifade edildi.
İstemeyen kullanıcılar için, sohbetlerin model eğitiminde kullanılmamasını sağlamak adına ayarlar menüsünden Gizlilik sekmesine gidip Claude’u geliştirmeye yardımcı ol seçeneğini kapatmaları yeterli olacak.
Şirket, bu uygulamanın Claude’un yeteneklerini artıracağını ve dolandırıcılık gibi zararlı kullanımlara karşı koruma sağlayacağını belirtiyor.
Kaynak: Webtekno
Gmail ile tek tıklamada abonelikten çıkın: kolay adımlar, güvenli işlem ve temiz bir gelen kutusu…
Üniversite öğrencileri için ÖTV muafiyetindeki yeni taslak ve fiyat etkilerini inceleyen kapsamlı rehber.
İtiraf Modülüyle yapay zekada şeffaflığı artırın: Yanıltıcı içeriklere karşı açık dürüstlük sistemiyle güvenilir bilgiye hızlı…
Renault Aralık 2025 kampanyaları, kredi seçenekleri ve güncel fırsatlar: avantajlı finansmanla hemen aracınıza sahip olun.
Steam ücretsiz oynanabilir oyunlar: 4-8 Aralık festivali ve iki yeni oyun ilanı – kaçırma, etkinlik…
Aralık ayında Amazon Luna (Prime Gaming) Ücretsiz Oyunları ve Erişim Endpoint'ine ilişkin en güncel bilgiler,…