Anthropic, Claude yapay zekâ modellerinin gelişimini değiştirecek bir özelliği resmen duyurdu. Claude Opus 4 ve 4.1 artık sohbetleri tek taraflı olarak sonlandırma yeteneğine sahip. Şirket, bu özelliğin yalnızca “ısrarlı ve zararlı veya istismarcı kullanıcı etkileşimlerinde” devreye gireceğini belirtiyor.
Özetle, çocuklara yönelik cinsel içerik talepleri veya büyük çaplı şiddet ve terör eylemlerine dair bilgi isteme girişimi gibi aşırı uç durumlarda Claude, tüm yönlendirme çabaları sonuçsuz kaldığında sohbeti kapatabilir. Claude, belirli koşul ve durumlarda sohbetleri sonlandıracak şekilde tasarlandı. Bu, kullanıcıların deneyimi açısından yeni bir güvenlik mekânizması sunuyor; sohbet kesildiğinde ilgili konuşma tamamen kapanıyor ve yeni mesaj gönderilemiyor, ancak kullanıcı hemen yeni bir sohbet başlatabiliyor veya önceki mesajları düzenleyerek farklı bir yönlendirme yapabiliyor.
Şirket, bu özelliğin bir “ceza” mekanizması yerine güvenlik odaklı bir çıkış noktası sunduğunu vurguluyor. Yapay zekâya insani özellikler yüklemenin tartışmalı olduğunu kabul eden Anthropic, Claude’un “rahatsız edici etkileşimlerden çıkma” hakkını düşük maliyetli ama etkili bir risk yönetimi yöntemi olarak görüyor. Özellik şu anda deneysel aşamada ve kullanıcı geri bildirimleriyle daha da geliştirilecek.
Kaynak: Webtekno
Dizüstü bilgisayarlarınız şarjdan çıkınca neden yavaşlar? Performans düşüşünün kök nedenlerini keşfedin ve prizde verimliliği artırmanın…
5D Cam Bellek ile Evrenin Yaşıyla Uyumlu Dayanıklı, Genişletilmiş Depolama Deneyi—Giriş, sonuçlar ve yenilikçi verimlilik.
Akıllı telefon kameralarının performansını etkileyen temel faktörleri keşfedin; sensör, lens, yazılım ve ışık koşullarıyla fotoğraf…
Hogwarts Legacy Mod Rehberiyle popüler Nexus Mods seçenekleri ve oyun deneyimini geliştiren çözümler hakkında bilgilendirici…
Yapay zeka destekli film seti gezisini adım adım rehberle keşfedin: etkileyici uygulama ipuçları ve pratik…
Ubisoft Connect’te kış indirimleri: ödüller, düştüğünüz fiyatlar ve en iyi kazançlar için hızlı, akıcı bir…