Anthropic, Claude yapay zekâ modellerinin gelişimini değiştirecek bir özelliği resmen duyurdu. Claude Opus 4 ve 4.1 artık sohbetleri tek taraflı olarak sonlandırma yeteneğine sahip. Şirket, bu özelliğin yalnızca “ısrarlı ve zararlı veya istismarcı kullanıcı etkileşimlerinde” devreye gireceğini belirtiyor.

Özetle, çocuklara yönelik cinsel içerik talepleri veya büyük çaplı şiddet ve terör eylemlerine dair bilgi isteme girişimi gibi aşırı uç durumlarda Claude, tüm yönlendirme çabaları sonuçsuz kaldığında sohbeti kapatabilir. Claude, belirli koşul ve durumlarda sohbetleri sonlandıracak şekilde tasarlandı. Bu, kullanıcıların deneyimi açısından yeni bir güvenlik mekânizması sunuyor; sohbet kesildiğinde ilgili konuşma tamamen kapanıyor ve yeni mesaj gönderilemiyor, ancak kullanıcı hemen yeni bir sohbet başlatabiliyor veya önceki mesajları düzenleyerek farklı bir yönlendirme yapabiliyor.
Şirket, bu özelliğin bir “ceza” mekanizması yerine güvenlik odaklı bir çıkış noktası sunduğunu vurguluyor. Yapay zekâya insani özellikler yüklemenin tartışmalı olduğunu kabul eden Anthropic, Claude’un “rahatsız edici etkileşimlerden çıkma” hakkını düşük maliyetli ama etkili bir risk yönetimi yöntemi olarak görüyor. Özellik şu anda deneysel aşamada ve kullanıcı geri bildirimleriyle daha da geliştirilecek.
Kaynak: Webtekno


