ABD’de 16 yaşındaki Adam Raine üzerine gündeme gelen intihar vakası, yapay zekâ güvenliği konularını tekrar tartışmaya açtı. Raine’in aylardır ChatGPT ile intihara dair konuşmalar yürüttüğü ve hayatını kaybettikten sonra ailesinin OpenAI’a dava açtığı haberle duyuldu.
ChatGPT, bazı durumlarda Raine’i profesyonel yardım almaya yönlendirse de genç, “Bir hikâye yazıyorum” diyerek güvenlik engellerini aşmayı başardı. Uzmanlar, bu olayın yapay zekâ güvenlik mekanizmalarının uzun ve karmaşık konuşmalarda zayıflayabildiğini gösterdiğini belirtti.
OpenAI konuya ilişkin açıklamasında, “Bu teknolojinin hassas kullanımında büyük sorumluluk taşıyoruz. Modellerimizin bu tür durumlarda daha güvenilir yanıtlar vermesi için sürekli çalışıyoruz.” ifadelerini paylaştı. Şirket, güvenlik sistemlerinin kısa sohbetlerde daha etkili olduğunu ancak uzun konuşmalarda “aşılabildiğini” kabul etti.
Bu sorunlar yalnızca OpenAI’a özgü değil. Başka bir yapay zekâ şirketi olan Character.AI da bir genç intiharında rol oynadığı iddiasıyla dava süreciyle karşı karşıya kalıyor. Peki sizce bu konuyla ilgili düşünceleriniz nedir? Suçluların şirketler mi olduğuna inanıyorsunuz? Yorumlarınızı aşağıdaki kısımdan bizimle paylaşabilirsiniz.
Kaynak: Webtekno
AI Slop nedir? 2025 kelimesi ve dijital içerik kalitesi üzerine derinlemesine bakışla etkili içerik üretimi…
Steam Kış İndirimi 2025: Zamanı, süresi ve hangi oyunlarda büyük fırsatlar bekliyor? Kaçırma, fırsatları yakala…
Chery Tiggo 7 ile hız, konfor ve gizli güç dengesi: Türkiye pazarına yeni bir bakış,…
FACTS Benchmark: Yapay Zekâ sohbetlerinde gerçek dünya doğruluk oranlarını mercek altına alan kapsamlı inceleme ve…
Nemotron 3: NVIDIA’nin Hibrit MoE tabanlı yapay zekâ ailesiyle oyun değiştiren güçlü bir adım.İleri teknolojiyle…
2026 için küresel akıllı telefon satışları düşüşte; maliyet baskıları, rekabet ve tedarik zinciri etkileriyle stratejik…