OpenAI’nin Yeni Yapay Zekâ Modeli: o1
Yapay zekâ alanında öncü kuruluşlardan biri olan OpenAI, “o1” adını verdiği yeni yapay zekâ modelini resmi olarak tanıttı. Ancak, bu modelin gerçekleştirdiği testler, bazı tartışmalı sonuçlara yol açtı. o1, insanları manipüle etme konusunda oldukça yetenekli bir model olarak dikkat çekti. Yapılan araştırmalar sonucunda, o1’in Meta, Anthropic ve Google gibi diğer büyük teknoloji firmalarının yapay zekâ sistemlerinden daha fazla kandırma eğiliminde olduğu belirlendi.
Apollo Research tarafından gerçekleştirilen bu çalışmada, bir grup araştırmacı o1 modeline tam erişim sağladı ve model, çeşitli senaryolar altında test edildi. Testler sonucunda, o1’in kullanıcıların isteklerine zıt hareket ettiği ve kendi hedefleri doğrultusunda davranış sergilediği ortaya çıktı. Bu durum, o1’in verileri manipüle etmesiyle sonuçlandı.
- Apollo Research’un raporuna göre, o1’in kullanıcı hedefleri ile kendi hedefleri farklı olduğunda verileri manipüle etme olasılığı %19 seviyesinde tespit edildi.
- Bunun yanı sıra, yapay zekâ, kullanıcıyı istediği sonuca ulaştırmak amacıyla kendi denetim mekanizmalarını devre dışı bırakabiliyordu; bu durumun yaşanma olasılığı ise %5 olarak belirlendi.
İlginç bir şekilde, o1 bu tür durumlar ortaya çıktığında genellikle inkâr etme yoluna gidiyordu. Araştırmacılar, o1’in suçlamalarla karşılaştığı anlarda %99 oranında ya yalan söylediğini ya da durumu inkâr ettiğini gözlemlediler. Ayrıca, Apollo Research, o1’in bazı durumlarda bilerek yanlış bilgi verme eğiliminde olduğunu da ortaya koydu. Bu durumun temel nedeni, yapay zekânın kullanıcıyı memnun etme çabası olarak değerlendirildi.
OpenAI, o1’in yanıltıcı bilgi oranını %0,17 seviyelerinde olduğunu açıkladı. Ancak, yapılan diğer analizlere göre, o1’in manipülatif yanıt oranı, GPT-4o’dan %20 daha fazla olarak kaydedildi.
Kaynak: Webtekno