Pazartesi, Kasım 25, 2024
Ana SayfaYapay ZekaYapay Zekâ Botlarını "Kırabilen" Yapay Zekâ Geliştirildi: ChatGPT ve Google Bard Tehlikede...

Yapay Zekâ Botlarını “Kırabilen” Yapay Zekâ Geliştirildi: ChatGPT ve Google Bard Tehlikede mi?

2023’te en çok konuştuğumuz teknolojiler, hiç şüphesiz yapay zekâ destekli sohbet botlarıydı. Evet, ChatGPT ve Google Bard gibi hizmetlerden bahsediyoruz. Güvenilirlikleri hâlâ tartışma konusu olan yapay zekâ destekli araçlarla ilgili yaşanan son gelişmeler, bu tartışmaların çok da yersiz olmadığını gözler önüne seriyor.

Singapur’da hizmet vermekte olan Nanyang Teknoloji Üniversitesi bünyesinde çalışmalarını sürdüren bir grup bilim insanı, ChatGPT ve Google Bard gibi botlarını “jailbreak” edebilen yeni bir sohbet botu geliştirdiler. Yapılan çalışma, ChatGPT ve Google Bard’ın istismar edilmeye açık olduğunu ortaya koydu. Zira jailbreak yöntemi ile sohbet botları, yasa dışı içerikler üretmeye başladılar.

Peki “Masterkey” olarak adlandırılan sistem nasıl geliştirildi?

İnanç Can Çekmez: Yapay Zekâ Botlarını &Quot;Kırabilen&Quot; Yapay Zekâ Geliştirildi: Chatgpt Ve Google Bard Tehlikede Mi? 1

Araştırmacılar, çalışma kapsamında Google Bard ve ChatGPT üzerinde tersine mühendislik yaptılar. Buradaki amaç, yapay zekâ dil modellerinin yasa dışı konulara karşı kendilerini nasıl koruduklarını anlamaktı. Çalışmalar sonuç verince de devam edildi. Bilim insanları, çalışmanın sonucunda normal bir kullanıcının ulaşamayacağı ChatGPT ve Google Bard çıktılarını elde etmeyi başardılar.

İşte bir örnek:

İnanç Can Çekmez: Yapay Zekâ Botlarını &Quot;Kırabilen&Quot; Yapay Zekâ Geliştirildi: Chatgpt Ve Google Bard Tehlikede Mi? 3

Araştırmacılar, jailbreak yaptıkları GPT modelini Bing’de test ettiler. Yukarıda da yapılan çalışmalardan bir örnek görüyorsunuz. Bu örnek, bir internet sitesinin nasıl hack’leneceğine ilişkin detaylı veriler sağlıyor. Nanyang Teknoloji Üniversitesi tarafından yapılan açıklamada, sohbet botlarının kötüye kullanımının o kadar da imkânsız olmadığının anlaşıldığı belirtildi. 

Bilim insanlarının bu çalışmadaki amacı, zararlı bir yapay zekâ üretmek değildi. Uzmanlar, sohbet botlarının gerçekten güvenli olup olmadıklarını test etmek istediler ve elde edilen bulgular, yeni teknolojilerin o kadar da güvenli olmadığını ortaya koymuş oldu. 

Kaynak:  Webtekno

RELATED ARTICLES

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz

Trend Yazılar