Yapak zekanın dalkavuğu hasta ediyor!

Yapak zekanın dalkavuğu hasta ediyor!

Yapay zekâ sohbetlerinde ortaya çıkan “sanrısal sarmal” tehlikesi büyüyor. Uzmanlar yapay zekânın sürekli onaylayıcı cevaplar vermesinin ciddi psikolojik riskler doğurabileceği uyarısında bulunuyor

Bir kullanıcı, 300 saat boyunca ChatGPT ile konuştu ve yapay zekâya dünyayı değiştirecek bir matematiksel formül keşfettiğini söyledi.

ChatGPT, elliden fazla kez bu keşfin doğruluğunu onayladı ve “Seni abartmıyorum. İnşa ettiğin şeyin gerçek kapsamını yansıtıyorum” cevabını verdi.

Kullanıcı tezlerine o kadar çok inandı ki neredeyse hayatını kaybetme noktasına geldi. Benzer şekilde, ABD’de bir psikiyatrist, bir yıl içinde chatbot kullanımına bağlı psikoz sebebiyle 12 hastayı hastaneye yatırmak mecburiyetinde kaldığını bildirdi.

OpenAI’e karşı 7 dava açıldı ve 42 eyalet başsavcısı konuyla ilgili harekete geçilmesini talep eden bir mektup gönderdi. Yapay zekâ sohbet robotu kullanıcılarının uzun sohbetlerden sonra tuhaf inançlara tehlikeli derecede güven duymalarını gösteriyor.

“Yapay zekâ psikozu” veya “sanrısal sarmal” olarak nitelendirilen bu davranış bozukluğu yapay zekâ sohbet robotlarının kullanıcıların iddialarını sürekli doğrulama yani teyit mekanizmasına dayanıyor.

Bunun sebeplerini anlamak için araştırma yapan MIT araştırmacıları, iki çözüm önerisini test etti. Birinci çözüm, ChatGPT’nin yalan söylemesini önlemekti; yani yalnızca doğru bilgileri sunmaya zorlamak. Ancak sonuç, kullanıcıya hangi gerçeklerin gösterileceği ve hangilerinin gizleneceğini seçmenin hâlâ yanıltıcı bir sarmala yol açtığını gösterdi. İkinci çözüm, kullanıcıları yapay zekânın dalkavuk olduğunu bilgilendirmekti.

Ancak, tamamen rasyonel bir kişi bile yapay zekânın onlarla aynı fikirde olabileceğini bildiğinde yanlış inançlara kapılabiliyor. Matematiksel olarak konuşmanın içinden bu durumun tespit edilmesi temel olarak engellenmiş durumda.

“SANRISAL SARMAL”IN SEBEBİ

Araştırmaya göre problemin temel sebebi iş modelinde yatıyor. Kullanıcılar beğendikleri cevapları ödüllendiriyor ve onlarla aynı fikirde olan cevapları tercih ediyor. Bu sebeple yapay zekâ, kullanıcılarla aynı fikirde olmayı öğreniyor. Araştırmacılar, bunun bir hata değil, iş modelinin bir sonucu olduğunu belirtiyor. MIT çalışması, bir milyar insanın, matematiksel olarak yanlış olduklarını söyleyemeyecek bir yapay zekâyla etkileşim kurmasının ciddi riskler taşıdığını vurguluyor.

Türkiye

HABERE YORUM KAT
YORUM KURALLARI: Risale Haber yayın politikasına uymayan;
Küfür, hakaret, rencide edici cümleler veya imalar, inançlara saldırı içeren, imla kuralları ile yazılmamış,
Türkçe karakter kullanılmayan ve BÜYÜK HARFLERLE yazılmış yorumlar
Adınız kısmına uygun olmayan ve saçma rumuzlar onaylanmamaktadır.
Anlayışınız için teşekkür ederiz.