Yapay zekaya bazı konularda 'bilmiyorum' demesi öğretilecek

Güney Koreli araştırmacılar, yapay zekanın bilmediği konularda yanlış bilgi üretmek yerine belirsizliğini kabul etmesini sağlayan yeni bir yöntem geliştirdi

Güney Koreli bilim insanları, yapay zekanın “bilmediğini kabul etmesini” sağlayabilecek yeni bir eğitim yöntemi geliştirdi. Araştırmacılar, bu yaklaşımın yapay zekanın yanlış bilgi üretme yani “halüsinasyon” sorununu azaltabileceğini söylüyor.

Çalışma, Kore İleri Bilim ve Teknoloji Enstitüsü (KAIST) araştırmacıları tarafından yürütüldü. Bulgular, akademik dergi Nature Machine Intelligence’ta yayımlandı.

YAPAY ZEKANIN EN BÜYÜK SORUNLARINDAN BİRİ

Uzmanlara göre yapay zekanın en büyük problemlerinden biri “aşırı özgüven.” Özellikle sağlık gibi kritik alanlarda kullanılan sistemler, emin olmadıkları konularda bile kesin cevaplar verebiliyor.

OpenAI’ın geliştirdiği ChatGPT gibi modellerin, bazen doğru olmayan bilgileri gerçekmiş gibi sunabildiği daha önce yapılan araştırmalarda ortaya konmuştu.

Bu durum teknoloji dünyasında “halüsinasyon” olarak adlandırılıyor.

İNSAN BEYNİNDEN İLHAM ALDILAR

Araştırmacılar, sorunu çözmek için insan beyninin çalışma biçiminden ilham aldı.

Bilim insanlarına göre insan beyni, doğumdan önce bile dış uyaran olmadan sinyaller üretebiliyor. Araştırma ekibi de benzer bir yaklaşımı yapay zekaya uyguladı.

Yeni yöntemde yapay zeka modeli, gerçek verilerle eğitilmeden önce rastgele “gürültü” verileriyle kısa bir ön eğitim sürecinden geçiriliyor.

Bu süreç sayesinde model, daha öğrenmeye başlamadan önce kendi belirsizliğini tanımayı öğreniyor.

“HENÜZ HİÇBİR ŞEY BİLMİYORUM” AŞAMASI

Araştırmacılar, yöntemin yapay zekanın başlangıçtaki aşırı güvenini azaltarak “Henüz hiçbir şey bilmiyorum” durumunu öğrenmesini sağladığını belirtiyor.

Böylece sistemler, eğitim sırasında karşılaşmadıkları konularda yanlış cevap vermek yerine daha düşük güven düzeyiyle yanıt üretmeye başlıyor.

Araştırma ekibi, yeni yöntemin yapay zekanın “bildikleriyle bilmediklerini ayırt etme” becerisini geliştirdiğini ifade ediyor.

KRİTİK ALANLARDA KULLANILABİLİR

Bilim insanları, yöntemin özellikle otonom araçlar, tıbbi teşhis sistemleri ve karar destek teknolojileri gibi hata payının düşük olması gereken alanlarda önemli katkı sağlayabileceğini düşünüyor.

Çalışmanın yazarlarından Se-Bum Paik, “Bu çalışma, yapay zekanın kendi bilgi durumunu insanlara daha benzer şekilde tanıyabileceğini gösteriyor” dedi.

Araştırmacılara göre hedef yalnızca yapay zekanın daha fazla doğru cevap vermesi değil, aynı zamanda ne zaman emin olmadığını da anlayabilmesi.

trthaber

İlk yorum yazan siz olun
YORUM KURALLARI: Risale Haber yayın politikasına uymayan;
Küfür, hakaret, rencide edici cümleler veya imalar, inançlara saldırı içeren, imla kuralları ile yazılmamış,
Türkçe karakter kullanılmayan ve BÜYÜK HARFLERLE yazılmış yorumlar
Adınız kısmına uygun olmayan ve saçma rumuzlar onaylanmamaktadır.
Anlayışınız için teşekkür ederiz.

Bilim - Teknoloji Haberleri