Güney Koreli bilim insanları, yapay zekanın bilmediği konularda eminmiş gibi konuşması sorununu çözmek için yeni bir eğitim yöntemi geliştirdi. Yöntem, AI’ın ‘halüsinasyon’larını azaltmayı hedefliyor.
Güney Koreli bilim insanları, yapay zekanın ‘bilmediğini kabul etmesini’ sağlayacak yeni bir eğitim yöntemi geliştirdi. Kore İleri Bilim ve Teknoloji Enstitüsü (KAIST) araştırmacılarının bu yaklaşımı, yapay zekanın yanlış bilgi üretme eğilimini azaltmayı hedefliyor.
KAIST araştırmacılarının geliştirdiği yöntem, yapay zekanın ‘aşırı güven’ sorununu ele alıyor. Uzmanlar, kritik alanlarda kullanılan yapay zeka sistemlerinin emin olmadıkları konularda dahi kesin yanıtlar verebildiğini belirtiyor. Bu durum, özellikle OpenAI’ın ChatGPT gibi modellerinde gözlemlenen ve ‘halüsinasyon’ olarak adlandırılan, doğru olmayan bilgilerin gerçekmiş gibi sunulması sorununu tetikliyor.
Araştırmacılar, sorunu çözmek için insan beyninin çalışma prensibinden ilham aldı. Yeni yöntemde yapay zeka modelleri, gerçek verilerle eğitime başlamadan önce rastgele ‘gürültü’ verileriyle ön eğitime tabi tutuluyor. Bu ön eğitim süreci, modelin kendi belirsizliklerini henüz öğrenme aşamasındayken tanımasına olanak tanıyor.
Bu yaklaşım sayesinde yapay zeka, başlangıçtaki aşırı güvenini azaltarak ‘henüz hiçbir şey bilmiyorum’ aşamasını kavrıyor. Sonuç olarak sistemler, eğitim sürecinde karşılaşmadıkları konularda yanlış cevaplar vermek yerine daha düşük güven düzeyleriyle yanıt üretiyor. Araştırma ekibi, bu yöntemin yapay zekanın ‘bildikleriyle bilmediklerini ayırt etme’ becerisini geliştirdiğini vurguluyor.
Bilim insanları, geliştirilen yöntemin otonom araçlar, tıbbi teşhis sistemleri ve karar destek teknolojileri gibi hata payının minimum olması gereken alanlarda önemli katkılar sağlayacağını öngörüyor. Çalışmanın yazarlarından Se-Bum Paik, bu gelişmenin yapay zekanın kendi bilgi durumunu insanlara benzer şekilde tanımasına olanak tanıdığını belirtti.
Araştırmacıların temel hedefi, yapay zekanın yalnızca daha doğru cevaplar vermesini sağlamak değil, aynı zamanda ne zaman emin olmadığını da anlayabilmesi.
Yorum Yap