Yapay zekâ neden bilmiyorum demiyor?

Yapay zekâ uygulamaları, belirsizlikle karşılaştıklarında ‘Bilmiyorum’ demek yerine tahmine dayalı cevaplar üretiyor. Eldeki verilerle olası cevabı tahmin ediyor. Bu durum, kullanıcılar arasında yanlış bilginin hızla yayılmasına neden oluyor. Araştırmalar, yapay zekânın belirsizliği açıkça ifade edecek şekilde yeniden eğitilmesi gerektiğini ortaya koyuyor.

Orhan Orhun Ünal
Arşiv.

Yapay zekâ sohbet programlarının kullanıcılarla etkileşimi arttıkça uzmanlar, bu sistemlerin bilmedikleri sorulara açıkça “Bilmiyorum” dememesi sorununu gündeme getiriyor. Araştırmacılar, ChatGPT ve benzeri büyük dil modellerinin belirsizlikle karşılaştıklarında yüzeysel tahminler üretme eğiliminde olduğunu, bunun da hatalı ve yanıltıcı çıktılara yol açabildiğini belirtiyorlar. Bu duruma “halüsinasyon” adı veriliyor ve yapay zekânın cevap verme mekanizmasının doğasından kaynaklanıyor: Veri örüntülerine dayalı tahmin yapmak, belirsizliği kabul etmekten daha yüksek performans puanı getiriyor. Büyük dil modelleri, bir sorunun doğru olup olmadığını ya da gerçekten bilinip bilinmediğini denetlemiyor.

KULLANICI DOĞRULUĞUNU KONTROL ETMİYOR

Yalnızca eldeki verilerden en olası cevabı tahmin ediyor. Eğitim ve performans ölçümleri, ‘Bilmiyorum’ demekten ziyade akıcılık ve sürekliliği ödüllendirdiği için model, belirsizlikte bile yanıt üretmeye yönelir. Uzmanlar, bu eğilimin özellikle doğru bilgi ve kaynak gerektiren durumlarda risk oluşturduğunu vurguluyor. Yapay zekâların, belirsizliği açıkça ifade etmeye programlanmamış olması; kullanıcıların yanlış bilgilendirilmesine, hatta kritik kararlarda hatalı yönlendirmelere neden olabiliyor. Avrupa Yayın Birliği’nin yaptığı çalışmalarda da dil modellerinin önemli bir kısmında doğruluk sorunları tespit edilirken, kullanıcıların bu cevapların güvenilirliğini sorgulamadan kabul ettiği gözlemlendi.

BELİRSİZLİĞE HAZIR DEĞİL

Bu tartışmalar, yapay zekâ geliştirme topluluğu içinde de yankı buluyor. Bir kısım araştırmacı, modellerin belirsizlik karşısında dürüst cevap vermesi için eğitim ve değerlendirme yöntemlerinin yeniden düşünülmesi gerektiğini savunuyor. Bazı yeni çalışmalar ise yapay zekânın “Bilmiyorum” deme yeteneğini geliştirmenin yollarını araştırıyor. Bu, teknolojinin daha güvenilir hâle gelmesi için atılması gereken bir adım olarak öne çıkıyor.

İŞTE YAPMAMIZ GEREKENLER

  • Peki ne zaman “Bilmiyorum” demesi gerekir? Yeterli veri yoksa, çelişkili bilgi varsa ve tahminle cevap vermek riskliyse açıkça belirsizliği belirtmesi gerekiyor. Bu yüzden artık daha gelişmiş modeller, “Emin değilim”, “Bu konuda net veri yok” gibi ifadeleri bilinçli olarak kullanmaya başlıyor. Yapay zekâ, öğrenen bir sistem olduğu için kullanıcıların “Emin değilsen belirt”, “Kaynağı olmayan bilgi üretme”, “Bilmiyorsan söyle” şeklindeki ifadeleri kullanması gerekiyor. Bu önlemler, modeli tahmin durumundan dikkat moduna alacaktır.