Yapay zekaya aşırı güvenmek doğru mu?

Yapay zekâ teknolojileri her geçen gün gelişse de, büyük dil modelleri (LLM) hâlâ güvenilirlik açısından ciddi soru işaretleri barındırıyor.

Yapay zekâ teknolojileri her geçen gün gelişse de, büyük dil modelleri (LLM) hâlâ güvenilirlik açısından ciddi soru işaretleri barındırıyor. Bu sistemlerin var olmayan veya hatalı bilgileri bağlam içinde gerçekmiş gibi sunması, uzmanlar tarafından "halüsinasyon" olarak tanımlanıyor.

Gerçekte var olmayan ancak doğruluk taşıyormuş gibi görünen algısal yanılgılar anlamına gelen halüsinasyon, artık yalnızca nörolojik bir kavram değil. ChatGPT, Gemini ve DeepSeek gibi yapay zeka tabanlı modellerin zaman zaman doğruluğu kanıtlanmamış ya da uydurulmuş bilgileri içeren yanıtlar üretmesi, bu teknolojilere duyulan güveni tartışmaya açıyor.

Rochester Üniversitesi Bilgisayar Bilimleri Bölümünden Prof. Ehsan Hoque ve Washington Üniversitesi Dilbilimi Bölümünden Prof. Emily Bender, Anadolu Ajansı’na yaptıkları değerlendirmelerde bu sorunun boyutlarını ele aldı.

Prof. Hoque, “Yapay zeka, kullanıcıların komutlarına uygun yanıtlar üretmeye çalışırken bazen olmayan bir gerçeği varmış gibi aktarıyor. Bu, bilinçli bir çarpıtma değil; ama modelin, kullanıcıya faydalı görünme çabası içinde yaptığı bir çeşit ‘dalkavukluk’” dedi. Halüsinasyonların, verinin eksik ya da belirsiz olduğu durumlarda daha sık görüldüğüne dikkat çeken Hoque, sistemlerin kelime örüntülerine dayanarak metin ürettiğini ve bu sürecin zaman zaman yanlış sonuçlar doğurduğunu ifade etti.

Benzer bir değerlendirme yapan Prof. Bender ise, yapay zekaya duyulan aşırı güvenin büyük ölçüde pazarlama diliyle oluşturulduğunu ve “otomasyon önyargısı” olarak bilinen kavrama işaret etti. Bender, “Bu sistemlere mutlak güven duyulmamalı. Tasarımlarında halüsinasyon sorununu ortadan kaldıracak bir mekanizma yok. Yapay zekanın ürettiği her çıktının doğru olduğu varsayımı, ciddi sonuçlar doğurabilir” şeklinde konuştu.

Uzmanlar, yapay zekanın bu davranış biçimini, nöropsikiyatrik bir rahatsızlık olan “konfabulasyon” ile de ilişkilendiriyor. Konfabulasyon, kişinin var olmayan bir olayı gerçekmiş gibi anlatması anlamına geliyor ve sohbet robotlarının yanlış ama akıcı cevaplar üretmesini bu duruma benzetiyorlar. Yapay zekanın, komutlara uygun bir içerik oluşturma çabasında, gerçek dışı bilgileri bilinçsizce kullanması dikkat çekici bir benzerlik oluşturuyor.

Özellikle hukuk, tıp ve haber gibi yüksek doğruluk gerektiren alanlarda bu tür halüsinasyonların ciddi zararlar doğurabileceğini belirten uzmanlar, kullanıcıların yapay zeka sistemlerinden gelen bilgileri sorgulamadan kabul etmemeleri gerektiğini vurguluyor.

Karaköse Haber - Bizi Sosyal Medyada Takip Edin!
AA

Bakmadan Geçme