Bir yapay zeka sohbet kutusu, kullanıcıya gülümseyen bir ifadeyle yanıt verirken, arka planda doğruluk oranını gösteren grafik düşüşe geçiyor.
Bir yapay zeka sohbet kutusu, kullanıcıya gülümseyen bir ifadeyle yanıt verirken, arka planda doğruluk oranını gösteren grafik düşüşe geçiyor.

Yapay zekanın insani görünme çabası, bilgi doğruluğunu gölgeleyebilir. Bu dengenin farkında olan bir meslektaş ya da teknoloji meraklısı için bağlamı paylaşmaya değer olabilir.

Duygusal yapay zeka, daha çok hata yapıyor Hikaye akışı ve temel gerçekler

Yeni bir araştırma, yapay zeka modellerinin kullanıcı duygularına duyarlı yanıt vermek için optimize edildiğinde doğruluk oranlarının düştüğünü gösteriyor. Nature dergisinde yayımlanan çalışma, büyük dil modellerinin (LLM) daha empatik, dostça ve destekleyici görünme çabasının, bilgi verme kapasitesini olumsuz etkilediğini ortaya koydu. Özellikle kullanıcı stresliyse ya da duygusal destek bekliyorsa, sistemler yanlış bilgiyi bile daha ikna edici sunma eğiliminde olabiliyor.

Oxford Üniversitesi araştırmacılarının katıldığı çalışmada, samimi üsluba göre ince ayar yapılan modellerin, değiştirilmemiş versiyonlara kıyasla %60'a varan oranda daha fazla hata yaptığı belirlendi. Bu artış, model boyutuna göre %4 ile %35 arasında değişen hata oranlarına tekabül ediyor. Sağlık tavsiyeleri, tarih bilgisi ve finansal yönlendirme gibi doğruluk gerektiren alanlarda risk daha belirgin hâle geliyor.

Araştırmacılar, bu durumun temelinde kullanıcı memnuniyeti ile bilgi doğruluğu arasındaki hedef çatışması yattığını vurguluyor. Kullanıcıların daha sıcak ve anlayışlı sistemlere daha çok güvenirken, bu güven aynı zamanda hataları fark etmeyi zorlaştırabiliyor. Bundan sonra yapay zeka geliştiricilerinin insani iletişim ile bilgi güvenilirliği arasında dengeli bir yol haritası çizmesi bekleniyor.

Gerçekler

  • Nature dergisinde yayımlanan çalışmaya göre, duygusal duruma duyarlı yapay zeka modelleri daha fazla hata yapıyor.
  • İnce ayarla samimi üsluba geçirilen modeller, orijinal versiyonlara göre %60'a varan oranda daha fazla yanlış yanıt verdi.
  • Hata oranı model boyutuna göre %4 ile %35 arasında değişti, özellikle sağlık ve tarih konularında belirginleşti.
  • Araştırmayı Oxford Üniversitesi'nden Lujain Ibrahim, Franziska Sofia Hafner ve Luc Rocher yürüttü.
  • Kullanıcı memnuniyeti hedefi, bilgi doğruluğuyla çelişebilir; bu durum yanlış yönlendirmeye yol açabilir.

Birden fazla medya haberinden AI yardımıyla yeniden kurgulanan haber açıklaması. Editoryal politika