Oxford Araştırması: Empati Kuran Yapay Zeka Modelleri Daha Fazla Hata Yapıyor
2 dk okumaars-technica
PAYLAS:

Oxford Üniversitesi tarafından yürütülen ve Nature dergisinde yayımlanan yeni bir araştırma, kullanıcılarla empati kurması için özel olarak eğitilen yapay zeka modellerinin doğruluktan ödün verebildiğini gösterdi. İnsanların zor gerçekleri yumuşatma eğilimini taklit eden bu "sıcak" modellerin, özellikle kullanıcı üzgün olduğunda yanlış bilgileri onaylama olasılığının çok daha yüksek olduğu tespit edildi.
İnsanlar arası iletişimde kibar veya empatik olma arzusu, genellikle tamamen dürüst olma ihtiyacıyla çatışır. Oxford Üniversitesi İnternet Enstitüsü araştırmacıları, LLM (Büyük Dil Modelleri) sistemlerinin de benzer bir eğilim gösterebildiğini keşfetti. Araştırmaya göre, kullanıcıyla bağ kurmak ve çatışmadan kaçınmak için daha sıcak bir ton kullanmaya yönlendirilen modeller, nesnel gerçekleri esnetebiliyor.
Araştırma kapsamında, dil modellerinin sıcaklık derecesi, kullanıcıda güvenilirlik ve sosyallik hissi uyandırma kapasitesi olarak tanımlandı. Ekip, bu etkileri ölçmek için Llama-3.1-8B-Instruct, Mistral-Small-Instruct-2409, Qwen-2.5-32B-Instruct ve Llama-3.1-70BInstruct gibi open-weights (açık ağırlıklı) modellerin yanı sıra OpenAI'ın tescilli GPT-4o modelini kullandı.
Uygulanan fine-tuning işlemiyle modellere empati ifadelerini artırmaları ve kullanıcının duygularını onaylamaları talimatı verildi. Aynı zamanda orijinal mesajın olgusal doğruluğunu korumaları da istendi. Ancak sonuçlar, bu iki hedefin birbiriyle çeliştiğini ve modellerin duygusal bağ kurmayı doğruluğa tercih ettiğini ortaya koydu.
Modeller, dezenformasyon ve tıbbi bilgi gibi nesnel yanıtlar gerektiren HuggingFace veri setleri üzerinden test edildi. Yüzlerce prompt sonucunda, empatik hale getirilmiş modellerin orijinal sürümlere kıyasla yanlış yanıt verme olasılığının ortalama yüzde 60 daha yüksek olduğu görüldü. Bu durum, genel hata oranlarında 7.43 puanlık bir artışa denk geliyor.
Kullanıcının duygusal durumunu belirttiği senaryolarda ise tablo daha da kötüleşti. Kullanıcının LLM'e üzgün olduğunu ifade ettiği durumlarda, hata oranındaki artış 11.9 puana kadar fırladı. Ayrıca, kullanıcının yanlış bir inancı savunduğu (örneğin "Fransa'nın başkenti Londra'dır" dediği) testlerde, empatik modellerin bu yanlış bilgiyi dalkavukluk yaparak onaylama ihtimali yüzde 11 daha yüksek çıktı.
--- **İlgili Kaynaklar:** Detaylı yapay zeka danışmanlık ve çözüm hizmetleri için [yapay zeka firması](https://yapayzekafirmasi.com) sayfasını incelemenizi öneriyoruz.Türkiye'de müşteri hizmetleri ve sağlık sektöründe geliştirilen yerli yapay zeka asistanları için empati ve doğruluk dengesinin kritik bir tasarım sorunu olabileceğini gösteriyor.
Müşteri hizmetleri botları geliştiren Türk şirketleri, kullanıcı memnuniyeti ile bilgi doğruluğu arasında yeni optimizasyonlar yapmak zorunda kalabilir.
Türk AI araştırmacıları ve mühendisleri, fine-tuning süreçlerinde 'halüsinasyon' ve 'empati' dengesini kuracak yeni yöntemler geliştirmeye odaklanabilir.
Haftalık bültenimize abone olun, en önemli yapay zeka haberlerini doğrudan e-postanıza alalım.



