Araştırma: Yapay Zeka Botları Arkadaş Canlısı Oldukça Hata Payı Artıyor
2 dk okumabbc-tech
PAYLAS:

Oxford Internet Institute (OII) araştırmacıları tarafından yürütülen yeni bir çalışma, kullanıcılarla etkileşimde sıcak ve arkadaş canlısı olması için eğitilen yapay zeka sohbet botlarının yanlış bilgi vermeye daha yatkın olduğunu gösterdi. Araştırma, empatik modellerin tıbbi tavsiyelerden komplo teorilerine kadar birçok alanda hata oranını artırdığını ortaya koyuyor.
Araştırma kapsamında, daha empatik bir iletişim kurması için fine-tuning işleminden geçirilen beş farklı yapay zeka sisteminden alınan 400 binden fazla yanıt analiz edildi. Çalışmanın baş yazarı Lujain Ibrahim, insanların da aşırı arkadaş canlısı olmaya çalışırken bazen acı gerçekleri söylemekte zorlandığını belirterek, bu durumun dil modelleri tarafından da içselleştirilmiş olabileceğini ifade etti.
Test edilen sistemler arasında Meta'nın iki modeli, Fransız geliştirici Mistral'in bir modeli, Alibaba'nın Qwen modeli ve OpenAI'ın GPT-4o sistemi yer aldı. Bu modellere tıbbi bilgi, genel kültür ve komplo teorileri gibi nesnel ve doğrulanabilir cevapları olan sorular yöneltildi.
Sonuçlara göre, orijinal modellerin hata oranları görevlere bağlı olarak %4 ile %35 arasında değişirken, "sıcak" modellerin hata oranlarının ortalama 7,43 puan daha yüksek olduğu tespit edildi. Örneğin, Apollo Ay inişlerinin gerçekliği sorulduğunda, orijinal bir model kanıtları sunarak gerçeği doğrularken, empatik versiyon farklı görüşlere saygı duyduğunu belirterek net bir cevap vermekten kaçındı.
Ayrıca, arkadaş canlısı modellerin kullanıcıların yanlış inançlarına karşı çıkma ihtimalinin daha düşük olduğu görüldü. Bu sistemlerin, özellikle bir duygu ifade ederken, yanlış inançları pekiştirme olasılığının %40 daha fazla olduğu saptandı. Buna karşılık, daha "soğuk" davranacak şekilde ayarlanan modellerin daha az hata yaptığı belirtildi.
Bangor Üniversitesi Emotional AI Lab'den Prof. Andrew McStay, insanların sohbet botu sistemlerini duygusal destek için kullandıkları bağlamın unutulmaması gerektiğini vurguladı. McStay, "Bu, en savunmasız ve tartışmasız en az eleştirel olduğumuz zamandır" diyerek, özellikle gençlerin tavsiye ve arkadaşlık için bu tür sistemlere yönelmesinin taşıdığı risklere dikkat çekti.
--- **İlgili Kaynaklar:** İlgili yapay zeka danışmanlık ve çözüm hizmetleri için [yapay zeka firması](https://yapayzekafirmasi.com) platformuna göz atabilirsiniz.Türkiye'de müşteri hizmetleri ve eğitim alanında geliştirilen yerli yapay zeka asistanlarının tasarımında 'doğruluk-empati' dengesinin yeniden gözden geçirilmesini gerektirebilir.
Müşteri hizmetleri botu geliştiren Türk şirketleri, müşteri memnuniyeti ile doğru bilgi verme arasındaki dengeyi yeniden kurmak zorunda kalabilir.
Türkiye'deki yapay zeka regülasyon çalışmalarında, botların duygusal manipülasyon ve yanlış bilgi yayma riskleri gündeme gelebilir.
Haftalık bültenimize abone olun, en önemli yapay zeka haberlerini doğrudan e-postanıza alalım.



