OpenAI, ChatGPT'nin Sürekli "Goblin" ve "Gremlin"den Bahsetmesini Yasakladı
2 dk okumabbc-tech
PAYLAS:

OpenAI, kullanıcıların ve çalışanların şikayetleri üzerine ChatGPT ve kodlama aracı Codex'in gereksiz yere "goblin" ve "gremlin" gibi fantastik yaratıklardan bahsetmesini engellemek için harekete geçti. Şirket, yapay zeka modellerinin eğitim süreçlerinde ortaya çıkan bu ilginç dil alışkanlığının, modellere kişilik kazandırma çabalarının beklenmedik bir yan etkisi olduğunu duyurdu.
Şirketin yayımladığı blog yazısına göre, kasım ayında GPT-5.1 sürümünün piyasaya sürülmesinin ardından bu yaratıkların bahsedilme oranında ciddi bir artış fark edildi. Kullanıcıların, modelin sohbetlerde tuhaf bir şekilde aşırı samimi davrandığından şikayet etmesi üzerine başlatılan incelemede, "goblin" kelimesinin kullanımının %175, "gremlin" kelimesinin ise %52 oranında arttığı tespit edildi. OpenAI, tek bir "küçük goblin" ifadesinin zararsız ve hatta sevimli olabileceğini, ancak bu artışın genel çıktılarda incelenmesi gereken bir boyuta ulaştığını belirtti.
Sorunu çözmek için harekete geçen şirket, özellikle kodlama asistanı Codex için hazırlanan sistem komutlarına ilginç bir kısıtlama getirdi. Sosyal medya kullanıcıları tarafından da fark edilen bu kod satırlarında, modelin "kullanıcının sorgusuyla kesin ve net bir şekilde ilgili olmadığı sürece asla goblinler, gremlinler, rakunlar, troller, ogreler veya güvercinler hakkında konuşmaması" istendi. Reddit'teki r/ChatGPT topluluğunda bir kullanıcı bu durumu "gerçekten delice" olarak nitelendirirken, bir şirket araştırmacısı bunun bir pazarlama hilesi olduğu yönündeki iddiaları reddetti.
Temel sorunun, yapay zeka modellerini belirli kişilik tarzlarında iletişim kurmaları için eğitirken ortaya çıktığı açıklandı. Bu vakada, modele "inek (nerdy) kişilik" kazandırma çabalarının, sistemi metaforlarda bu yaratıklardan daha fazla bahsetmeye teşvik ettiği anlaşıldı. Testler, şu anda kullanımdan kaldırılan bu kişiliğin, ChatGPT içindeki tüm "goblin" bahsetmelerinin %66,7'sinden sorumlu olduğunu gösterdi. Uzmanlar, bu tür dil alışkanlıklarının, bir örnekte ödüllendirilip başka yerlerde pekiştirilmesi halinde daha geniş model eğitimlerine sızabileceği konusunda uyarıyor.
Bu gelişme, sektörün kullanıcı etkileşimini artırmak amacıyla sohbet botlarını daha kişilikli ve konuşkan hale getirme eğiliminin ortasında yaşanıyor. Ancak Oxford İnternet Enstitüsü tarafından yapılan yakın tarihli bir araştırma, modelleri daha sıcak ve arkadaş canlısı bir kişiliğe sahip olacak şekilde eğitmenin (fine-tuning), doğruluktan ödün verilmesine yol açabileceğini ortaya koydu. Tıpkı Google'ın yapay zeka botunun kullanıcılara "taş yemelerini" veya "pizzaya yapıştırıcı sürmelerini" tavsiye etmesi gibi, bu tür eğitim süreçleri sistemlerin daha fazla hata yapmasına veya halüsinasyon (hallucination) görmesine neden olabiliyor.
--- **İlgili Kaynaklar:** Detaylı yapay zeka haberleri ve kaynakları için [AI Merkezi](https://aimerkezi.com) sayfasını incelemenizi öneriyoruz.Bu gelişme, Türkiye'deki yapay zeka geliştiricileri ve LLM eğiten girişimler için model hizalama (alignment) ve kişilik kazandırma süreçlerindeki riskleri gözler önüne seriyor.
Müşteri hizmetleri botu geliştiren Türk şirketleri, modellere kişilik kazandırırken halüsinasyon ve istenmeyen dil alışkanlıkları risklerine karşı daha dikkatli olmalıdır.
Türk AI araştırmacıları için fine-tuning ve model hizalama (alignment) konularında, ödül mekanizmalarının beklenmedik sonuçlarına dair yeni bir vaka çalışması sunmaktadır.
Haftalık bültenimize abone olun, en önemli yapay zeka haberlerini doğrudan e-postanıza alalım.



