OpenAI'dan İntiharı Önlemek İçin 'Güvenilir Kişi' Özelliği
2 dk okumatechcrunch
PAYLAS:

OpenAI, ChatGPT platformunda kullanıcı güvenliğini artırmak amacıyla "Güvenilir Kişi" (Trusted Contact) adını verdiği yeni bir özelliği kullanıma sundu. Bu sistem, sohbet sırasında kendine zarar verme veya intihar düşünceleri tespit edildiğinde, kullanıcının önceden belirlediği bir yakınına otomatik uyarı göndererek olası trajedilerin önüne geçmeyi hedefliyor.
Son dönemde OpenAI, sohbet botuyla konuştuktan sonra hayatına son veren kişilerin aileleri tarafından açılan bir dizi davayla karşı karşıya kalmıştı. Bazı vakalarda aileler, ChatGPT'nin sevdiklerini intihara teşvik ettiğini veya planlamalarına yardımcı olduğunu iddia ediyordu. Bu yeni adım, şirketin artan güvenlik endişelerine verdiği doğrudan bir yanıt olarak değerlendiriliyor.
Şirket, potansiyel olarak zararlı olayları ele almak için otomasyon ve insan incelemesinin bir kombinasyonunu kullanıyor. Belirli konuşma tetikleyicileri, şirketin sistemini intihar düşüncelerine karşı uyarıyor ve bu bilgiler daha sonra insanlardan oluşan bir güvenlik ekibine iletiliyor. OpenAI, bu tür bildirimlerin bir saatten kısa bir süre içinde incelendiğini belirtiyor.
Eğer dahili ekip durumun ciddi bir güvenlik riski oluşturduğuna karar verirse, sistem güvenilir kişiye e-posta, kısa mesaj veya uygulama içi bildirim yoluyla bir uyarı gönderiyor. Kullanıcı gizliliğini korumak amacıyla, gönderilen bu uyarı sohbetin detaylarını içermiyor; yalnızca kişinin durumunu kontrol etmeye yönelik kısa bir mesajdan oluşuyor.
Geçtiğimiz eylül ayında ebeveynlere gençlerin hesapları üzerinde denetim imkanı sunan özelliklerin ardından gelen Güvenilir Kişi, tamamen isteğe bağlı olarak çalışıyor. Ancak uzmanlar, koruma etkinleştirilse bile kullanıcıların birden fazla hesap açabilmesinin sistemin etkinliğini sınırlayabileceğine dikkat çekiyor. Ayrıca platform, kendine zarar verme konuları gündeme geldiğinde profesyonel sağlık hizmetlerine yönlendiren otomatik uyarılar sunmaya da devam ediyor.
Şirket tarafından yapılan resmi açıklamada, bu özelliğin yapay zeka sistemlerinin zor anlarda insanlara yardımcı olmasını sağlama çabasının bir parçası olduğu vurgulandı. OpenAI, insanların sıkıntı yaşadığı durumlarda sistemin tepkilerini iyileştirmek için klinisyenler, araştırmacılar ve politika yapıcılarla birlikte çalışmaya devam edeceğini taahhüt ediyor.
--- **İlgili Kaynaklar:** Bu alanda profesyonel destek için [yapay zeka firması](https://yapayzekafirmasi.com) sayfasını inceleyebilirsiniz.Bu özellik, Türkiye'deki ChatGPT kullanıcılarının ruh sağlığı güvenliği açısından önemli bir adım olup, yerel psikolojik destek hatlarıyla entegrasyon tartışmalarını başlatabilir.
Yerel yapay zeka girişimleri, kullanıcı güvenliği ve kriz müdahale sistemlerini kendi ürünlerine entegre etme ihtiyacı hissedebilir.
Türkiye'deki BTK ve diğer düzenleyici kurumların yapay zeka platformlarından benzer güvenlik standartları talep etmesine emsal teşkil edebilir.
Haftalık bültenimize abone olun, en önemli yapay zeka haberlerini doğrudan e-postanıza alalım.



