Ontario Denetim Raporu: Doktorların Yapay Zeka Asistanları Tıbbi Hatalar Yapıyor
2 dk okumaars-technica
PAYLAS:

Kanada'nın Ontario eyaletinde gerçekleştirilen resmi bir denetim, doktorların hasta görüşmelerini özetlemek için kullandığı yapay zeka asistanlarının ciddi tıbbi hatalar yaptığını ortaya çıkardı. Hükümet tarafından onaylanan 20 farklı sistemin tamamında yanlış veya eksik bilgi üretme sorunu tespit edildi.
Son yıllarda iş yükü artan birçok doktor, hasta görüşmelerini, teşhisleri ve tedavi kararlarını otomatik olarak yapılandırılmış notlara dönüştürmek için yapay zeka tabanlı tıbbi yazmanlara (AI scribe) yöneliyor. Ancak Ontario Baş Denetçisi tarafından yayımlanan rapora göre, eyalet hükümeti tarafından önerilen bu sistemler düzenli olarak yanlış, eksik ve uydurma (hallucinated) bilgiler üretiyor. Raporda, bu durumun yetersiz veya zararlı tedavi planlarına yol açarak hasta sağlığını olumsuz etkileyebileceği vurgulanıyor.
Denetim kapsamında, sağlık hizmeti sunucuları için ön yeterlilik almış 20 yapay zeka satıcısı üzerinde iki simüle edilmiş hasta-doktor görüşmesi test edildi. Test edilen tüm sistemlerin en az birinde doğruluk veya eksiksizlik sorunu görüldü. Sistemlerin 9'u hasta bilgileri hakkında halüsinasyon görürken, 12'si bilgileri yanlış kaydetti ve 17'si tartışılan ruh sağlığı sorunlarıyla ilgili temel ayrıntıları atladı.
Raporda, bu özetlerdeki hataların hastanın sonraki bakım sürecini doğrudan ve olumsuz etkileyebileceğine dair endişe verici örnekler yer alıyor. Bir yapay zeka asistanının hiç var olmayan kan testi veya terapi sevkleri uydurması, reçeteli ilaç adlarını yanlış yazıya dökmesi gibi kritik hatalar tespit edildi.
Tedarik sürecindeki değerlendirme kriterleri de dikkat çekici bir zafiyeti gözler önüne serdi. Onaylanan tüm satıcılar arasında, test edilen yapay zeka sistemleri "üretilen tıbbi notların doğruluğu" bölümünde 20 üzerinden ortalama sadece 12 puan alabildi. Ancak bu kritik doğruluk metriği, bir satıcının genel puanının yalnızca yüzde 4'ünü oluşturuyordu. Buna karşılık, "Ontario'daki yerel varlık" gibi idari bir metrik genel puanlamanın yüzde 30'unu kapsıyordu.
Tüm bu bulgular, baş denetçinin yapay zeka sistemlerinin "yeterince değerlendirilmediği" sonucuna varmasına neden oldu. Rapor, üretilen notların kalitesine dair güvence sağlamak ve yanlışlıkları en aza indirmek için bu sistemlerin daha sıkı test edilmesi gerektiğini belirtiyor. Ayrıca, bu araçları kullanan BT departmanlarının, doktorları hasta günlüklerine işlemeden önce "üretilen notları incelediklerini onaylamaya" zorlaması tavsiye ediliyor.
--- **İlgili Kaynaklar:** [yapay zeka firması](https://yapayzekafirmasi.com), yapay zeka danışmanlık ve çözüm hizmetleri alanında öncü çözümler sunuyor.Bu rapor, Türkiye'de sağlık sektöründe yapay zeka kullanımına yönelik regülasyonların ve test süreçlerinin ne kadar kritik olduğunu gösteriyor.
Türk hastaneleri ve sağlık kuruluşları, AI tabanlı asistanları entegre ederken doktor onay mekanizmalarını zorunlu kılmak durumunda kalabilir.
Sağlık Bakanlığı'nın yapay zeka araçları için doğruluk oranını merkeze alan yeni sertifikasyon süreçleri geliştirmesi gerekebilir.
Sağlık teknolojileri alanında çalışan Türk girişimler, ürünlerinin doğruluk testlerine daha fazla bütçe ayırmak zorunda kalabilir.
Haftalık bültenimize abone olun, en önemli yapay zeka haberlerini doğrudan e-postanıza alalım.



