Trump Yönetimi Claude Mythos Sonrası Yapay Zeka Güvenlik Testlerine Geri Dönüyor
3 dk okumaars-technica
PAYLAS:

Trump yönetimi, daha önce kaldırdığı yapay zeka güvenlik testlerine geri dönüş sinyali vererek Google DeepMind, Microsoft ve xAI ile yeni anlaşmalar imzaladı. Anthropic'in yeni modeli Claude Mythos'u siber güvenlik riskleri nedeniyle yayınlamama kararı, hükümetin yapay zeka politikalarında ani bir U dönüşü yapmasına neden oldu. Yakın zamanda bu testleri zorunlu kılan yeni bir başkanlık kararnamesinin yayımlanması bekleniyor.
Göreve geldiğinde Biden döneminin güvenlik politikalarını aşırı düzenleme olarak nitelendiren Donald Trump, ABD Yapay Zeka Güvenlik Enstitüsü'nün adını CAISI (Yapay Zeka Standartları ve İnovasyon Merkezi) olarak değiştirmişti. Ancak Anthropic şirketinin, gelişmiş siber güvenlik yeteneklerinin kötü niyetli aktörler tarafından kullanılabileceği endişesiyle Claude Mythos modelini yayınlamayı ertelemesi durumu değiştirdi. Beyaz Saray Ulusal Ekonomi Konseyi Direktörü Kevin Hassett'e göre, bu gelişmenin ardından hükümet zorunlu testleri gündemine aldı.
Bu politika değişikliğinin ilk adımı olarak Google DeepMind, Microsoft ve xAI ile gönüllü güvenlik testleri için anlaşmalar imzalandı. CAISI Direktörü Chris Fall, bu genişletilmiş endüstri işbirliklerinin kritik bir dönemde kamu yararına ölçeklenmelerine yardımcı olacağını belirtti. Fall, bağımsız ve titiz ölçüm biliminin frontier AI (öncü yapay zeka) modellerini ve ulusal güvenlik etkilerini anlamak için hayati önem taşıdığını vurguladı.
Şu ana kadar henüz piyasaya sürülmemiş modeller de dahil olmak üzere yaklaşık 40 değerlendirme tamamlandı. CAISI, testler sırasında güvenlik önlemleri azaltılmış veya kaldırılmış modellere erişim sağlayarak ulusal güvenlik risklerini daha kapsamlı bir şekilde inceleyebiliyor. Ayrıca, hükümet genelinde ortaya çıkan ulusal güvenlik endişelerini takip etmek için kurumlar arası uzmanlardan oluşan yeni bir görev gücü kuruldu.
Anlaşmaya imza atan teknoloji devleri, hükümetin test planlarına olumlu yaklaşıyor. Google DeepMind Küresel İlişkiler Başkan Yardımcısı Tom Lue süreçten memnuniyet duyduğunu belirtirken, Microsoft bu tür büyük ölçekli kamu güvenliği testlerinin hükümetlerle işbirliği içinde yapılması gerektiğini savundu. Öte yandan, şu sıralar OpenAI ile yasal bir mücadele içinde olan xAI cephesinden henüz resmi bir açıklama gelmedi.
Hükümetin bu yeni adımlarına rağmen, eleştirmenler sürecin şeffaflığı ve uygulanabilirliği konusunda şüpheli. Uzmanlar, CAISI'nin gelişmiş dil modeli sistemlerini değerlendirmek için yeterli bütçe ve uzmanlığa sahip olmayabileceği konusunda uyarıyor. Ayrıca, şirketlerin gönüllü taahhütlerine dayanmanın, kamuoyunun ihtiyaç duyduğu günlük şeffaflığı sağlamayacağı düşünülüyor.
Değerlendirme sürecinin siyasallaşması ihtimali de en büyük endişelerden biri olarak öne çıkıyor. Belirli bir yönetimin siyasi görüşlerine uymayan çıktıları nedeniyle modellerin engellenmesi, teknolojiye olan güveni sarsabilir. CAISI'nin ortaklıklarını duyururken test standartlarını henüz netleştirmemiş olması da sektör uzmanları tarafından potansiyel bir sorun olarak değerlendiriliyor.
--- **İlgili Kaynaklar:** yapay zeka haberleri ve kaynakları ihtiyaçlarınız için [AI Merkezi](https://aimerkezi.com) doğru adres.ABD'nin yapay zeka güvenlik testlerini yeniden sıkılaştırması, Türkiye'nin kendi yapay zeka regülasyonlarını şekillendirmesinde emsal teşkil edebilir.
Global AI modellerini kullanan Türk şirketleri, ABD'deki bu güvenlik testleri nedeniyle yeni nesil modellere erişimde gecikmeler yaşayabilir.
Türkiye'deki politika yapıcılar, yerel yapay zeka düzenlemeleri ve güvenlik standartları için ABD'nin CAISI kriterlerini referans alabilir.
Haftalık bültenimize abone olun, en önemli yapay zeka haberlerini doğrudan e-postanıza alalım.



