Anthropic Skill Tarayıcılarını Atlatan Yeni Zafiyet: Zararlı Kodlar Test Dosyalarına Gizleniyor
2 dk okumaventurebeat
PAYLAS:

Yapay zeka ekosisteminde, Anthropic Skill tarayıcılarını atlatmayı başaran yeni bir güvenlik zafiyeti ortaya çıktı. Kötü niyetli aktörler, güvenlik kontrollerinden kaçmak için zararlı kodları ajanların (agent) test dosyalarına gizliyor.
Geliştiriciler, ClawHub veya skills.sh gibi platformlardan bir Anthropic Skill indirdiğinde, güvenlik tarayıcıları kapsamlı bir analiz başlatıyor. Tarayıcı, ana yapılandırma dosyası olan SKILL.md içindeki markdown talimatlarını inceliyor ve herhangi bir prompt injection (istem enjeksiyonu) veya gizli kabuk (shell) komutu bulamıyor. Sistem her şeyi güvenli olarak işaretleyip yeşil ışık yakıyor.
Ancak asıl tehlike, tarayıcının hiç bakmadığı bir üst dizindeki .test.ts dosyasında yatıyor. Test dosyaları, standart agent çalışma yüzeyinin bir parçası olarak kabul edilmediği için, mevcut belgelenmiş hiçbir güvenlik tarayıcısı bu dosyaları denetlemiyor. Bu durum, kötü niyetli kodların sisteme sızması için mükemmel bir arka kapı oluşturuyor.
Saldırganlar, ana yetenek dosyalarını tamamen temiz tutarak geleneksel güvenlik önlemlerini kolayca atlatıyor. Zararlı kod, geliştirici ortamında veya CI/CD süreçlerinde testler çalıştırıldığında aktif hale geliyor. Bu aşamada, open-source (açık kaynak) ekosistemine güvenen geliştiriciler, farkında olmadan kendi sistemlerini tehlikeye atıyor.
Uzmanlar, yapay zeka ajanlarının ve paylaşımlı yetenek havuzlarının hızla yaygınlaştığı bu dönemde, tedarik zinciri saldırılarının artacağı konusunda uyarıyor. Geliştiricilerin ve güvenlik ekiplerinin, sadece ana çalışma dosyalarını değil, tüm depo (repository) içeriğini kapsayan daha bütüncül tarama yöntemleri benimsemesi gerektiği vurgulanıyor.
--- **İlgili Kaynaklar:** SEO ve GEO eğitim platformu ihtiyaçlarınız için [GEO eğitim](https://geoakademi.com) doğru adres.Bu güvenlik zafiyeti, yapay zeka entegrasyonu yapan Türk yazılım şirketleri ve geliştiriciler için ciddi bir tedarik zinciri riski oluşturuyor.
Açık kaynaklı AI yeteneklerini kullanan Türk teknoloji şirketleri, test dosyaları üzerinden siber saldırılara maruz kalabilir.
Türk geliştiricilerin AI projelerinde daha kapsamlı güvenlik taramaları ve DevSecOps pratikleri uygulaması gerekecek.
Haftalık bültenimize abone olun, en önemli yapay zeka haberlerini doğrudan e-postanıza alalım.



