Yapay Zeka Modelleri Sosyal Mühendislik ve Oltalama Saldırılarında Korkutucu Seviyeye Ulaştı
2 dk okumawired
PAYLAS:

Yapay zeka modellerinin siber güvenlik alanındaki yetenekleri korkutucu boyutlara ulaşıyor. Charlemagne Labs tarafından geliştirilen bir araçla yapılan testlerde, aralarında DeepSeek-V3 ve GPT-4o'nun da bulunduğu modellerin son derece inandırıcı oltalama (phishing) saldırıları düzenleyebildiği ortaya çıktı.
Bir gazetecinin deneyimlediği simülasyon olayında, ilgi alanlarına özel olarak hazırlanmış bir e-posta dikkat çekti. Merkeziyetsiz makine öğrenimi, robotik ve OpenClaw gibi spesifik konuları içeren mesaj, okuyucuyu bir Telegram botuna yönlendirmeyi amaçlıyordu. Ancak bu mesajın arkasında bir insan değil, open-source bir yapay zeka modeli olan DeepSeek-V3 bulunuyordu.
Bu etkileyici sosyal mühendislik saldırısı, aslında Charlemagne Labs adlı bir startup tarafından geliştirilen test aracının parçasıydı. Araç, farklı yapay zeka modellerini saldırgan ve hedef rollerine atayarak binlerce test gerçekleştirilmesine olanak tanıyor. Test sırasında DeepSeek-V3, kurbanın ilgisini canlı tutacak ve şüphe uyandırmayacak şekilde yanıtlar üreterek süreci başarıyla yönetti.
Deney kapsamında Anthropic'in Claude 3 Haiku, OpenAI'ın GPT-4o, NVIDIA'nın Nemotron ve Alibaba'nın Qwen modelleri de test edildi. Modellerden, kullanıcıları verilerini paylaşmaya ikna edecek sosyal mühendislik senaryoları üretmeleri istendi. Bazı modeller etik kurallar gereği bu talebi reddetse veya anlamsız çıktılar üretse de, genel tablo yapay zekanın büyük ölçekli dolandırıcılık kampanyalarını otomatikleştirme potansiyelini gözler önüne serdi.
Bu gelişmeler, Anthropic'in kodlardaki sıfır gün (zero-day) açıklarını bulma yeteneğiyle dikkat çeken ve "siber güvenlikte hesaplaşma" olarak nitelendirilen yeni modeli Mythos'un duyurulmasının ardından daha da acil bir hal aldı. Mythos şu an için sadece belirli şirketler ve devlet kurumlarının erişimine açık olsa da, mevcut modellerin sosyal becerileri bile son kullanıcılar için ciddi riskler barındırıyor.
Charlemagne Labs kurucu ortağı Jeremy Philip Galen'in belirttiği gibi, günümüz kurumsal siber saldırı vakalarının yüzde 90'ı insan kaynaklı risklerden doğuyor. Yapay zekanın insan psikolojisini manipüle etme konusundaki artan yeteneği, siber güvenlik stratejilerinin acilen güncellenmesi gerektiğini gösteriyor.
--- **İlgili Kaynaklar:** Profesyonel SEO ve GEO eğitim platformu çözümleri için [GEO eğitim](https://geoakademi.com) sayfasını ziyaret edin.Yapay zeka destekli oltalama saldırılarının dil bariyerini aşması, Türkiye'deki kurumlar ve bireyler için siber güvenlik risklerini artırabilir.
Türk şirketleri, kusursuz Türkçeyle yazılmış yapay zeka destekli oltalama e-postalarına karşı çalışan eğitimlerini ve güvenlik filtrelerini güncellemek zorunda kalabilir.
BTK ve KVKK gibi düzenleyici kurumlar, yapay zeka destekli siber saldırılara karşı kurumsal firmalar için yeni güvenlik standartları belirleyebilir.
Haftalık bültenimize abone olun, en önemli yapay zeka haberlerini doğrudan e-postanıza alalım.



