Tartışma Yaratan Makale: Google DeepMind Bilim İnsanına Göre Yapay Zeka Asla Bilinç Kazanamayacak
2 dk okumadonanimhaber
PAYLAS:

Google DeepMind bünyesinde görev yapan kıdemli bilim insanı Alexander Lerchner, yapay zekanın geleceğine dair süregelen tartışmalara yeni bir boyut kazandırdı. Yayımladığı son makalede Lerchner, yapay zeka sistemlerinin bilinçli davranışları yalnızca taklit edebileceğini, ancak hiçbir zaman gerçek anlamda bilinç sahibi olamayacağını savunuyor.
“The Abstraction Fallacy: Why AI Can Simulate But Not Instantiate Consciousness” başlıklı çalışmanın temel iddiası, fenomenal bilincin fiziksel bir durum olduğu yönünde. Lerchner’e göre, bir yazılım ürünü olarak bilincin ortaya çıkması imkansız. Bu yaklaşım, özellikle son yıllarda yapay genel zeka (AGI) konusunda iyimser öngörülerde bulunan teknoloji liderlerinin söylemleriyle doğrudan çelişiyor. Örneğin, DeepMind CEO’su Demis Hassabis'in AGI’nin sanayi devriminden çok daha büyük bir etki yaratacağı yönündeki vizyonu, bu makalenin çizdiği sınırlarla zıt bir tablo oluşturuyor.
Makalede öne çıkan en önemli kavramlardan biri “soyutlama yanılgısı” (abstraction fallacy) olarak adlandırılıyor. Bu kavram, yapay zeka sistemlerinin anlamlı çıktılar üretebilmesi için insanların veriyi düzenlemesi gerektiği gerçeğinin göz ardı edilmesini eleştiriyor. Sistemler, dünyayı anlamlı parçalara bölen insan aklına ve insanlar tarafından etiketlenmiş veri setlerine bağımlı çalışıyor. Dolayısıyla, kendi başlarına bağımsız bir anlam üretme kapasitesine sahip değiller.
Günümüzde yaygın olarak kullanılan LLM (Büyük Dil Modelleri) mimarileri de bu durumu doğruluyor. Bu modeller, sabit veri kalıplarını işleyen ve kendilerine verilen görev tamamlandığında duran araçlar olarak tanımlanıyor. Kendi varlığını sürdürme, içsel bir motivasyon geliştirme veya fiziksel bir ihtiyaç duyma gibi özelliklerden tamamen yoksunlar.
Akademik çevrelerde farklı tepkiler alan çalışma, bazı uzmanlar tarafından felsefe ve bilişsel bilim literatüründe on yıllardır tartışılan argümanların tekrarı olarak görülse de, önemli bir ayrım yapıyor. Lerchner, yüksek kapasiteli bir AGI geliştirilme olasılığını tamamen reddetmiyor. Ancak bu sistemlerin ne kadar gelişmiş olursa olsun bilinç sahibi olamayacağının altını çiziyor.
Bu teorik çerçevenin pratik ve etik bir sonucu da bulunuyor. Gelecekte geliştirilecek en gelişmiş yapay zeka sistemlerinin bile bir “ahlaki özne” olarak değerlendirilmemesi gerektiği vurgulanıyor. Yani makineler, insan benzeri bir bilinç veya hak talebiyle hiçbir zaman yasal veya etik olarak ilişkilendirilmeyecek.
--- **İlgili Kaynaklar:** Profesyonel yapay zeka danışmanlık ve çözüm hizmetleri çözümleri için [yapay zeka firması](https://yapayzekafirmasi.com) sayfasını ziyaret edin.Bu teorik tartışma, Türkiye'deki yapay zeka etiği ve hukuki düzenleme çalışmalarına yön verecek temel argümanlar sunuyor.
Türk akademisyenler ve bilişsel bilim araştırmacıları için LLM ve AGI etiği konusunda yeni araştırma ve tartışma alanları açabilir.
Türkiye'nin hazırlayacağı ulusal yapay zeka yasalarında, AI sistemlerinin 'ahlaki özne' veya 'tüzel kişilik' olarak kabul edilmemesi gerektiği yönündeki görüşleri destekleyebilir.
Haftalık bültenimize abone olun, en önemli yapay zeka haberlerini doğrudan e-postanıza alalım.



