Yapay Zeka Gerçek Bir Savaşta İnsanları Yenebilir mi?
Yeni Amerikan Güvenliği Merkezi Başkan Yardımcısının Röportajı

- Blog Yazısı
Yaratıcı[1]
Geçtiğimiz yılın önemli bilim kurgu filmlerinden Yaratıcı (The Creator), insanlığın yapay zekâ ile savaş halinde olduğu bir gelecek hayal ediyor. Bilim kurgu için yeni bir fikir sayılmaz ama bu filmin temel farkı -örneğin Terminatör ’ün aksine- bu olasılığı kurgudan ziyade bilim gibi görmeye başladığımız bir zamanda ortaya çıkması.
Son aylarda yapay zekanın yarattığı “Varoluşsal tehdit” hakkında birçok uyarı yapıldı. Gerçekten de yapay zekâ bir gün bu yazıyı benden daha iyi yazabileceği gibi, savaş alanında da korkutucu ve kontrolden çıkabilecek gelişmelere yol açabilir.
İnsansız Ordular
En bariz endişe, silahları insanların yerine yapay zekanın otonom olarak kullandığı bir gelecek. “İnsansız Ordular” kitabının yazarı ve Center for a New American Security (Yeni Amerikan Güvenliği Merkezi) Başkan Yardımcısı Paul Scharre, DARPA’nın AlphaDogfight turnuvasını örnek gösteriyor. Turnuva, bir hava simülatöründe insan pilotlarla yapay zekayı karşı karşıya getiriyordu.

Scharre, “Yapay zekâ, pilotu 15’e sıfır ile yenmekle kalmadı aynı zamanda insanların yapamayacağı hamleler de yaptı. Özellikle de çok yüksek hassasiyetli, saliselik atışlar gerçekleştirdi.” Diyor, ancak yapay zekaya ölüm kalım kararları verme yetkisinin verilmesi rahatsız edici soruları da beraberinde getiriyor.
Örneğin, yapay zekâ hata yapar ve yanlışlıkla sivilleri öldürürse ne olur? “Bu bir savaş suçu olur” diyor Scharre, “İşin zor tarafı, ortada hesap sorulacak kimse de olmayabilir.”
Savaş suçları karşısında yapay zeka: İşin zor tarafı, ortada hesap sorulacak kimse de olmayabilir.
Bu bir rekabet!
Ancak yakın gelecekte yapay zekanın savaşta taktik ve analiz alanında kullanılması daha olası. Scharre, “Yapay zekâ, bilgilerin daha iyi işlenmesine yardımcı olabilir ve orduların verimini artırabilir” diyor. “Bence ordular giderek daha fazla karar alma mekanizmasını yapay zekaya devretmek zorunda kalacak çünkü ordu acımasız bir rekabet ortamıdır. Eğer kazanılacak bir avantaj varsa ve rakibiniz bu avantajı kullanırken siz kullanmazsanız büyük bir dezavantajınız olur.”
Scharre’ye göre bu durum, nükleer silahlanmaya benzer bir yapay zekâ silahlanma yarışına yol açabilir. “Bazı Çinli akademisyenler savaş alanında tekillik varsayımında bulundu” diyor. Yapay zekâ güdümlü karar verme hızının, insanların anlama yeteneğinin hızını gölgede bıraktığı noktaya tekillik deniyor. İnsanlar savaş alanında karar vermek için neredeyse tüm anahtarları otonom sistemlere devretmek zorunda kalacaklar.

Böyle bir senaryoda yapay zekanın kontrolünü kaybetmemiz hatta yapay zekanın bize düşman kesilmesi çok da imkânsız görünmüyor. Bu nedenle ABD’nin politikası, nükleer silah kullanma kararlarını her zaman insanların alması yönünde. Scharre, “Ancak Rusya ve Çin gibi ülkeler böyle bir adım atmadı” diyor. “Dolayısıyla bu alanda hala endişeler var.”
Olur da bir gün yapay zekâ bize savaş ilan ederse Scharre kazanma şansımız konusunda iyimser değil.
“Şempanzeler insanlara karşı bir savaşı kazanabilir mi?” diyor gülerek. “Bugün satranç büyük ustaları en iyi satranç oynayan yapay zekaların karşısına bile çıkamıyor. Üstelik bu noktaya gelmemiz çok hızlı oldu. Sadece beş yıl önce büyük ustalar yapay zekayla rekabet edebiliyordu.”

“Giderek daha güçlü yapay zekâ sistemleri inşa ediyor ve bunları gerçek hayatta kullanıyoruz ama onları iyi anlamıyor ve kontrol edemiyoruz. Bence gerçekten bizden daha akıllı makineler üretebilirsek çok fazla sorunlarla karışılacağız.”
Karar:
Savaşçı bir yapay zekâ neredeyse kesinlikle insanlarda daha üstün şekilde dövüşebilir. Sonunda gerçek bilimle uyumlu bir bilimkurgu filmi gördük!
Popular Science Ocak/Şubat Say:140
[1]Stephen Kelly
- 1
- 1
- 1
- 1
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- 0
Evrim Ağacı'na her ay sadece 1 kahve ısmarlayarak destek olmak ister misiniz?
Şu iki siteden birini kullanarak şimdi destek olabilirsiniz:
kreosus.com/evrimagaci | patreon.com/evrimagaci
Çıktı Bilgisi: Bu sayfa, Evrim Ağacı yazdırma aracı kullanılarak 25/04/2025 12:57:28 tarihinde oluşturulmuştur. Evrim Ağacı'ndaki içeriklerin tamamı, birden fazla editör tarafından, durmaksızın elden geçirilmekte, güncellenmekte ve geliştirilmektedir. Dolayısıyla bu çıktının alındığı tarihten sonra yapılan güncellemeleri görmek ve bu içeriğin en güncel halini okumak için lütfen şu adrese gidiniz: https://evrimagaci.org/s/16709
İçerik Kullanım İzinleri: Evrim Ağacı'ndaki yazılı içerikler orijinallerine hiçbir şekilde dokunulmadığı müddetçe izin alınmaksızın paylaşılabilir, kopyalanabilir, yapıştırılabilir, çoğaltılabilir, basılabilir, dağıtılabilir, yayılabilir, alıntılanabilir. Ancak bu içeriklerin hiçbiri izin alınmaksızın değiştirilemez ve değiştirilmiş halleri Evrim Ağacı'na aitmiş gibi sunulamaz. Benzer şekilde, içeriklerin hiçbiri, söz konusu içeriğin açıkça belirtilmiş yazarlarından ve Evrim Ağacı'ndan başkasına aitmiş gibi sunulamaz. Bu sayfa izin alınmaksızın düzenlenemez, Evrim Ağacı logosu, yazar/editör bilgileri ve içeriğin diğer kısımları izin alınmaksızın değiştirilemez veya kaldırılamaz.