Yapay Zekaya Sahip Silahlar (YZSS) İnsanlığın Sonunu Getirebilir Mi?

Bu yazının içerik özgünlüğü henüz kategorize edilmemiştir. Eğer merak ediyorsanız ve/veya belirtilmesini istiyorsanız, gözden geçirmemiz ve içerik özgünlüğünü belirlememiz için [email protected] üzerinden bize ulaşabilirsiniz.

Daha önceden yayınladığımız "Otonom Silahlar: Yapay Zeka Araştırmacıları ve Robotikçilerden Açık Mektup" başlıklı yazımızda, sayısız bilim insanının yapay zekaya sahip otonom silahlarla ilgili endişelerine temel düzeyde bir giriş yapmıştık ve endişelerini onların ağzından aktarmıştık. Şimdiyse biraz daha detaya girmek ve bu endişelerin ne kadar yerinde olduğunu iki taraftan da görüşlere yer vererek incelemek istiyoruz. Umuyoruz faydalı olacaktır.

Yapay Zeka’nın, yani zeki makinelerin, sağlık sektöründe, mühendislikte, arama-kurtarmada ve daha pek çok alanda hayatımızı kolaylaştırıyor olması elbette sevindiricidir. Fakat böyle güçlü bir teknolojinin savunma sanayinde kullanımının gelecekte getirebileceği riskler, aralarında fizikçi Stephen Hawking, Tesla Motors Şirketi yöneticisi Elon Musk ve Apple Şirketi kurucu ortağı Steve Wozniak gibi yapay zeka araştırmacılarının, uzmanların ve düşünürlerin bulunduğu bir camiayı öylesine rahatsız etmiş olmalı ki bu grup “otonom silah sistemleri”nin, diğer bir deyişle, “Yapay Zekaya Sahip Silah Sistemleri”nin gelecekteki olası tehlikelerine dikkat çeken ve Birleşmiş Milletler’e hitaben yazılmış açık bir mektuba imza attı. Bu mektubu buradaki yazımızdan okuyabilirsiniz.

“Otonom silah” deyince ne anlamamız gerekiyor? 

Dışarıdan bir kişinin müdahalesine gerek duymayan ve önceden belirlenmiş kıstaslara haiz kişileri ya da hedefleri ‘kendi kendine’ belirleyip vurabilen, kısacası kendi kendini yönetebilen araçlara “otonom silahlar” deniyor. Bu tür silahlar, en basit haliyle, hali hazırda birkaç yerde kullanılıyor. Örneğin, Kuzey ve Güney Kore arasındaki askerden arındırılmış bir bölgede sabit olarak konuşlanmış bir otonom silah türü 2 mile kadar etrafta hareket eden herhangi bir kişiyi veya nesneyi kendi kendine hedef alıp vurabiliyor. Bir diğer örnek, İsrail’in kullandığı havada uzun süre kalarak radar sinyalleri saptayabilen ve bulduğu anda bu sinyalin kaynağını yok edebilen otonom füze. 

Neden bu kadar tepki alıyor?

Mayıs 2014’te BM’nin “Belirli Konvansiyonel Silahlar Sözleşmesi” çerçevesinde otonom silahlar üzerine yapılan tartışmaların ana ekseninde “ ‘anlamlı’ insan denetiminin olmayışı” yer alıyor. Bu da ister istemez “sorumluluk açığı”nı gündeme getiriyor. Peki ‘anlamlı’ denetim demekle neyi kastediyoruz? Daha açıklayıcı olmak için, şöyle bir şey düşünelim. Terörist bir grubun bir okula sinyal yayan bir radar sistemi yerleştirmiş olduğunu ve yukarıda bahsettiğimiz örnekteki gibi radar sinyalinin peşine düşen otonom bir füzenin, bu okuldan gelen radar sinyalini saptadığını ve onu vurduğunu hayal edin. Eğer bu füzenin ‘anlamlı’ denetime sahip bir kullanıcısı olsaydı, bu kullanıcı okulu vurmanın insancıl olmayacağına ya da savaş mevzuatına aykırı olacağına karar verip bu eylemi gerçekleştirmezdi. Örneğimizdeki duruma dönersek, eylem halindeyken kullandığı silahı etkin bir şekilde denetleyen ve yöneten bir kullanıcının yokluğunda ya da gerçekleşen eylemin kanunlara uygun olup olmadığına karar veren bir kişinin yokluğunda, sorumluluk kime ait olacaktır? İşte, otonom (kendi kendini yönetebilen) silahların, birincil olarak, sorumluluk kıstasını yerine getiremeyecek olması yukarıda bahsettiğimiz mektupta neden bu tür silahlara yasak getirilmesi gerektiği fikrinin ardında yatan endişelerden sadece biri.

İkinci bir endişe, otonom silahların yasal olarak kullanımına izin verilirse herhangi büyük askeri bir gücün YZS silahları geliştirmede öne geçtiği takdirde, gelecekte küresel silahlanma yarışının tırmanacağı endişesi. Diğer bir kaygı ise, ucuz ve toplu üretime müsait oluşundan dolayı bu tür silahların bir süre sonra kara borsaya düşerek terörist grupların ya da diktatörlerin eline geçebileceği ve böyle olduğunda soykırım veya suikastlar gibi toplu ölümlerin yaşanabileceği korkusu. İşte bu sebeplerle mektupta, gelecekte ortaya çıkabilecek tüm bu olası tehlikelerden dolayı Yapay Zekaya Sahip Silah (YZSS) geliştirme yarışının daha başlamadan bitmek zorunda olduğunun altı çiziliyor.

Endişe yersiz olabilir mi?

YZ’nın gerçekten bir gün kendi kararlarını kendisinin verebilme potansiyeline kavuşacağına, bir bilince sahip olacağına ve insanlardan daha zeki hale geleceğine inanılıyor. Tüm bunların yanında YZ’nın duygulara da sahip olabileceğine inanan ünlü teorik fizikçi Lawrence Krauss, YZS robotların insanlık için bir tehdit unsuru olmayabileceğini, hatta YZ ve insanlar arasında bir “ortaklık” oluşabileceğini söyleyerek ortaya daha iyimser bir tablo koyuyor. “Karar verme” mekanizmasının insanlarda “sezgi”, “kişilerarası iletişim” ve “mantıklı düşünme” boyutunda ilerlediğini, makinelerin ise duygusal boyutta bizim kadar ileri olamayacaklarını düşünmeye eğilimli oluşumuzdan dolayı YZ’nın sağlıklı karar veremeyeceğine dair korkularımızın olduğunu söylüyor. Oysa Krauss’a göre her şeyi çok hızlı bir şekilde öğrenebilen YZ,  “mutlu, üzgün ya da yardımsever” olmayı neden öğrenemesin? Niçin insanlarla “empati” kuramasın? Bu durumda, şiddetli düşmanlıklar söz konusu olduğunda bile, Krauss’un ifadesiyle, “bir makinenin vermiş olduğu bir karar, bir insanın vereceği karardan daha kötü olmayı gerektirmez.”  Ve dolayısıyla, makine illa ki insanın aleyhinde karar vermek zorunda değil. 

YZ teknolojisinin insanlık için zarardan çok fayda getirebileceği inancını taşıdığından Krauss, bu alandaki araştırmaların önünün kesilmemesi gerektiğini de şu sözlerle ifade ediyor: 

“Düşünen/karar verebilen/öz-bilince sahip geleceğin makineleri konusundaki endişelerin çoğuna katılmıyorum. Hatta, hem insanoğlunun koşullarını iyileştirmede sunacağı fırsatlar hem de bilincin doğasına dair tutacağı ışık bakımından, düşünen makineleri deneyimleme ihtimali beni gerçekten çok heyecanlandırıyor.”

Ayrıca yazımızın başında bahsettiğimiz özelliklerinden dolayı YZS silahların, hem ‘insan’ asker zayiatını azaltması bakımından hem de YZS silah geliştirilirken bu yöndeki araştırmaların YZ alanına yapacağı katkılar ve dolayısıyla insanlığa sunacağı potansiyeller bakımından bazı çevrelerce savunulduğunu da belirtmek isteriz.

Sonuç

Burada görülmesi gereken en kritik nokta, Yapay Zeka'ya karşı olmak ile "Yapay Zeka ile Çalışan Otonom Silahlara" karşı olmanın aynı şey olmadığıdır. Tıpkı Genetiği Değiştirilmiş Organizmalar (GDO), aşılar veya evrimsel biyoloji konusundaki karşıtlığın çok büyük oranda cehaletten besleniyor olması gibi, Evrim Ağacı olarak Yapay Zeka karşıtlığı başlığı altında yükselmesinden endişe ettiğimiz kitle, muhtemelen yine cehaletten beslenen bir akım olacak. Bunun önüne daha başından geçilmesi gerektiği kanısındayız. Yapay Zeka'nın silahlara adapte edilmesinden endişe ederek Yapay Zeka'nın önüne geçmeye çalışmak, atom bombası da yapılır endişesiyle atomu parçalamaktan uzak durarak radyoloji ve radyografi gibi çok kritik bilimleri yok etmeye benzer. Düzeltilmesi gereken insanların zihinleri, devletlerin politikaları, savaş algısı, vb. fenalıklardır. Bilimsel araştırmanın sınırları değil!

Otonom silahlar elbette insanlığın geleceği için çok riskli silahlardır ve daha şimdiden önüne geçmek kritik bir öneme sahiptir. Bu nedenle yapılan girişimleri destekliyoruz. Ancak bunların cahil medya ve bilgisiz halk tarafından abartılarak koca bir bilimsel alana genişletilmesi, yapacağımız en büyük hatalardan biridir. Bunun önüne geçmek, insanları aydınlatmak ve bilgilendirmek bilimseverlerin ortak görevidir. Yapay Zeka geleceğin en güçlü teknolojisi olacaktır, şu anda rakipsiz gözükmektedir. Dolayısıyla bu konuda çalışan bilim insanlarının önünü açmak, onları özgürleştirmek, onların yaptığı çalışmaları takip etmek, onları anlamaya çalışmak, şu etapta atılabilecek en sağlıklı adımlardır. Elbette bunu yaparken, yolda karşılaşılan olası tehlikelere karşı önlem almak da işlevsel ve yerindedir. Burada yapılanın da bu olduğu anlaşılmalıdır.

Düzenleyen: ÇMB 

Kaynaklar ve İleri Okuma:

  1. Nature
  2. Center for New American Security
  3. Institute for Ethics and Emerging Technologies
  4. The Conversation
  5. Geek Snack

Otonom Silahlar: Yapay Zeka Araştırmacıları ve Robotikçilerden Açık Mektup

Modern Yaşamda Ölüm Kaynakları: Çağımızda Neden ve Nasıl Ölüyoruz?

Katkı Sağlayanlar

Çağrı Mert Bakırcı

Çağrı Mert Bakırcı

Editör

Evrim Ağacı'nın kurucusu ve idari sorumlusudur. Popüler bilim yazarı ve anlatıcısıdır. Doktorasını Texas Tech Üniversitesi'nden almıştır. Araştırma konuları evrimsel robotik, yapay zeka ve teorik/matematiksel evrimdir.

Konuyla Alakalı İçerikler
  • Anasayfa
  • Gece Modu

Göster

Şifremi unuttum Üyelik Aktivasyonu

Göster

Göster

Şifrenizi mi unuttunuz? Lütfen e-posta adresinizi giriniz. E-posta adresinize şifrenizi sıfırlamak için bir bağlantı gönderilecektir.

Geri dön

Eğer aktivasyon kodunu almadıysanız lütfen e-posta adresinizi giriniz. Üyeliğinizi aktive etmek için e-posta adresinize bir bağlantı gönderilecektir.

Geri dön

Close
Geri Bildirim