Paylaşım Yap
Tüm Reklamları Kapat
Tüm Reklamları Kapat

Katil Robotlar: Yapay Zekaya Sahip Silahlar (YZSS), İnsanlığın Sonunu Getirebilir mi?

Yapay Zekaya Sahip ve Silahlarla Donatılmış "Katil Robotlar" Yasaklanmalı mı?

6 dakika
3,510
Katil Robotlar: Yapay Zekaya Sahip Silahlar (YZSS), İnsanlığın Sonunu Getirebilir mi? Anton Weaver
Evrim Ağacı Akademi: Yapay Zeka Güvenliği Yazı Dizisi

Bu yazı, Yapay Zeka Güvenliği yazı dizisinin 5 . yazısıdır. Bu yazı dizisini okumaya, serinin 1. yazısı olan " Yapay Zekâ Nasıl Tehlikeli Olabilir? Yapay Genel Zekâ Güvenliği Neden Çok Önemlidir?" başlıklı makalemizden başlamanızı öneririz.

Yazı dizisi içindeki ilerleyişinizi kaydetmek için veya kayıt olun.

EA Akademi Hakkında Bilgi Al
Tüm Reklamları Kapat

Yapay Zeka'nın, yani zeki makinelerin, sağlık sektöründe, mühendislikte, arama-kurtarmada ve daha pek çok alanda hayatımızı kolaylaştırıyor olması elbette sevindiricidir. Fakat böyle güçlü bir teknolojinin savunma sanayinde kullanımının gelecekte getirebileceği riskler, aralarında fizikçi Stephen Hawking, Tesla Motors Şirketi yöneticisi Elon Musk ve Apple Şirketi kurucu ortağı Steve Wozniak gibi yapay zeka araştırmacılarının, uzmanların ve düşünürlerin bulunduğu bir camiayı öylesine rahatsız etmiş olmalı ki bu grup "otonom silah sistemleri"nin, diğer bir deyişle, "Yapay Zekaya Sahip Silah Sistemleri"nin gelecekteki olası tehlikelerine dikkat çeken ve Birleşmiş Milletler’e hitaben yazılmış açık bir mektuba imza attı. Bu mektubu buradaki yazımızdan okuyabilirsiniz.

"Otonom Silah" Ne Demek?

Dışarıdan bir kişinin müdahalesine gerek duymayan ve önceden belirlenmiş kıstaslara haiz kişileri ya da hedefleri kendi kendine belirleyip vurabilen, kısacası kendi kendini yönetebilen araçlara "otonom silahlar" deniyor. Bu tür silahlar, en basit haliyle, hali hazırda birkaç yerde kullanılıyor. Örneğin, Kuzey ve Güney Kore arasındaki askerden arındırılmış bir bölgede sabit olarak konuşlanmış bir otonom silah türü 4 kilometreye kadar etrafta hareket eden herhangi bir kişiyi veya nesneyi kendi kendine hedef alıp vurabiliyor. Bir diğer örnek, İsrail'in kullandığı, havada uzun süre kalarak radar sinyalleri saptayabilen ve bulduğu anda bu sinyalin kaynağını yok edebilen otonom füze...

Otonom Silahlar Neden Tehlikeli?

Mayıs 2014'te BM’nin "Belirli Konvansiyonel Silahlar Sözleşmesi" çerçevesinde otonom silahlar üzerine yapılan tartışmaların ana ekseninde "anlamlı bir insan denetiminin olmayışı" yer alıyor. Bu da ister istemez "sorumluluk açığı"nı gündeme getiriyor.

Tüm Reklamları Kapat

Peki anlamlı denetim demekle neyi kastediyoruz? Daha açıklayıcı olmak için, şöyle bir durum düşünelim: Terörist bir grubun bir okula sinyal yayan bir radar sistemi yerleştirmiş olduğunu ve yukarıda bahsettiğimiz örnekteki gibi radar sinyalinin peşine düşen otonom bir füzenin, bu okuldan gelen radar sinyalini saptadığını ve onu vurduğunu hayal edin. Eğer bu füzenin anlamlı denetime sahip bir kullanıcısı olsaydı, bu kullanıcı, okulu vurmanın insancıl olmayacağına ya da savaş mevzuatına aykırı olacağına karar verip bu eylemi gerçekleştirmezdi.

Örneğimizdeki duruma dönersek, eylem halindeyken kullandığı silahı etkin bir şekilde denetleyen ve yöneten bir kullanıcının yokluğunda ya da gerçekleşen eylemin kanunlara uygun olup olmadığına karar veren bir kişinin yokluğunda, sorumluluk kime ait olacaktır? İşte, otonom (kendi kendini yönetebilen) silahların, birincil olarak, "sorumluluk kıstası"nı yerine getiremeyecek olması, yukarıda bahsettiğimiz mektupta neden bu tür silahlara yasak getirilmesi gerektiği fikrinin ardında yatan endişelerden sadece biridir.

İkinci bir endişe, otonom silahların yasal olarak kullanımına izin verilirse, herhangi büyük askeri bir gücün YZS silahları geliştirmede öne geçtiği takdirde, gelecekte küresel silahlanma yarışının tırmanacağı endişesidir.

Diğer bir kaygı ise, ucuz ve toplu üretime müsait oluşundan dolayı bu tür silahların bir süre sonra kara borsaya düşerek, terörist grupların ya da diktatörlerin eline geçebileceği ve böyle olduğunda soykırım veya suikastlar gibi toplu ölümlerin yaşanabileceği korkusudur.

Tüm Reklamları Kapat

İşte bu sebeplerle mektupta, gelecekte ortaya çıkabilecek tüm bu olası tehlikelerden dolayı Yapay Zekaya Sahip Silah (YZSS) geliştirme yarışının daha başlamadan bitmek zorunda olduğunun altı çizilmektedir.

Bir Yaşamı Sonlandırma Kararı Yapay Zekaya Bırakılmalı mı?

Dronlar gibi otonom silah sistemleri, belli bir zaman içerisinde savaş alanlarında insan askerlerin yerini alabilirler. Fakat yapay zekanın buna karar verebilip bir insanın hayatını sonlandırabilmesi etik midir?

Washington DC'de düzenlenen Amerikan Bilim İlerleme Toplantısı'nda uzmanlar, bariz bir sonuca ulaştı. Sonuç ise yankılanan bir şekilde: "Hayır!". BBC'nin bildirdiğine göre, etik profesörleri ve insan hakları savunucularının dahil olduğu uzmanlar yapay zekanın kontrol ettiği silahların geliştirilmesinin yasaklanması gerektiğini savunuyor. İnsan Hakları Nöbeti yöneticisi Mary Wareham, BBC'ye şöyle diyor:

Biz, yürüyen ya da konuşan robotların dünyayı ele geçirmesinden korkmuyoruz, daha olası bir şeyden dolayı endişeliyiz: O da alışılagelmiş silah sistemlerinin otonom hale gelmesidir.

New York'taki New School'dan bir diğer profesör şöyle diyor:

Evrim Ağacı'ndan Mesaj

Evrim Ağacı'nın çalışmalarına Kreosus, Patreon veya YouTube üzerinden maddi destekte bulunarak hem Türkiye'de bilim anlatıcılığının gelişmesine katkı sağlayabilirsiniz, hem de site ve uygulamamızı reklamsız olarak deneyimleyebilirsiniz. Reklamsız deneyim, sitemizin/uygulamamızın çeşitli kısımlarda gösterilen Google reklamlarını ve destek çağrılarını görmediğiniz, %100 reklamsız ve çok daha temiz bir site deneyimi sunmaktadır.

Kreosus

Kreosus'ta her 10₺'lik destek, 1 aylık reklamsız deneyime karşılık geliyor. Bu sayede, tek seferlik destekçilerimiz de, aylık destekçilerimiz de toplam destekleriyle doğru orantılı bir süre boyunca reklamsız deneyim elde edebiliyorlar.

Kreosus destekçilerimizin reklamsız deneyimi, destek olmaya başladıkları anda devreye girmektedir ve ek bir işleme gerek yoktur.

Patreon

Patreon destekçilerimiz, destek miktarından bağımsız olarak, Evrim Ağacı'na destek oldukları süre boyunca reklamsız deneyime erişmeyi sürdürebiliyorlar.

Patreon destekçilerimizin Patreon ile ilişkili e-posta hesapları, Evrim Ağacı'ndaki üyelik e-postaları ile birebir aynı olmalıdır. Patreon destekçilerimizin reklamsız deneyiminin devreye girmesi 24 saat alabilmektedir.

YouTube

YouTube destekçilerimizin hepsi otomatik olarak reklamsız deneyime şimdilik erişemiyorlar ve şu anda, YouTube üzerinden her destek seviyesine reklamsız deneyim ayrıcalığını sunamamaktayız. YouTube Destek Sistemi üzerinde sunulan farklı seviyelerin açıklamalarını okuyarak, hangi ayrıcalıklara erişebileceğinizi öğrenebilirsiniz.

Eğer seçtiğiniz seviye reklamsız deneyim ayrıcalığı sunuyorsa, destek olduktan sonra YouTube tarafından gösterilecek olan bağlantıdaki formu doldurarak reklamsız deneyime erişebilirsiniz. YouTube destekçilerimizin reklamsız deneyiminin devreye girmesi, formu doldurduktan sonra 24-72 saat alabilmektedir.

Diğer Platformlar

Bu 3 platform haricinde destek olan destekçilerimize ne yazık ki reklamsız deneyim ayrıcalığını sunamamaktayız. Destekleriniz sayesinde sistemlerimizi geliştirmeyi sürdürüyoruz ve umuyoruz bu ayrıcalıkları zamanla genişletebileceğiz.

Giriş yapmayı unutmayın!

Reklamsız deneyim için, maddi desteğiniz ile ilişkilendirilmiş olan Evrim Ağacı hesabınıza yapmanız gerekmektedir. Giriş yapmadığınız takdirde reklamları görmeye devam edeceksinizdir.

Bir makineye insan hayatına kastetme yetkisinin verilmesi meşrulaştırılamaz ve bu durum insan haklarının ihlal edilmesidir. Makineler ahlak sahibi değildirler ve hayata kastetmek gibi kararlar almak durumunda bırakılamaz.

Ancak, yapay zeka kontrollü silah sistemlerinin kullanımını herkes yanlış bulmuyor. ABD ve Rusya, Eylül ayında Cenevre'de yapılan bir müzakerelerin ardından otonom silahların yasaklanmasına açıkça karşı çıkan birçok ülkenin arasındaydı.

Endişe Yersiz Olabilir mi?

Yapay Zeka'nın gerçekten bir gün kendi kararlarını kendisinin verebilme potansiyeline kavuşacağına, bir bilince sahip olacağına ve insanlardan daha zeki hale geleceğine inanılıyor. Tüm bunların yanında Yapay Zeka'nın duygulara da sahip olabileceğine inanan ünlü teorik fizikçi Lawrence Krauss, YZS robotların insanlık için bir tehdit unsuru olmayabileceğini, hatta YZ ve insanlar arasında bir "ortaklık" oluşabileceğini söyleyerek, ortaya daha iyimser bir tablo koyuyor.

"Karar verme" mekanizmasının insanlarda "sezgi", "kişilerarası iletişim" ve "mantıklı düşünme" boyutunda ilerlediğini, makinelerin ise duygusal boyutta bizim kadar ileri olamayacaklarını düşünmeye eğilimli oluşumuzdan dolayı, Yapay Zeka'nın sağlıklı karar veremeyeceğine dair korkularımızın olduğunu söylüyor. Oysa Krauss'a göre her şeyi çok hızlı bir şekilde öğrenebilen YZ, "mutlu, üzgün ya da yardımsever" olmayı neden öğrenemesin? Niçin insanlarla "empati" kuramasın? Bu durumda, şiddetli düşmanlıklar söz konusu olduğunda bile, Krauss’un ifadesiyle:

Bir makinenin vermiş olduğu bir karar, bir insanın vereceği karardan daha kötü olmayı gerektirmez. Dolayısıyla makine, illa ki insanın aleyhinde karar vermek zorunda değil. 

Yapay Zeka teknolojisinin insanlık için zarardan çok fayda getirebileceği inancını taşıdığından Krauss, bu alandaki araştırmaların önünün kesilmemesi gerektiğini de şu sözlerle ifade ediyor: 

Düşünen/karar verebilen/öz-bilince sahip geleceğin makineleri konusundaki endişelerin çoğuna katılmıyorum. Hatta, hem insanoğlunun koşullarını iyileştirmede sunacağı fırsatlar hem de bilincin doğasına dair tutacağı ışık bakımından, düşünen makineleri deneyimleme ihtimali beni gerçekten çok heyecanlandırıyor.

Ayrıca yazımızın başında bahsettiğimiz özelliklerinden dolayı YZS silahların, hem "insan asker" zayiatını azaltması bakımından hem de YZS silah geliştirilirken bu yöndeki araştırmaların Yapay Zeka alanına yapacağı katkılar ve dolayısıyla insanlığa sunacağı potansiyeller bakımından bazı çevrelerce savunulduğunu da belirtmek isteriz.

Sonuç

Burada görülmesi gereken en kritik nokta, Yapay Zeka'ya karşı olmak ile "Yapay Zeka ile Çalışan Otonom Silahlara" karşı olmanın aynı şey olmadığıdır. Tıpkı Genetiği Değiştirilmiş Organizmalar (GDO), aşılar veya evrimsel biyoloji konusundaki karşıtlığın çok büyük oranda cehaletten besleniyor olması gibi, Evrim Ağacı olarak Yapay Zeka karşıtlığı başlığı altında yükselmesinden endişe ettiğimiz kitle, muhtemelen yine cehaletten beslenen bir akım olacak. Bunun önüne daha başından geçilmesi gerektiği kanısındayız.

Tüm Reklamları Kapat

Yapay Zeka'nın silahlara adapte edilmesinden endişe ederek Yapay Zeka'nın önüne geçmeye çalışmak, atom bombası da yapılır endişesiyle atomu parçalamaktan uzak durarak radyoloji ve radyografi gibi çok kritik bilimleri yok etmeye benzer. Düzeltilmesi gereken insanların zihinleri, devletlerin politikaları, savaş algısı, vb. fenalıklardır. Bilimsel araştırmanın sınırları değil!

Otonom silahlar elbette insanlığın geleceği için çok riskli silahlardır ve daha şimdiden önüne geçmek kritik bir öneme sahiptir. Bu nedenle, yapılan girişimleri destekliyoruz. Ancak bunların cahil medya ve bilgisiz halk tarafından abartılarak koca bir bilimsel alana genişletilmesi, yapacağımız en büyük hatalardan biridir. Bunun önüne geçmek, insanları aydınlatmak ve bilgilendirmek bilimseverlerin ortak görevidir.

Yapay Zeka, geleceğin en güçlü teknolojisi olacaktır, şu anda rakipsiz gözükmektedir. Dolayısıyla bu konuda çalışan bilim insanlarının önünü açmak, onları özgürleştirmek, onların yaptığı çalışmaları takip etmek, onları anlamaya çalışmak, şu etapta atılabilecek en sağlıklı adımlardır. Elbette bunu yaparken, yolda karşılaşılan olası tehlikelere karşı önlem almak da işlevsel ve yerindedir. Burada yapılanın da bu olduğu anlaşılmalıdır.

Bu Makaleyi Alıntıla
Okundu Olarak İşaretle
Evrim Ağacı Akademi: Yapay Zeka Güvenliği Yazı Dizisi

Bu yazı, Yapay Zeka Güvenliği yazı dizisinin 5 . yazısıdır. Bu yazı dizisini okumaya, serinin 1. yazısı olan " Yapay Zekâ Nasıl Tehlikeli Olabilir? Yapay Genel Zekâ Güvenliği Neden Çok Önemlidir?" başlıklı makalemizden başlamanızı öneririz.

Yazı dizisi içindeki ilerleyişinizi kaydetmek için veya kayıt olun.

EA Akademi Hakkında Bilgi Al
28
0
  • Paylaş
  • Alıntıla
  • Alıntıları Göster
Paylaş
Sonra Oku
Notlarım
Yazdır / PDF Olarak Kaydet
Bize Ulaş
Yukarı Zıpla

İçeriklerimizin bilimsel gerçekleri doğru bir şekilde yansıtması için en üst düzey çabayı gösteriyoruz. Gözünüze doğru gelmeyen bir şey varsa, mümkünse güvenilir kaynaklarınızla birlikte bize ulaşın!

Bu içeriğimizle ilgili bir sorunuz mu var? Buraya tıklayarak sorabilirsiniz.

İçerikle İlgili Sorular
Soru & Cevap Platformuna Git
Bu İçerik Size Ne Hissettirdi?
  • Tebrikler! 7
  • Bilim Budur! 2
  • Umut Verici! 2
  • Mmm... Çok sapyoseksüel! 1
  • İnanılmaz 1
  • Muhteşem! 0
  • Güldürdü 0
  • Merak Uyandırıcı! 0
  • Üzücü! 0
  • Grrr... *@$# 0
  • İğrenç! 0
  • Korkutucu! 0
Kaynaklar ve İleri Okuma
Tüm Reklamları Kapat

Evrim Ağacı'na her ay sadece 1 kahve ısmarlayarak destek olmak ister misiniz?

Şu iki siteden birini kullanarak şimdi destek olabilirsiniz:

kreosus.com/evrimagaci | patreon.com/evrimagaci

Çıktı Bilgisi: Bu sayfa, Evrim Ağacı yazdırma aracı kullanılarak 21/11/2024 11:50:16 tarihinde oluşturulmuştur. Evrim Ağacı'ndaki içeriklerin tamamı, birden fazla editör tarafından, durmaksızın elden geçirilmekte, güncellenmekte ve geliştirilmektedir. Dolayısıyla bu çıktının alındığı tarihten sonra yapılan güncellemeleri görmek ve bu içeriğin en güncel halini okumak için lütfen şu adrese gidiniz: https://evrimagaci.org/s/3817

İçerik Kullanım İzinleri: Evrim Ağacı'ndaki yazılı içerikler orijinallerine hiçbir şekilde dokunulmadığı müddetçe izin alınmaksızın paylaşılabilir, kopyalanabilir, yapıştırılabilir, çoğaltılabilir, basılabilir, dağıtılabilir, yayılabilir, alıntılanabilir. Ancak bu içeriklerin hiçbiri izin alınmaksızın değiştirilemez ve değiştirilmiş halleri Evrim Ağacı'na aitmiş gibi sunulamaz. Benzer şekilde, içeriklerin hiçbiri, söz konusu içeriğin açıkça belirtilmiş yazarlarından ve Evrim Ağacı'ndan başkasına aitmiş gibi sunulamaz. Bu sayfa izin alınmaksızın düzenlenemez, Evrim Ağacı logosu, yazar/editör bilgileri ve içeriğin diğer kısımları izin alınmaksızın değiştirilemez veya kaldırılamaz.

Tüm Reklamları Kapat
Keşfet
Akış
İçerikler
Gündem
Eşey
Genler
Evrim Ağacı Duyurusu
Yeşil
Asteroid
Beslenme Bilimi
Kalıtım
Sendrom
Kanser
Dağılım
Ağrı
Nöronlar
Deniz
Sars
Ara Tür
Renk
Embriyo
Tür
Periyodik Tablo
Hukuk
Ortak Ata
Carl Sagan
Evrimsel Tarih
Hayatta Kalma
Kanser Tedavisi
Aklımdan Geçen
Komünite Seç
Aklımdan Geçen
Fark Ettim ki...
Bugün Öğrendim ki...
İşe Yarar İpucu
Bilim Haberleri
Hikaye Fikri
Video Konu Önerisi
Başlık
Bugün bilimseverlerle ne paylaşmak istersin?
Gündem
Bağlantı
Ekle
Soru Sor
Stiller
Kurallar
Komünite Kuralları
Bu komünite, aklınızdan geçen düşünceleri Evrim Ağacı ailesiyle paylaşabilmeniz içindir. Yapacağınız paylaşımlar Evrim Ağacı'nın kurallarına tabidir. Ayrıca bu komünitenin ek kurallarına da uymanız gerekmektedir.
1
Bilim kimliğinizi önceleyin.
Evrim Ağacı bir bilim platformudur. Dolayısıyla aklınızdan geçen her şeyden ziyade, bilim veya yaşamla ilgili olabilecek düşüncelerinizle ilgileniyoruz.
2
Propaganda ve baskı amaçlı kullanmayın.
Herkesin aklından her şey geçebilir; fakat bu platformun amacı, insanların belli ideolojiler için propaganda yapmaları veya başkaları üzerinde baskı kurma amacıyla geliştirilmemiştir. Paylaştığınız fikirlerin değer kattığından emin olun.
3
Gerilim yaratmayın.
Gerilim, tersleme, tahrik, taciz, alay, dedikodu, trollük, vurdumduymazlık, duyarsızlık, ırkçılık, bağnazlık, nefret söylemi, azınlıklara saldırı, fanatizm, holiganlık, sloganlar yasaktır.
4
Değer katın; hassas konulardan ve öznel yoruma açık alanlardan uzak durun.
Bu komünitenin amacı okurlara hayatla ilgili keyifli farkındalıklar yaşatabilmektir. Din, politika, spor, aktüel konular gibi anlık tepkilere neden olabilecek konulardaki tespitlerden kaçının. Ayrıca aklınızdan geçenlerin Türkiye’deki bilim komünitesine değer katması beklenmektedir.
5
Cevap hakkı doğurmayın.
Aklınızdan geçenlerin bu platformda bulunmuyor olabilecek kişilere cevap hakkı doğurmadığından emin olun.
Sosyal
Yeniler
Daha Fazla İçerik Göster
Popüler Yazılar
30 gün
90 gün
1 yıl
Evrim Ağacı'na Destek Ol

Evrim Ağacı'nın %100 okur destekli bir bilim platformu olduğunu biliyor muydunuz? Evrim Ağacı'nın maddi destekçileri arasına katılarak Türkiye'de bilimin yayılmasına güç katın.

Evrim Ağacı'nı Takip Et!
Yazı Geçmişi
Okuma Geçmişi
Notlarım
İlerleme Durumunu Güncelle
Okudum
Sonra Oku
Not Ekle
Kaldığım Yeri İşaretle
Göz Attım

Evrim Ağacı tarafından otomatik olarak takip edilen işlemleri istediğin zaman durdurabilirsin.
[Site ayalarına git...]

Filtrele
Listele
Bu yazıdaki hareketlerin
Devamını Göster
Filtrele
Listele
Tüm Okuma Geçmişin
Devamını Göster
0/10000
Bu Makaleyi Alıntıla
Evrim Ağacı Formatı
APA7
MLA9
Chicago
A. Ş. Özdil, et al. Katil Robotlar: Yapay Zekaya Sahip Silahlar (YZSS), İnsanlığın Sonunu Getirebilir mi?. (9 Ekim 2022). Alındığı Tarih: 21 Kasım 2024. Alındığı Yer: https://evrimagaci.org/s/3817
Özdil, A. Ş., Bakırcı, Ç. M., Palaz, . (2022, October 09). Katil Robotlar: Yapay Zekaya Sahip Silahlar (YZSS), İnsanlığın Sonunu Getirebilir mi?. Evrim Ağacı. Retrieved November 21, 2024. from https://evrimagaci.org/s/3817
A. Ş. Özdil, et al. “Katil Robotlar: Yapay Zekaya Sahip Silahlar (YZSS), İnsanlığın Sonunu Getirebilir mi?.” Edited by Çağrı Mert Bakırcı. Evrim Ağacı, 09 Oct. 2022, https://evrimagaci.org/s/3817.
Özdil, Ayşegül Şenyiğit. Bakırcı, Çağrı Mert. Palaz, . “Katil Robotlar: Yapay Zekaya Sahip Silahlar (YZSS), İnsanlığın Sonunu Getirebilir mi?.” Edited by Çağrı Mert Bakırcı. Evrim Ağacı, October 09, 2022. https://evrimagaci.org/s/3817.
ve seni takip ediyor

Göster

Şifremi unuttum Üyelik Aktivasyonu

Göster

Şifrenizi mi unuttunuz? Lütfen e-posta adresinizi giriniz. E-posta adresinize şifrenizi sıfırlamak için bir bağlantı gönderilecektir.

Geri dön

Eğer aktivasyon kodunu almadıysanız lütfen e-posta adresinizi giriniz. Üyeliğinizi aktive etmek için e-posta adresinize bir bağlantı gönderilecektir.

Geri dön

Close