Bu Reklamı Kapat
Bu Reklamı Kapat

Otonom Silahların İnsan Avlama Dönemi Başladı: Türkiye Tarafından Üretilen Drone, Tarihte İlk Defa İnsan Müdahalesi ve Kararı Olmadan İnsan Hedefleri Vurmuş Olabilir!

Otonom Silahların İnsan Avlama Dönemi Başladı: Türkiye Tarafından Üretilen Drone, Tarihte İlk Defa İnsan Müdahalesi ve Kararı Olmadan İnsan Hedefleri Vurmuş Olabilir! YouTube
Angel Has Fallen filminden bir sahne.
22 dakika
6,228
  • Robotik Yapay Zeka
  • Savaş Mühendisliği
Tarihi Geçmiş Haber

Bu haber 1 yıl öncesine aittir. Haber güncelliğini yitirmiş olabilir; ancak arşivsel değeri ve bilimsel gelişme/ilerleme anlamındaki önemi dolayısıyla yayında tutulmaktadır. Ayrıca konuyla ilgili gelişmeler yaşandıkça bu içerik de güncellenebilir.

2015 yılında yayınladığımız bir açık mektupta, Dünya'nın dört bir yanından akademisyenlerin, yapay zeka ile ilgili en büyük tehlikelerden birinin otonom silahların insan müdahalesi olmaksızın hedef tespiti yapıp, bunları vurabileceği ve dolayısıyla bunun engellenmesi gerektiğine yönelik çağrılarını Evrim Ağacı okurlarıyla paylaşmıştık. Çok ilginç ve öngöremediğimiz bir şekilde, bu endişe 2020 yılında Türkiye tarafından üretilen bir drone ile, gerçek bir savaş sahasında hayata geçirilmiş ve önü alınamayacak bir otonom silahlanma yarışını tetiklemiş olabilir. Mektupta uzmanlar, şöyle yazıyorlardı:[1]

Otonom silahlar insan müdahalesi olmaksızın hedefleri seçer ve vurur. Bu tanıma, örneğin, önceden belirlenmiş birtakım kriterlere sahip kişileri bulup yok edebilen silahlı kuadkopterler (dört pervaneli robot helikopter) girebilir; fakat tanım, tüm hedeflendirme kararlarını insanların verdiği uzaktan yönlendirilebilen güdümlü füzeleri veya dronları (insansız uçakları) kapsamaz. Yapay Zeka (YZ) teknolojisi, bu tür sistemlerin on yıllar sonra değil, sadece yıllar sonra, yasal olmadan da olsa pratikte kullanılabileceği bir noktaya ulaştı ve bu işin tehlike boyutu büyük: Otonom silahlar, askeriyede barut ve nükleer silahlardan sonra üçüncü devrim olarak nitelendirilmektedir.

Bu Reklamı Kapat

Otonom silahların lehine ve aleyhine pek çok argüman geliştirilmiştir. Örneğin insan askerlerin yerine makine kullanma, makineye sahip olan ülkeler için insan zayiatını azaltması bakımından iyi, fakat bu sebeple savaşa girme ihtimalini yükseltmesi bakımından ise kötü bir fikirdir. Bugün insanlık için en kilit soru, küresel bir "Yapay Zekaya Sahip Silahlanma yarışını" başlatmak ya da bunu önlemektir. Şayet herhangi büyük askeri bir güç Yapay Zekaya Sahip silahları geliştirmede öne geçerse, küresel bir silahlanma yarışı fiilen kaçınılmaz olur. Bu teknolojik gidişatın nereye varacağı ise şimdiden görülebilir: Otonom silahlar, geleceğin Kalaşnikofları olacaktır. Nükleer silahların aksine, bu silahların üretimi için pahalı ve elde etmesi zor ham maddeye gerek yoktur, bu yüzden de bütün önemli askeri güçler için seri üretim bakımından kolay bulunur ve ucuz olacaklardır. Karaborsada görülmeleri, teröristlerin, halkını daha iyi kontrol etmek isteyen diktatörlerin ya da soykırım başlatmak isteyen savaş baronlarının ve benzerlerinin ellerinde görülmeleri sadece zaman meselesi olacaktır. Otonom silahlar; suikast düzenleme, devletleri istikrarsızlaştırma, halkları boyunduruk altına alma ve belli bir etnik grubun hedef alınarak öldürülmesi gibi eylemler için kusursuzdur. Bu sebeple, inanıyoruz ki, (askeri türden) Yapay Zekaya Sahip silahlanma yarışı, insanlık için faydalı olmayacaktır.

Yapay zekanın güncel durumunu ve popüler kültürdeki yansımalarını yakından takip eden biri, herkesin endişesinin "kontrolden çıkan bir yapay zekanın bizi köle yapması" gibi fantastik şeyler olduğunu bilecektir. Elbette bu tür ekstrem durumlar üzerinde yapılan çalışmalar ve belli başlı endişeler de vardır; yok değildir. Ama görebileceğiniz gibi, alandaki uzmanların birçoğunun ana veya birincil endişesi, bu türden bir yapay zeka başkaldırısı değildir. En büyük endişe, insanların bazı kararları makinalara gereğinden erken bırakmasıdır. O kararların başında da, silahların ve hatta kitle imha silahlarının ne zaman ateşleneceğinin ve kime ateşleneceğinin yapay zeka tarafından belirlenmesi vardır. 

Bu Reklamı Kapat

Yukarıdaki mektubun tamamını Türkçe olarak buradan okuyabilirsiniz. Bu mektup, 2 Haziran 2021i itibariyle 4500'ü yapay zeka ve robotik araştırmacı olmak üzere 30 bine yakın kişi tarafından imzalanmış haldedir. Bu kişiler arasında Stephen Hawking ve Elon Musk gibi aşina olduğunuz isimler de var, Stuart Russell, Barbara Grosz, Peter Norvig, Francesca Rossi, Yann LeCun gibi yapay zeka araştırmalarının devleri de... Siz de tamamını okuduktan sonra, dilerseniz buraya tıklayarak imzacı olabilirsiniz.

Açık mektubu imzalayan bazı isimler.
Açık mektubu imzalayan bazı isimler.
Future of Life

Elbette bugüne kadar birçok ülke tarafından otonom, yani insansız hava araçları geliştirildi ve kullanıldı. Ayrıca insan müdahalesi olmadan hedef seçimi ve hedef yok etme araştırmaları da yapıldı. Zaten bu okuduğum mektup ve Evrim Ağacı'nda bu konuda yayınladığımız çok sayıda diğer endişe, bu araştırmaların gerçek savaş sahasında ne tür uygulamaları olabileceğine yönelik kaygıları yansıtıyor. 

Ostim Firması STM'in Kargu-2 Dronu

Bu endişeyi gerçeğe dönüştüren ise, Ankara'daki Ostim Teknopark'ta faaliyet gösteren STM isimli bir savunma şirketinin ürettiği Kargu-2 isimli dronudur. Bu dron, aşina olduğunuz büyük insansız hava araçları gibi değildir; daha ziyade bir kuadkopter olarak kategorilendirilebilir. Bunlara resmî olarak aylak mühimmat denmektedir; çünkü bir kez fırlatıldıktan sonra kime, ne zaman saldıracağını dronun kendisi belirlemektedir (bu süreçte "aylak aylak dolaşmaktadır") ve herhangi bir insan müdahalesi bulunmamaktadır.[2] Bu yapıları dolayısıyla bu dronlar saldırıyı bir füze ile değil, bir kamikaze dalışı yapıp, hedef üzerinde patlayarak yapmaktadır. Bu yüzden bunlara "kamikaze dronu" da denmektedir.[3], [4], [5] Bu dronlar, aynı zamanda intihar dronu olarak da adlandırılmaktadır.[6], [7] Aşağıda, STM tarafından yayınlanan bir tanıtım videosunu izleyebilirsiniz:

Evrim Ağacı'ndan Mesaj

STM, kamikaze dronu üreten ilk veya tek firma değildir; ancak Birleşmiş Milletler Güvenlik Konseyi tarafından Mart'ta yayınlanan bir rapora göre, ilk defa bu tür bir kamikaze dronu, 2020 yılında gerçek bir savaş ortamında, Libya'daki Haftar kuvvetlerine saldırmıştır.[8] Burada işin siyasi detaylarını yorumlamayacağız; ancak Libya'daki süreci çok farklı açılardan ele alan ve çok sayıda kural ihlâli tespit eden (yani aslen sadece Türkiye veya bu dron saldırısıyla ilgili olmayan) 500 sayfalık rapor, ilgili kısımda şu bilgilere yer veriyor:[8]

27 Mart 2020'de Başbakan Faiez Serraj, GNA-AF'yi [Ulusal Mutabakat Hükûmeti Hava Kuvvetleri'ni] sahil kıyısı boyunca taarruza taşıyan PEACE STORM Operasyonu'nun başladığını duyurdu. Gabya sınıfı fırkateynlerin ve Korkut kısa menzilli hava savunma sistemlerinden oluşan bir ordu, GNA-AF kara birimlerinin etrafına mobil bir hava savunma balonu yerleştirme yeteneği sağladı ve bu sayede bu kara birimleri, HAF [Haftar ile İlişkili Kuvvetler] hava varlıklarını askeri denklemden çıkarmayı başardı. Geliştirilmiş operasyonel istihbarat kabiliyeti; Türkiye tarafından işletilen sinyal istihbaratını, Bayraktar TB-2 ve muhtemelen TAI Anka S insansız savaş hava araçları tarafından sağlanan istihbaratı, gözetlemeyi ve keşifleri içeriyordu (bkz. Ek 27). Bu, HAF yer birimi kapasitesini azaltmak için tasarlanmış asimetrik bir yıpratma savaşının geliştirilmesini mümkün kıldı.

Trablus'un GNA-AF tarafından yarılması, genişletilmiş menzilli hassas mühimmat ateşini mümkün kılan Fırtına T155 155mm kundağı motorlu toplar (bkz. ek 28) ve T-122 Sakarya çok namlulu roket sistemleri (bkz. ek 29) tarafından desteklendi ve bunlar, HAF tarafından kullanılan ve yirminci yüzyılın ortalarından kalma ana muharebe tankları ve ağır toplara karşı kullanıldı.

Daha sonra, lojistik konvoylar ve geri çekilen HAF, uzaktan kontrol edilebilen insansız savaş hava araçları ve STM Kargu-2 (bkz. ek 30) ve diğer aylak mühimmat sistemleri gibi ölümcül otonom silah sistemleri ve ile avlandı. Ölümcül otonom silah sistemleri, operatör ve mühimmat arasında veri bağlantısı gerektirmeden hedeflere saldırmak üzere programlanmıştı. Bu, özünde gerçek bir “ateşle, unut, bul” yeteneğine karşılık gelmektedir.

HAF'ın insansız muharebe hava araçları ve küçük drone'lara dayalı istihbarat, gözetleme ve keşif kabiliyeti, Koral elektronik harp sisteminin elektronik karıştırma kabiliyeti kullanılarak etkisiz hale getirildi.

Bu Reklamı Kapat

Ek 28: Fırtına T-155 milimetre Otomatik Tahrikli Howitzer İnfografiği
Ek 28: Fırtına T-155 milimetre Otomatik Tahrikli Howitzer İnfografiği
Birleşmiş Milletler
Ek 29: T122 Sakarya MLRS İnfografiği
Ek 29: T122 Sakarya MLRS İnfografiği
Birleşmiş Milletler
Ek 30: STM Kargu-2 Kamikaze Dronu İnfografiği
Ek 30: STM Kargu-2 Kamikaze Dronu İnfografiği
Birleşmiş Milletler

Dediğimiz gibi işin siyasi ve askeri analizini, bu konunun uzmanları yapacaktır; ancak bu raporda önemli olan, bu saldırının bir insan operatör tarafından yönetilmeden yapılmış olmasıdır.[9] İddiaya göre dron, saldırı kararını ve hangi noktada, kime saldıracağını tamamen kendisi belirledi ve saldırıyı gerçekleştirdi.[10], [11] Ve bu, savaş arenasında ve insanlık tarihinde bir dönüm noktasıdır, çünkü ilk defa bir kamikaze dronu, gerçek bir savaş ortamında, tamamen otonom bir şekilde, yapay zeka algoritmalarını kullanarak seçtiği bir hedefi bombalamaya karar verdi ve bu kararı uyguladı.[12] Uzmanlar, bu tür bir saldırının geri döndürülmesi güç bir süreci tetiklediğini iddia etmekteler.[13]

Bu saldırıda herhangi bir insan öldü mü bilinmemektedir. Rapor, öyle olduğunu ima etse de bunu ispatlayacak herhangi bir kanıt ileri sürmemektedir. Ama eğer bir kişi öldüyse; bu ölüm, tıpkı saldırının kendisi gibi savaş tarihine geçecektir. Böylece ilginç bir şekilde Türkiye, yapay zekanın en tehlikeli silahlanma yarışlarından birini aktif olarak başlatmış olabilecektir.

Kontrolsüz Seçilim ve Otonom Silahlanma Yarışı

Genel olarak silahlanma yarışlarıyla ilgili en kritik nokta, bu tür bir silahlanmanın önünün alınmaması halinde, üretilen silahların kaçınılmaz olarak "kaçak seçilim", "firari seçilim" veya "kontrolsüz seçilim" (İng: "runaway selection") olarak tabir ettiğimiz evrimsel bir sürece uygun biçimde gelişeceği gerçeğidir.

Biyolojide Kontrolsüz Seçilim

Bunu tavuskuşunun kuyruğu üzerinden anlayabilirsiniz: Tavuskuşlarının ataları bir noktada bu kadar iri bir kuyruğa sahip değillerdi. Ancak popülasyon içinde kuyruk büyüklükleri arasında bir çeşitlilik, bir varyasyon vardı. Dişiler, daha iri kuyruklu erkekleri tercih etmeye başladıklarında, o anda popülasyon içindeki en iri kuyruklu bireyler birden avantajlı hale geldiler, çünkü daha kolay çiftleşip daha çok yavru veriyorlardı ve gelecek nesle kendi kuyruklarını uzun kılan genleri daha çok aktarıyorlardı. Dişiler neden böyle bir tercih değişimine gittiler bilinmez; ancak kimi zaman tamamen rastlantısal nedenlerle, kimi zamansa gerçekten iri bir kuyruk üretmenin gerçekten de daha sağlıklı bireylerin yapabileceği bir şey olmasından ötürü, bu kuyruklar, dişiler tarafından "Ben güçlüyüm, beni seç!" mesajı olarak algılanmaya başlandı. 

Bu Reklamı Kapat

Peki, birazcık uzun kuyruklardan bugünlere nasıl gelebildik? Çok basit: Her nesilde uzun kuyruklu bireyler daha çok ürüyordu ve tıpkı bizim ebeveynlerimizden onlarca noktada meydana gelen mutasyonlar, birçok genin crossing-over ile karılması ve dolayısıyla çeşitlilikle doğmamız gibi, tavuskuşları da ebeveynlerinden biraz farklı doğuyordu. Bu yavruların bir kısmı, ebeveynlerinden uzun kuyruklara sahipti, bazıları daha kısa kuyruklara sahipti, diğerleri eşit uzunlukta kuyruklara sahipti. Ama ne olursa olsun, dişilerin uzun kuyruk tercihi sürdükçe, her nesilde ortaya çıkan en uzun kuyruklu yavrular sürekli seçiliyordu.

Tabii eğer uzun kuyruklu olmak gerçekten bir sağlık göstergesiyse (ki öyledir), en uzun kuyrukları seçen dişiler de en sağlıklı yavruları verme şansına erişiyordu. Yani bu tercih uzun kuyrukları pekiştiriyor, uzun kuyruklar da bu tercihi pekiştiriyordu. Bu döngüsel mekanizma, kontrol edilmediği müddetçe sürekli birbirini besledi ve tavuskuşu kuyruklarını inanılmaz boyutlara ve renklere kavuşturdu.

Bunu doğada her yerde görüyoruz, avlar ile avcılar arasındaki silahlanma mücadelesi bunun en güzel örneğidir: Daha atik olan avlar, avcılarından daha kolay kaçabildi, böylece nesiller boyunca daha atik yavrular doğdu. Ama avcılar, avları ne kadar atikleşirse atikleşsin avlanmak zorundadır, yoksa soyları tükenecektir. Dolayısıyla avların hızlanması, avcıların da hızlanmasını gerektirdi. Daha doğrusu avcılar arasında da en hızlı veya atik olanlar avlanabildi, böylece avcılar da hızlanacak biçimde evrimleşti. Avlar hızlandıkça avcılar hızlandı, avcılar hızlandıkça avlar hızlandı... İşte buna, firari seçilim ya da kontrolsüz seçilim diyoruz.

Elbette bu gidişatı durduran faktörler de var: Örneğin kütleçekim gibi fizik yasaları, bir hayvanın kemikleri kırılmaksızın taşıyabileceği maksimum kütleyi belirler (kuyruk büyüklüğü, kas büyüklüğü, vs. bununla belirlenir). Benzer şekilde, malzeme bilimi, bir kemik veya kasın olabileceği en güçlü, en kırılgan, en dirençli, vs. sınırları çizer. Bu sınırlar çerçevesinde, yeterince güçlü bir seçilim baskısı olduğu müddetçe firari seçilim devam edebilir; ancak bu seçilim, diğer yöndeki seçilim kuvvetlerinin artması sonucu bir noktada dengeye ulaşır. Örneğin tavuskuşunun cinsel seçilim nedeniyle irileşen kuyruğunu dengeleyen şey, çok iri kuyruklu erkeklerin bir noktadan sonra hareket edemeyecek hale gelmesi ve kolay av olmasıdır. Yani doğal seçilim, cinsel seçilimi bir noktada dengeler; çünkü üreyebilecek kadar hayatta kalamadıktan sonra, dişilerin tercihi olacak bir kuyruğa sahip olmanın hiçbir evrimsel anlamı olmayacaktır ve bu şekilde olanlar, elenecektir.

Bu Reklamı Kapat

Agora Bilim Pazarı
Gece Yarısı Kütüphanesi

“Yaşamla ölüm arasında bir kütüphane var,” dedi. “Bu kütüphanedeki raflar sonsuza kadar gider.  Her kitap yaşamış olabileceğin başka bir hayatı yaşama şansını sunar sana. Farklı seçimler yapmış olsan, şu an nasıl bir hayatın olacağını görürsün…Pişmanlıklarını telafi etme şansın olsaydı, bazı konularda farklı davranır mıydın?”

Nora Seed berbat halde. Kedisi öldü. İşinden kovuldu. Abisi onunla konuşmuyor. Kimsenin ona ihtiyacı yok. Art arda alınmış kötü kararların sonucunda bir kütüphanede buluyor kendini. Zamanın hiç akmadığı bir gece yarısı kütüphanesinde, sonsuz sayıda kitabın ortasında… Kitapların her birinde Nora’nın farklı bir hayatı yazılı. Başka kararlar verseydi yaşamış olabileceği hayatlar. Farklı kariyerler, farklı eşler, farklı arkadaşlar, farklı şehirler arasında gidip gelen Nora’nın aklı sorularla doluyor. Mutluluk sadece önemli sandığımız seçimlerde mi gizli? Yanlış giden her detayın sorumlusu gerçekten biz miyiz? Hayatı yaşanılır kılan ne? Yanlış bir karar insanın tüm hayatına mal olabilir mi?

İngiliz edebiyatının önemli isimlerinden Matt Haig; Nora’nın pişmanlıklara, ihtimallere ve yeniden seçme imkânına dair çıktığı bu yolculukta, ona eşlik edecek okurlara sürükleyici ve insanın en temel sorunlarını konu alan bir kurgu sunuyor.

“Değişmesini istediğimiz bir dünyada hep birlikte sıkışıp  kalmışken, tam zamanında yazılmış bir modern çağ masalı, günümüzün Şahane Hayat’ı.”
Jodi Picoult

“Kitapların yaşamı değiştirme gücünü kutlayan, içtenlikle ve mizahla yazılmış, baştan çıkarıcı bir roman.”
Sunday Times

“Matt Haig sözcükleri konserve açacağı gibi kullanıyor. Konserve de biziz.”
Jeanette Winterson

Bilgiler ve Uyarılar:

  1. Bu ürün sipariş alındıktan 1-3 gün içinde postalanacaktır.
  2. Lütfen sipariş vermeden önce iade ve ürün değişikliği ile ilgili bilgilendirmemizi okuyunuz.
  3. Bu kampanya, Domingo Yayınevi tarafından Evrim Ağacı okurlarına sunulan fırsatlardan birisidir.
Devamını Göster
₺75.00
Gece Yarısı Kütüphanesi

Silahlanma Yarışında Kontrolsüz Seçilim

Bu türden bir seçilimi teknolojik evrimin de her ayağında görmekteyiz: Örneğin radar-antiradar sistemlerini ele alabiliriz. Bir bombardıman uçağı, var olan radar sistemlerini atlatmak için yeni bir antiradar teknolojisine kavuştuğu anda, radar sistemleri de bu antiradarı çözecek biçimde gelişmek zorundadır. Buna bağlı olarak yeni antiradar teknolojileri geliştirilir ve bu döngü, silahlanmayı ve savunma teknolojilerini hızla geliştirir.

Tıpkı biyolojik silahlanma yarışında olduğu gibi, teknolojik silahlanma yarışında da elbette belli sınırlar vardır. Örneğin bir uçağın erişebileceği maksimum kütle, fizik yasalarınca sınırlanmaktadır. Benzer şekilde, sosyoekonomik sınırlar da silahlanma yarışını bir noktada dengeye kavuşturabilir: Örneğin bir ülkenin teknik ve bilimsel kabiliyeti, bir teknolojiyi ne düzeyde geliştirebileceğinin sınırlarını belirler. O sınırın ötesinde kalmayı başaran bir ülke, kendisine karşı atılması gereken adım atılana kadar, daha fazla geliştirme yapmak zorunda değildir (elbette buna rağmen geliştirmeler devam edecektir; fakat bu, ülkelerin yarışta birkaç adım önde kalma arzusunun bir sonucudur, üzerinde seçilim baskısı olmasının değil).

Örneğin Kargu-2 gibi otonom silahların evriminde bir sonraki basamak sürü kabiliyeti olacaktır. Yani 15-20 dron bir arada çalışarak hedefleri etkisiz hale getirebilecektir. Buna karşılık mutlaka antidron sistemleri çıkacak, bu sistemler de yapay zekaya sahip olacak ve silahlanma yarışı bu şekilde hız kazanacaktır. İşte uzmanların korktuğu da bu türden bir silahlanma yarışıdır; çünkü bu yarışın en temel parçası, insanlara ihtiyaç duymaksızın kararlar alan dronlar ve dron sürüleri olacaktır (ve benzeri otonom silahlar).

Yapay Zekaya Sahip Otonom Silahlarla İlgili Sık Sorulan Sorular ve Potansiyel Riskler

Stephen Hawking ve Elon Musk da dahil olmak üzere pek çok kişi, siviller ve askerler arasında ayrım yapamayacaklarını söyleyerek bu tür silahları yasaklamak istediklerini söylerken, diğerleri, drone sürüleri gibi hızlı tempolu tehditlere karşı koymada insan güdümlü silah sistemlerinden daha az hata yapacakları için sivillere yönelik riski azaltmada kritik olacaklarını söylemektedir. Birleşmiş Milletler üyesi olan hükümetler, otonom silahların savaşta kullanımına ilişkin yeni kısıtlamaların gerekli olup olmadığını tartışmaktadırlar. Bununla birlikte, küresel topluluğun yeterince yapmadığı şey, ortak bir risk resmi geliştirmektir. Risk ve fayda arasındaki dengeleri tartmak; kişisel, kurumsal ve ulusal değerler üzerinde etkili olacaktır, ancak riskin nerede olduğunu belirlemek objektif olmalıdır.

Bu, sadece bir istatistik meselesidir.

En üst düzeyde risk, hata olasılığının ve sonucunun bir fonksiyonudur. Herhangi bir otonom silahın en azından bir miktar hata yapma şansı vardır, ancak bu hataların sonuçları çok çeşitli olabilir. En yüksek riskli otonom silahlar, hata yapma olasılığı yüksek olan ve yaptıklarında çok sayıda insanı öldüren silahlardır. .357 magnum'u yanlış ateşlemek bir şeydir; yanlışlıkla bir W88 nükleer savaş başlığını patlatmak ise bambaşka bir şeydir.

Otonom silahlar söz konusu olduğunda risklerin nerede olduğunu anlamak için önemli olan, en az dokuz soruya cevap vermek gerekir.

Bir Otonom Silah, Kimi Öldüreceğine Nasıl Karar Verir?

Bir mayın, en düşük seviyeli otonom silahlardan biri olarak görülebilir. Hiçbir zekası yoktur, ama üzerine belli bir basınç uygulandığında, patlamaya "karar verir". Bir mayının basınç eşiğini değiştirerek, bir çocuk basacak olursa patlamamasını sağlayabilirsiniz (belli hata payları dahilinde).

Öte yandan, İsrail'in ürettiği Harpy veya Türkiye'nin ürettiği Kargu-2 gibi silahlar ise, genellikle düşman radar sinyallerini tespit edip saldırmaya karar verir.[14] Neyse ki küçük çocukların yüksek güçlü radyo dalgaları saçmadığını biliyoruz, dolayısıyla tıpkı mayın tarlalarında olduğu gibi, sivil radarlar ile askeri radarları birbirinden ayırt etmek o kadar zor değildir.

Otonom silahlarla ilgili endişe, radar sinyallerini ayırt edip edemeyecekleri değildir. Otonom silahlarla ilgili endişe, yapay zeka algoritmalarının ta kendisidir. Bu cihazlar otobüs, kamyon, tır, tank gibi farklı cihazlara ait görseller ve videolar kullanarak eğitiliyorlar. Ama Microsoft tarafından üretilen ve Twitter etkileşimleriyle kendini geliştiren "Tay" isimli bir chat botunun, hiç planda olmamasına rağmen, Twitter'ın ırkçı kaynamasından ötürü ırkçı olacak şekilde geliştiği örneği hatırlayın.[15] Veri seti hatalı, eksik veya beklenmedik içeriğe sahipse, bu silahlar da hiç hesapta olmayan, yanlış şeyleri öğrenebilirler.

Bu Reklamı Kapat

Buna bir diğer örnek verelim:[16] Üst düzey bir insan kaynakları firması, çalışanları yapay zekanın seçeceği bir sistem kurdu. Kısa bir süre sonra fark ettiler ki yapay zeka, işe alınmanın en önemli 2 kriterinin, isminizin "Jared" olması ve "lisede lacrosse oynamanız" olduğu kanaatine varmıştı. Doğal olarak, işe alınmanın en iyi kriterlerinden ilk ikisi bu olamaz. Yani yapay zeka, veri setinin kendisi ve algoritma kadar iyidir ve otonom bir silahın yapacağı hata, işe alım algoritmasının yaptığı bir hata kadar "masum" veya komik olmayacaktır.

Makina öğrenmesi algoritmaları büyük oranda kara kutu algoritmalardır.[17] Bir taraftan veri girer, diğer taraftan bir sonuç çıkar; ama arada ne olup bittiğini anlayamayız veya anlaması çok güçtür, çünkü sistem çok karmaşıktır. Bu nedenle yanlış bir karar alınacak olursa, bu sorunun neden kaynaklandığını çözemeyebiliriz ve hata olduktan sonra zaten iş işten geçmiş olabilir. Otonom silah geliştiricilerinin, makina öğrenme sistemlerinin hatalı şeyler öğrenmesine neden olan tüm olasılıkları öngörmeleri gerekir - ki bu, şu anki teknoloji ile imkansızdır.

İnsan Avlayan Dronlarda İnsanların Rolü Ne?

Elbette bir insan, sürekli bu makinaların kararlarını denetleyebilir ve absürt bir durum oluşacak olursa onların hatalı karar almasına engel olabilir. Bu zaten şu anda uygulanan yöntem ve endişeyi yaratan da, bu döngüden insanı tamamen çıkarma arzusudur. Çünkü bu tür sistemler çok daha ucuz, çok daha hızlı ve çok daha etkili olabilecek. Ve çok daha tehlikeli...

Eğer Tesla'nın otonom araçları konusunda olanları takip ediyorsanız, bu gidişatı görüyor olabilirsiniz. İnsanlar yapay zekaya güvendikçe, önlemleri elden daha çok bırakmaya başladılar ve çok daha fazla beklenmedik kaza görmeye başladık.[18], [19] Tesla'nın araçları halen ortalama bir sürücüden daha iyi olabilir; ama yapay zekanın eğitilmediği durumlarla karşılaşıp, birçok sürücünün yapmayacağı hataları da yaparak farklı türden sorunlara sebep olduğunu görüyoruz.[20], [21]

Bu Reklamı Kapat

Dahası bir insanın denetimi de, otonom silahların hatalı kararlar almayacağı ve hatalı uygulamalar yapmayacağını garanti edemez. Çünkü yapay zekaya olan güvenimiz arttıkça, onun verdiği kararlara da güvenimiz artacak ve sorgulama oranlarımız azalacak. Dahası, güvene bağlı olarak bilişsel olarak dikkatimizin azalması sonucu insan gözetmenin denetimi de gevşeyecek. Duke Üniversitesi İnsan ve Otonomi Laboratuvarı'ndan Missy Cummings, bunu şöyle söylüyor:

İş otonom arabalara geldiğinde, araçlarının kendilerinden daha becerikli olduğunu düşünmeye meyilli olan sürücülerin dikkati daha kolay dağılıyor ve kaza yapma ihtimalleri daha çok artıyor.

Elbette insanların otonom silahlarla ne tür bir ilişki kuracağı, risk seviyesinin ne düzeyde olacağını doğrudan belirlemektedir. İnsanların karar döngüsünün içinde mi, üzerinde mi, yoksa tamamen dışında mı olduğu, sonucu etkileyen önemli bir faktördür. Örneğin Güney Kore tarafından, Kuzey Kore ile aralarında bulunan askersiz bölgede kullanılan SGR A-1 isimli dronun tamamen insan denetimi dışında çalıştığı bildirilmektedir.[22]

Bir Otonom Araç, Ne Tür Silahlar Taşıyabilir?

Söz konusu kitle imha silahları veya güçlü patlayıcılar olduğunda, otonom araçlarda da gördüğümüğz beklenmedik hatalar, sadece sürücünün ve çarptığı aracın sürücüsünün hayatını tehdit etmeyecektir. Koskoca şehirleri tehdit edebilecektir. Bu bir abartı gibi geliyor olabilir; ancak şu anda sahip olduğumuz dronlar bile teorik olarak silahlar, bombalar, füzeler, elektronik silah bozucular, lazerler, mikrodalga silahları, siber saldırı bilgisayarları, kimyasal silahlar, biyolojik silahlar, nükleer silahlar ve bunların herhangi bir kombinasyonu ile donatılabilecek kadar güçlüdür.[23], [24], [25], [26] Bunların kötü ellerde nasıl kullanılabileceğini hayal edebilirsiniz. Bu, yarın olacak demiyoruz. Ama bu riskten haberdar olmak zorundayız.

Otonom Silah, Hedefi Nasıl Ayırt Ediyor?

Nasıl ki yapay zeka halen insan zekasıyla yarışacak düzeye gelemedi, yapay öğrenme algoritmalarımız da halen çok bariz hatalar yapabilecek ve kolayca kandırılabilecek kadar düşük seviyelidir. Başarabildikleri onca baş döndürücü şeye rağmen!

Bu Reklamı Kapat

Örneğin bir yapay zekanın bir tank ile bir okul otobüsünü birbirinden ayırabileceğini düşünebilirsiniz; ama bir otobüsün tekerlerinin ve ön penceresinin yarısının kapatıldığı bir durumda yapay zeka, onun bir bisiklet olduğunu sanmıştır.[27]

Bir dron, çapa taşıyan bir çiftçiyle silah taşıyan bir askeri kesin olarak ayırt edebilecek mi? Açık arazide bir tank ile okul otobüsünü ayırt etmek zor olmayabilir; ama ağaçların veya sisin olduğu bir durumda da bu yapılabilecek mi?

Kötücül İnsanlar, Otonom Silahları Nasıl Kandıracak?

Eğer bir sistem kandırılabilirse, o sistemi kandıracak yöntemler geliştirilecek veya kullanılacaktır. Bu, kontrolsüz silahlanma yarışının yalın bir gerçeğidir ve elimizdeki yapay zeka sistemleri, fazlasıyla kandırılabilir bir doğaya sahiptir.

Örneğin, yapay zekanın ballandırılarak anlatıldığı birçok denemede, çok kontrollü şartlarda bir yapay zeka, %85.6 güvenle bir elmanın ne tür bir elma olduğunu (Granny Smith elması mı, Ambrosia elması mı, başka çeşit bir elma mı) söyleyebilmektedir.[28] Bu, harika bir başarıdır! Ama bir kağıdın üzerine "iPod" yazıp o elmanın üzerine yapıştırın ve yapay zeka size %99.7 güvenle onun bir Apple ürünü olduğunu söyleyecektir.[29]

Bu Reklamı Kapat

Bir diğer vakada yapay zeka araştırmacıları, fotoğraftaki tek bir pikselin değerini değiştirerek, bir makina görüşü sisteminin gizli bir bombardıman uçağının bir köpek olduğunu sanmasını sağladı. Bir savaşta, kötü niyetli birilerinin bir hastanenin veya okul otobüsünün üzerine "TANK" kelimesini yazarak veya diğer türlü manipülasyonlar yaparak otonom dronları kandırmayacağı garanti edilebilir mi?

Bir Arada Kaç Otonom Silah Kullanılacak?

Silahlanma yarışı hızlanıp, dron sürüleri kullanılmaya başlandıkça da işler kötüleşebilir. Dron sayısının artması, hata riskinin artması demektir; bu, basit olasılık kurallarının ortaya koyduğu bir gerçektir. Dronların birbiriyle iletişimi ise, hata riskinin daha da artması demektir. Çünkü bir dronun yaptığı hata diğer dronları da hataya sevk edebileceği gibi, iletişim sırasında oluşan aksaklıklar, yepyeni hataların doğmasına neden olabilir. Buna, kendiliğinden beliren hata (İng: "emergent error") denir.

Meşhur 3 kör ve 1 fil öyküsünü düşünün: Daha önce hiç fil görmemiş 3 kör adam, bir filin ne olduğunu anlamak için ona dokunurlar. Filin hortumuna dokunan, filin yılan gibi uzun olduğunu, filin yanına dokunan filin duvar gibi geniş olduğunu, bilin bacaklarına dokunan filin sütunlardan oluştuğunu söyler. Hepsi kendince haklıdır; ama hepsi, gerçeğin 3 farklı yorumudur. Bir dron sürüsü, bu şekilde aynı gerçeğin farklı yorumları geldiğinde nasıl karar verecektir? O "şey"in bir fil olduğunu mu, bir yılan olduğunu mu, bir duvar olduğunu mu, bir sütun olduğunu mu yoksa bambaşka bir şey mi olduğunu düşünecektir?

Otonom Silahlar Nerede Kullanılacak?

Karla kaplı Antarktika buzulunda dolaşan silahlı ve otonom bir kara aracının masum insanları öldürme ihtimali pratik olarak sıfırdır. Orada pek bir yaşam yoktur, ortam çoğunlukla çoraktır ve aracın yerleşik sensörlerini engelleyecek veya onların kafasını karıştıracak çok az şey vardır. Ancak New York veya Tokyo sokaklarında dolaşan aynı araç için vaziyet bambaşkadır. Şehirlerde; yapay zeka sistemini hataya itecek çok fazla unsur vardır: Ağaçlar, işaretler, arabalar, binalar ve insanların tümü doğru hedef değerlendirmesini bozabilir.

Bu Reklamı Kapat

Denizlerde çalışan otonom silahlar, Antarktika buzullarında çalışan hayali bir otonom silahtan daha fazla hataya açıktır; ancak yine de açık denizlerde çok az engel olduğu için, askeri bir gemi ile sivil bir gemi arasında ayrım yapması çok zor olmayacaktır.

Peki ya bir şehir üzerinde uçan bir otonom silah? Bir okul otobüsü ile zırhlı personel taşıyıcıyı her seferinde yüksek bir kesinlik ile ayıraiblecek mi? Öyle ki, bu kararda hava durumu bile etkilidir: Yakın tarihli bir araştırma, yollardaki engelleri tespit etmek için kullanılan bir yapay zeka sisteminin açık havada %92 olan başarı oranının, sisli havada %58'e düştüğünü bulmuştur.[30] Tabii ki kötü hava, insanların hedefleri verimli bir şekilde sınıflandırmasını engelleyebilir; bu nedenle bu noktada önemli olacak soru, yapay zekanın sınıflandırma becerisinin insanların sınıflandırma becerisine kıyasla ne düzeyde olacağı ve hatalardan kimin sorumlu tutulacağıdır.[31]

Otonom Silahlar Ne Düzeyde Test Ediliyor?

Elbette sözünü ettiğimiz bu silahlar sürekli test edilmektedir; ama Tesla örneğinde de gördüğümüz üzere, böylesi bir sistemin olası her türlü duruma karşı test edilmesi çok zor, belki de imkansızdır. Sonuçta bu durumların bir kısmı, tamamen bilinemez ve öngörülemez bir yapıya sahip olabilir.[32]

Dahası testler, bir silahın kullanılması beklenen biçimlere ve olası operasyon ortamlarına göre yapılacaktır; ancak bunlar, stratejik ortam değiştikçe ve bir savaş geliştikçe değişebilecektir. Bir ortamda sağlam bir şekilde test edilen otonom bir silah, başka bir ortamda kullanıldığında tamamen işlevsiz alabilir. Örneğin Riyad'a nazaran Seattle'da çok daha fazla sisli gün vardır; ama çok daha az kum fırtınası vardır.

Bu Reklamı Kapat

Yeterince çok sayıda otonom dron, yeterince çok sefer kullanıldığında, hiç karşılaşılmayan vakaların oluşması ve çok aksi hataların yapılması kaçınılmaz olacaktır. Bu durumda sorumluluk kimde olacaktır? Daha bunu Tesla vakasında bile kesin olarak belirleyemezken, bir okul otobüsü havaya uçup da 30 çocuk ölecek olursa suçluyu nerede arayacağız?

Otonom Silahlar Ne Kadar Yaygın Olacak?

Devletler ve devlet dışı aktörlerin; stratejilerine, kültürlerine, hedeflerine ve ahlaki ödünleşimlere karşı genel hassasiyetlerine bağlı olarak, risk toleransları da doğal olarak farklılık gösterecektir. Otonom silahlar elde etmek ve kullanmak ne kadar kolay olursa, bu silahların ölümcül terörist grupları, baskıcı rejimler ve hata yapma riskine karşı duyarsız gruplar tarafından da kullanılma ihtimalinin o kadar yüksek olduğunu anlamamız gerekmektedir. Berkeley'deki California Üniversitesi'nde bilgisayar bilimi profesörü olan (ve yazımızın başında sözünü ettiğimiz metnin imzacılarından) Stuart Russell'ın dikkat çektiği üzere:

Bana sadece 3 tane iyi lisansüst öğrencisi ve belki 1-2 tane de robotikçi meslektaş verin, basit bir dönem projesi olarak Birleşmiş Milletler binasına girip Rus büyükelçisini bulup ona bir "paket" teslim edebilecek bir silah yapalım.

Neyse ki teknik zeka, organizasyon, altyapı ve kaynak mevcudiyeti, otonom silahların kimler tarafından ne kadar karmaşık bir şekilde inşa edilebileceğini sınırlandıracaktır. En nihayetinde hiçbir "yalnız kurt", garajında otonom bir F-35 inşa edemez.

Sonuç

Uzun lafın kısası, elimizde atomun parçalanbildiği gerçeği kadar güçlü bir gerçek vardır: Makinalar, öğrenebilir. Ama bu öğrenmenin sınırlarını ve biçimini dikte eden biziz ve bir diğer gerçek şu: Biz, kusurlu öğretmenleriz.

Bu Reklamı Kapat

Savaşlarda otonom silahların kullanımı, karmakarışık, çok değişkenli ve çok boyutlu problemler sunuyor. Bu nedenle kolaya kaçan çözümlerin hepsi hataya, daha fenası felaketlere gebedir. Elbette bu yazıda bu sorunların hepsine çözüm önerisi sunmamız imkânsızdır; ancak bir bilim iletişimi grubu olarak olarak sizi potansiyel riskler konusunda uyarabiliriz.

Türkiye, kontrolsüz bir otonom silahlanma yarışının fitilini ateşledi mi, ateşlemedi mi, aslında bu çok da önemli değildir. Önemli olan, fitil oradadır, er ya da geç birileri tarafından ateşlenecektir ve biz, eğer şimdi haberdar olmazsak, her zaman olduğu gibi buna da hazırlıksız yakalanacağız.

O yüzden bir anlığına bilimkurgudan çıkıp, gerçek bilimle yüzleşmemiz şart: Yapay zeka aramızda, aktif olarak çalışıyor ve insanların hayatlarının yönünü (ve hatta insanların hayatta kalıp kalmayacağını) belirlemeye başladı bile!

Eğer şimdi direksiyona geçmezsek, gidişata seyirci kalacağımız kesindir.

Okundu Olarak İşaretle

Bu içeriğimizle ilgili bir sorunuz mu var? Buraya tıklayarak sorabilirsiniz.

Soru & Cevap Platformuna Git
Bu İçerik Size Ne Hissettirdi?
  • Korkutucu! 12
  • Tebrikler! 4
  • Muhteşem! 2
  • Bilim Budur! 1
  • Mmm... Çok sapyoseksüel! 0
  • Güldürdü 0
  • İnanılmaz 0
  • Umut Verici! 0
  • Merak Uyandırıcı! 0
  • Üzücü! 0
  • Grrr... *@$# 0
  • İğrenç! 0
Kaynaklar ve İleri Okuma
  1. Türev İçerik Kaynağı: The Bulletin | Arşiv Bağlantısı
  • ^ Future of Life Institute. Open Letter On Autonomous Weapons. (15 Mart 2015). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: Future of Life Institute | Arşiv Bağlantısı
  • ^ Drone Center. Loitering Munitions. (1 Ocak 2017). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: Bard College | Arşiv Bağlantısı
  • ^ M. Rutherford. Kamikaze Drone Loiters Above, Waits For Target. (23 Haziran 2009). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: CNET | Arşiv Bağlantısı
  • ^ M. Peck. 'Kamikaze Drones' Add A New Layer Of Lethality To Remote Forces. (11 Ağustos 2015). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: C4ISR | Arşiv Bağlantısı
  • ^ T. Gibbons-Neff. Israeli-Made Kamikaze Drone Spotted In Nagorno-Karabakh Conflict. (5 Nisan 2016). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: The Washington Post | Arşiv Bağlantısı
  • ^ Y. Lappin. Us Army May Soon Use Israeli-Designed ‘Suicide Drones’. (1 Haziran 2016). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: The Jerusalem Post | JPost.com | Arşiv Bağlantısı
  • ^ A. R. Dombe. China Unveils A Harpy-Type Loitering Munition. (1 Mart 2017). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: Israel Defense | Arşiv Bağlantısı
  • ^ a b L. M. R. Choudhury, et al. Final Report Of The Panel Of Experts On Libya Established Pursuant To Security Council Resolution 1973 (2011). (8 Mart 2021). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: United Nations | Arşiv Bağlantısı
  • ^ J. Zitser. A Rogue Killer Drone 'Hunted Down' A Human Target Without Being Instructed To, Un Report Says. (30 Mayıs 2021). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: Business Insider | Arşiv Bağlantısı
  • ^ M. Moran. Killer Drones 'Hunted Down Humans Without Being Told To' Warns Bombshell Report. (28 Mayıs 2021). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: Dailystar | Arşiv Bağlantısı
  • ^ S. Trimble. Un: Turkish Drones Attacked Libyan Forces In Autonomous Mode | Aviation Week Network. (27 Mayıs 2021). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: Aviation Week | Arşiv Bağlantısı
  • ^ D. Hambling. Drones May Have Attacked Humans Fully Autonomously For The First Time. (27 Mayıs 2021). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: New Scientist | Arşiv Bağlantısı
  • ^ A. H. Michel. Libya’s Uav Strike Should Galvanize Efforts To Do Something About Autonomous Weapons. (2 Haziran 2021). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: Defense One | Arşiv Bağlantısı
  • ^ T. Rogoway. Meet Israel’s “Suicide Squad” Of Self Sacrificing Drones. (8 Ağustos 2016). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: The Drive | Arşiv Bağlantısı
  • ^ J. Vincent. Twitter Taught Microsoft’s Ai Chatbot To Be A Racist Asshole In Less Than A Day. (24 Mart 2016). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: The Verge | Arşiv Bağlantısı
  • ^ D. Gershgorn. Companies Are On The Hook If Their Hiring Algorithms Are Biased. (22 Ekim 2018). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: Quartz | Arşiv Bağlantısı
  • ^ A. H. Michel. The Black Box, Unlocked. (22 Eylül 2020). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: | Arşiv Bağlantısı
  • ^ C. Isidore. Family Of Apple Engineer Sues Tesla, Saying Autopilot Caused His Fatal Crash. (2 Mayıs 2019). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: CNN | Arşiv Bağlantısı
  • ^ M. McFarland. Federal Probe Finds Tesla's Autopilot Contributed To Fatal Crash. (12 Eylül 2017). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: CNNMoney | Arşiv Bağlantısı
  • ^ T. A. Press. Crash Victim Had Posted Videos Riding In Tesla On Autopilot. (15 Mayıs 2021). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: NBC News | Arşiv Bağlantısı
  • ^ A. Morando, et al. Driver-Initiated Tesla Autopilot Disengagements In Naturalistic Driving. (14 Eylül 2020). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: Association for Computing Machinery (ACM) doi: 10.1145/3409120.3410644. | Arşiv Bağlantısı
  • ^ A. Velez-Green. The Foreign Policy Essay: The South Korean Sentry—A “Killer Robot” To Prevent War. (1 Mart 2015). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: Lawfare | Arşiv Bağlantısı
  • ^ M. Peck. The Pentagon Wants To Arm Drones With Non-Lethal Lasers And Microwave Cannon. (8 Mart 2021). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: Forbes | Arşiv Bağlantısı
  • ^ K. L. Best, et al. How To Analyze The Cyber Threat From Drones: Background, Analysis Frameworks, And Analysis Tools. (5 Mart 2020). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: RAND | Arşiv Bağlantısı
  • ^ Z. Kallenborn, et al. (2019). Swarming Destruction: Drone Swarms And Chemical, Biological, Radiological, And Nuclear Weapons. The Nonproliferation Review, sf: 523-543. doi: 10.1080/10736700.2018.1546902. | Arşiv Bağlantısı
  • ^ D. Axe. Russia Is Building Four Special Submarines To Haul Its Weird Doomsday Drone. (21 Ocak 2021). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: Forbes | Arşiv Bağlantısı
  • ^ A. Kortylewski, et al. Combining Compositional Models And Deep Networks For Robust Object Classification Under Occlusion. (28 Mayıs 2019). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: arXiv.org | Arşiv Bağlantısı
  • ^ K. Quach. You Only Need Pen And Paper To Fool This Openai Computer Vision Code. Just Write Down What You Want It To See. (5 Mart 2021). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: The Register | Arşiv Bağlantısı
  • ^ J. P. Mello. Ai Vision System Hoodwinked By Pen And Paper. (9 Mart 2021). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: Tech News World | Arşiv Bağlantısı
  • ^ Z. Liu, et al. (2020). Analysis Of The Influence Of Foggy Weather Environment On The Detection Effect Of Machine Vision Obstacles. Sensors, sf: 349. doi: 10.3390/s20020349. | Arşiv Bağlantısı
  • ^ L. Lewis. Redefining Human Control: Lessons From The Battlefield For Autonomous Weapons. (1 Mart 2018). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: Center for Autonomy and AI | Arşiv Bağlantısı
  • ^ A. Holland. Known Unknowns. (17 Mayıs 2021). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: UNIDIR | Arşiv Bağlantısı
Bu Reklamı Kapat

Evrim Ağacı'na her ay sadece 1 kahve ısmarlayarak destek olmak ister misiniz?

Şu iki siteden birini kullanarak şimdi destek olabilirsiniz:

kreosus.com/evrimagaci | patreon.com/evrimagaci

Çıktı Bilgisi: Bu sayfa, Evrim Ağacı yazdırma aracı kullanılarak 25/09/2022 11:15:58 tarihinde oluşturulmuştur. Evrim Ağacı'ndaki içeriklerin tamamı, birden fazla editör tarafından, durmaksızın elden geçirilmekte, güncellenmekte ve geliştirilmektedir. Dolayısıyla bu çıktının alındığı tarihten sonra yapılan güncellemeleri görmek ve bu içeriğin en güncel halini okumak için lütfen şu adrese gidiniz: https://evrimagaci.org/s/10538

İçerik Kullanım İzinleri: Evrim Ağacı'ndaki yazılı içerikler orijinallerine hiçbir şekilde dokunulmadığı müddetçe izin alınmaksızın paylaşılabilir, kopyalanabilir, yapıştırılabilir, çoğaltılabilir, basılabilir, dağıtılabilir, yayılabilir, alıntılanabilir. Ancak bu içeriklerin hiçbiri izin alınmaksızın değiştirilemez ve değiştirilmiş halleri Evrim Ağacı'na aitmiş gibi sunulamaz. Benzer şekilde, içeriklerin hiçbiri, söz konusu içeriğin açıkça belirtilmiş yazarlarından ve Evrim Ağacı'ndan başkasına aitmiş gibi sunulamaz. Bu sayfa izin alınmaksızın düzenlenemez, Evrim Ağacı logosu, yazar/editör bilgileri ve içeriğin diğer kısımları izin alınmaksızın değiştirilemez veya kaldırılamaz.

Bu Reklamı Kapat
Size Özel (Beta)
İçerikler
Sosyal
Gönderiler
Foton
Davranış
Yüz
Bilimsel
Komplo
Veri Bilimi
Viral
Radyasyon
Vegan
Dil
Evren
Obstetrik
Doktor
Sperm
Hukuk
Hayvan
Alkol
Avrupa
Enerji
Psikoloji
Enfeksiyon
Toplumsal Cinsiyet
Nöron Hücresi
Hekim
Eczacılık
Aklımdan Geçen
Komünite Seç
Aklımdan Geçen
Fark Ettim ki...
Bugün Öğrendim ki...
İşe Yarar İpucu
Bilim Haberleri
Hikaye Fikri
Başlık
Kafana takılan neler var?
Bağlantı
Kurallar
Komünite Kuralları
Bu komünite, aklınızdan geçen düşünceleri Evrim Ağacı ailesiyle paylaşabilmeniz içindir. Yapacağınız paylaşımlar Evrim Ağacı'nın kurallarına tabidir. Ayrıca bu komünitenin ek kurallarına da uymanız gerekmektedir.
1
Bilim kimliğinizi önceleyin.
Evrim Ağacı bir bilim platformudur. Dolayısıyla aklınızdan geçen her şeyden ziyade, bilim veya yaşamla ilgili olabilecek düşüncelerinizle ilgileniyoruz.
2
Propaganda ve baskı amaçlı kullanmayın.
Herkesin aklından her şey geçebilir; fakat bu platformun amacı, insanların belli ideolojiler için propaganda yapmaları veya başkaları üzerinde baskı kurma amacıyla geliştirilmemiştir. Paylaştığınız fikirlerin değer kattığından emin olun.
3
Gerilim yaratmayın.
Gerilim, tersleme, tahrik, taciz, alay, dedikodu, trollük, vurdumduymazlık, duyarsızlık, ırkçılık, bağnazlık, nefret söylemi, azınlıklara saldırı, fanatizm, holiganlık, sloganlar yasaktır.
4
Değer katın; hassas konulardan ve öznel yoruma açık alanlardan uzak durun.
Bu komünitenin amacı okurlara hayatla ilgili keyifli farkındalıklar yaşatabilmektir. Din, politika, spor, aktüel konular gibi anlık tepkilere neden olabilecek konulardaki tespitlerden kaçının. Ayrıca aklınızdan geçenlerin Türkiye’deki bilim komünitesine değer katması beklenmektedir.
5
Cevap hakkı doğurmayın.
Bu platformda cevap veya yorum sistemi bulunmamaktadır. Dolayısıyla aklınızdan geçenlerin, tespit edilebilir kişilere cevap hakkı doğurmadığından emin olun.
Gönder
Ekle
Soru Sor
Daha Fazla İçerik Göster
Evrim Ağacı'na Destek Ol
Evrim Ağacı'nın %100 okur destekli bir bilim platformu olduğunu biliyor muydunuz? Evrim Ağacı'nın maddi destekçileri arasına katılarak Türkiye'de bilimin yayılmasına güç katmak için hemen buraya tıklayın.
Popüler Yazılar
30 gün
90 gün
1 yıl
EA Akademi
Evrim Ağacı Akademi (ya da kısaca EA Akademi), 2010 yılından beri ürettiğimiz makalelerden oluşan ve kendi kendinizi bilimin çeşitli dallarında eğitebileceğiniz bir çevirim içi eğitim girişimi! Evrim Ağacı Akademi'yi buraya tıklayarak görebilirsiniz. Daha fazla bilgi için buraya tıklayın.
Etkinlik & İlan
Bilim ile ilgili bir etkinlik mi düzenliyorsunuz? Yoksa bilim insanlarını veya bilimseverleri ilgilendiren bir iş, staj, çalıştay, makale çağrısı vb. bir duyurunuz mu var? Etkinlik & İlan Platformumuzda paylaşın, milyonlarca bilimsevere ulaşsın.
Podcast
Evrim Ağacı'nın birçok içeriğinin profesyonel ses sanatçıları tarafından seslendirildiğini biliyor muydunuz? Bunların hepsini Podcast Platformumuzda dinleyebilirsiniz. Ayrıca Spotify, iTunes, Google Podcast ve YouTube bağlantılarını da bir arada bulabilirsiniz.
Yazı Geçmişi
Okuma Geçmişi
Notlarım
İlerleme Durumunu Güncelle
Okudum
Sonra Oku
Not Ekle
Kaldığım Yeri İşaretle
Göz Attım

Evrim Ağacı tarafından otomatik olarak takip edilen işlemleri istediğin zaman durdurabilirsin.
[Site ayalarına git...]

Filtrele
Listele
Bu yazıdaki hareketlerin
Devamını Göster
Filtrele
Listele
Tüm Okuma Geçmişin
Devamını Göster
0/10000

Göster

Şifremi unuttum Üyelik Aktivasyonu

Göster

Şifrenizi mi unuttunuz? Lütfen e-posta adresinizi giriniz. E-posta adresinize şifrenizi sıfırlamak için bir bağlantı gönderilecektir.

Geri dön

Eğer aktivasyon kodunu almadıysanız lütfen e-posta adresinizi giriniz. Üyeliğinizi aktive etmek için e-posta adresinize bir bağlantı gönderilecektir.

Geri dön

Close
Geri Bildirim Gönder
Paylaş
Reklamsız Deneyim

Evrim Ağacı'nda reklamları 2 şekilde kapatabilirsiniz:

  1. Ücretsiz üye girişi yapmak: Sitedeki reklamların %50 kadarını kapatmak için ücretsiz bir Evrim Ağacı üyeliği açmanız ve sitemizi/uygulamamızı kullanmanız yeterli!

  2. Maddi destekçilerimiz arasına katılmak: Evrim Ağacı'nın çalışmalarına Kreosus, Patreon veya YouTube üzerinden maddi destekte bulunarak hem Türkiye'de bilim anlatıcılığının gelişmesine katkı sağlayabilirsiniz, hem de site ve uygulamamızı reklamsız olarak deneyimleyebilirsiniz. Reklamsız deneyim, sitemizin/uygulamamızın çeşitli kısımlarda gösterilen Google reklamlarını ve destek çağrılarını görmediğiniz, %100 reklamsız ve çok daha temiz bir site deneyimi sunmaktadır.

Kreosus

Kreosus'ta her 10₺'lik destek, 1 aylık reklamsız deneyime karşılık geliyor. Bu sayede, tek seferlik destekçilerimiz de, aylık destekçilerimiz de toplam destekleriyle doğru orantılı bir süre boyunca reklamsız deneyim elde edebiliyorlar.

Kreosus destekçilerimizin reklamsız deneyimi, destek olmaya başladıkları anda devreye girmektedir ve ek bir işleme gerek yoktur.

Patreon

Patreon destekçilerimiz, destek miktarından bağımsız olarak, Evrim Ağacı'na destek oldukları süre boyunca reklamsız deneyime erişmeyi sürdürebiliyorlar.

Patreon destekçilerimizin Patreon ile ilişkili e-posta hesapları, Evrim Ağacı'ndaki üyelik e-postaları ile birebir aynı olmalıdır. Patreon destekçilerimizin reklamsız deneyiminin devreye girmesi 24 saat alabilmektedir.

YouTube

YouTube destekçilerimizin hepsi otomatik olarak reklamsız deneyime şimdilik erişemiyorlar ve şu anda, YouTube üzerinden her destek seviyesine reklamsız deneyim ayrıcalığını sunamamaktayız. YouTube Destek Sistemi üzerinde sunulan farklı seviyelerin açıklamalarını okuyarak, hangi ayrıcalıklara erişebileceğinizi öğrenebilirsiniz.

Eğer seçtiğiniz seviye reklamsız deneyim ayrıcalığı sunuyorsa, destek olduktan sonra YouTube tarafından gösterilecek olan bağlantıdaki formu doldurarak reklamsız deneyime erişebilirsiniz. YouTube destekçilerimizin reklamsız deneyiminin devreye girmesi, formu doldurduktan sonra 24-72 saat alabilmektedir.

Diğer Platformlar

Bu 3 platform haricinde destek olan destekçilerimize ne yazık ki reklamsız deneyim ayrıcalığını sunamamaktayız. Destekleriniz sayesinde sistemlerimizi geliştirmeyi sürdürüyoruz ve umuyoruz bu ayrıcalıkları zamanla genişletebileceğiz.

Giriş yapmayı unutmayın!

Reklamsız deneyim için, maddi desteğiniz ile ilişkilendirilmiş olan Evrim Ağacı hesabınıza yapmanız gerekmektedir. Giriş yapmadığınız takdirde reklamları görmeye devam edeceksinizdir.

Destek Ol

Devamını Oku
Evrim Ağacı Uygulamasını
İndir
Chromium Tabanlı Mobil Tarayıcılar (Chrome, Edge, Brave vb.)
İlk birkaç girişinizde zaten tarayıcınız size uygulamamızı indirmeyi önerecek. Önerideki tuşa tıklayarak uygulamamızı kurabilirsiniz. Bu öneriyi, yukarıdaki videoda görebilirsiniz. Eğer bu öneri artık gözükmüyorsa, Ayarlar/Seçenekler (⋮) ikonuna tıklayıp, Uygulamayı Yükle seçeneğini kullanabilirsiniz.
Chromium Tabanlı Masaüstü Tarayıcılar (Chrome, Edge, Brave vb.)
Yeni uygulamamızı kurmak için tarayıcı çubuğundaki kurulum tuşuna tıklayın. "Yükle" (Install) tuşuna basarak kurulumu tamamlayın. Dilerseniz, Evrim Ağacı İleri Web Uygulaması'nı görev çubuğunuza sabitleyin. Uygulama logosuna sağ tıklayıp, "Görev Çubuğuna Sabitle" seçeneğine tıklayabilirsiniz. Eğer bu seçenek gözükmüyorsa, tarayıcının Ayarlar/Seçenekler (⋮) ikonuna tıklayıp, Uygulamayı Yükle seçeneğini kullanabilirsiniz.
Safari Mobil Uygulama
Sırasıyla Paylaş -> Ana Ekrana Ekle -> Ekle tuşlarına basarak yeni mobil uygulamamızı kurabilirsiniz. Bu basamakları görmek için yukarıdaki videoyu izleyebilirsiniz.

Daha fazla bilgi almak için tıklayın

Önizleme
Görseli Kaydet
Sıfırla
Vazgeç
Ara
Raporla

Raporlama sisteminin amacı, platformu uygunsuz biçimde kullananların önüne geçmektir. Lütfen bir içeriği, sadece düşük kaliteli olduğunu veya soruya cevap olmadığını düşündüğünüz raporlamayınız; bu raporlar kabul edilmeyecektir. Bunun yerine daha kaliteli cevapları kendiniz girmeye çalışın veya diğer kullanıcıları oylama, teşekkür ve en iyi cevap araçları ile daha kaliteli cevaplara teşvik edin. Kalitesiz bulduğunuz içerikleri eleyebileceğiniz, kalitelileri daha ön plana çıkarabileceğiniz yeni araçlar geliştirmekteyiz.

Soru Sor
Aşağıdaki "Soru" kutusunu sadece soru sormak için kullanınız. Bu kutuya soru formatında olmayan hiçbir cümle girmeyiniz. Sorunuzla ilgili ek bilgiler vermek isterseniz, "Açıklama" kısmına girebilirsiniz. Soru kısmının soru cümlesi haricindeki kullanımları sorunuzun silinmesine ve UP kaybetmenize neden olabilir.
Görsel Ekle
Kurallar
Platform Kuralları
Bu platform, aklınıza takılan soruları sorabilmeniz ve diğerlerinin sorularını yanıtlayabilmeniz içindir. Yapacağınız paylaşımlar Evrim Ağacı'nın kurallarına tabidir. Ayrıca bu platformun ek kurallarına da uymanız gerekmektedir.
1
Gerçekten soru sorun, imâdan ve yüklü sorulardan kaçının.
Sorularınızın amacı nesnel olarak gerçeği öğrenmek veya fikir almak olmalıdır. Şahsi kanaatinizle ilgili mesaj vermek için kullanmayın; yüklü soru sormayın.
2
Bilim kimliğinizi kullanın.
Evrim Ağacı bir bilim platformudur. Dolayısıyla sorular ve cevaplar, bilimsel perspektifi yansıtmalıdır. Geçerli bilimsel kaynaklarla doğrulanamayan bilgiler veya reklamlar silinebilir.
3
Düzgün ve insanca iletişim kurun.
Gerilim, tersleme, tahrik, taciz, alay, dedikodu, trollük, vurdumduymazlık, duyarsızlık, ırkçılık, bağnazlık, nefret söylemi, azınlıklara saldırı, fanatizm, holiganlık, sloganlar yasaktır.
4
Sahtebilimi desteklemek yasaktır.
Sahtebilim kategorisi altında konuyla ilgili sorular sorabilirsiniz; ancak bilimsel geçerliliği bulunmayan sahtebilim konularını destekleyen sorular veya cevaplar paylaşmayın.
5
Türkçeyi düzgün kullanın.
Şair olmanızı beklemiyoruz; ancak yazdığınız içeriğin anlaşılır olması ve temel düzeyde yazım ve dil bilgisi kurallarına uyması gerekmektedir.
Soru Ara
Aradığınız soruyu bulamadıysanız buraya tıklayarak sorabilirsiniz.
Alıntı Ekle
Eser Ekle
Kurallar
Komünite Kuralları
Bu komünite, fark edildiğinde ufku genişleten tespitler içindir. Yapacağınız paylaşımlar Evrim Ağacı'nın kurallarına tabidir. Ayrıca bu komünitenin ek kurallarına da uymanız gerekmektedir.
1
Formu olabildiğince eksiksiz doldurun.
Girdiğiniz sözün/alıntının kaynağı ne kadar açıksa o kadar iyi. Açıklama kısmına kitabın sayfa sayısını veya filmin saat/dakika/saniye bilgisini girebilirsiniz.
2
Anonimden kaçının.
Bazı sözler/alıntılar anonim olabilir. Fakat sözün anonimliğini doğrulamaksızın, bilmediğiniz her söze/alıntıya anonim yazmayın. Bu tür girdiler silinebilir.
3
Kaynağı araştırın ve sorgulayın.
Sayısız söz/alıntı, gerçekte o sözü hiçbir zaman söylememiş/yazmamış kişilere, hatalı bir şekilde atfediliyor. Paylaşımınızın site geneline yayılabilmesi için kaliteli kaynaklar kullanın ve kaynaklarınızı sorgulayın.
4
Ofansif ve entelektüel düşünceden uzak sözler yasaktır.
Gerilim, tersleme, tahrik, taciz, alay, dedikodu, trollük, vurdumduymazlık, duyarsızlık, ırkçılık, bağnazlık, nefret söylemi, azınlıklara saldırı, fanatizm, holiganlık, sloganlar yasaktır.
5
Sözlerinizi tırnak (") içine almayın.
Sistemimiz formatı otomatik olarak ayarlayacaktır.
Gönder
Tavsiye Et
Aşağıdaki kutuya, [ESER ADI] isimli [KİTABI/FİLMİ] neden tavsiye ettiğini girebilirsin. Ne kadar detaylı ve kapsamlı bir analiz yaparsan, bu eseri [OKUMAK/İZLEMEK] isteyenleri o kadar doğru ve fazla bilgilendirmiş olacaksın. Tavsiyenin sadece negatif içerikte olamayacağını, eğer bu sistemi kullanıyorsan tavsiye ettiğin içeriğin pozitif taraflarından bahsetmek zorunda olduğunu lütfen unutma. Yapıcı eleştiri hakkında daha fazla bilgi almak için burayı okuyabilirsin.
Kurallar
Platform Kuralları
Bu platform; okuduğunuz kitaplara, izlediğiniz filmlere/belgesellere veya takip ettiğiniz YouTube kanallarına yönelik tavsiylerinizi ve/veya yapıcı eleştirel fikirlerinizi girebilmeniz içindir. Tavsiye etmek istediğiniz eseri bulamazsanız, buradan yeni bir kayıt oluşturabilirsiniz. Yapacağınız paylaşımlar Evrim Ağacı'nın kurallarına tabidir. Ayrıca bu platformun ek kurallarına da uymanız gerekmektedir.
1
Önceliğimiz pozitif tavsiyelerdir.
Bu platformu, beğenmediğiniz eserleri yermek için değil, beğendiğiniz eserleri başkalarına tanıtmak için kullanmaya öncelik veriniz. Sadece negatif girdileri olduğu tespit edilenler platformdan geçici veya kalıcı olarak engellenebilirler.
2
Tavsiyenizin içeriği sadece negatif olamaz.
Tavsiye yazdığınız eserleri olabildiğince objektif bir gözlükle anlatmanız beklenmektedir. Dolayısıyla bir eseri beğenmediyseniz bile, tavsiyenizde eserin pozitif taraflarından da bahsetmeniz gerekmektedir.
3
Negatif eleştiriler yapıcı olmak zorundadır.
Eğer tavsiyenizin ana tonu negatif olacaksa, tüm eleştirileriniz yapıcı nitelikte olmak zorundadır. Yapıcı eleştiri kurallarını buradan öğrenebilirsiniz. Yapıcı bir tarafı olmayan veya tamamen yıkıcı içerikte olan eleştiriler silinebilir ve yazarlar geçici veya kalıcı olarak engellenebilirler.
4
Düzgün ve insanca iletişim kurun.
Gerilim, tersleme, tahrik, taciz, alay, dedikodu, trollük, vurdumduymazlık, duyarsızlık, ırkçılık, bağnazlık, nefret söylemi, azınlıklara saldırı, fanatizm, holiganlık, sloganlar yasaktır.
5
Türkçeyi düzgün kullanın.
Şair olmanızı beklemiyoruz; ancak yazdığınız içeriğin anlaşılır olması ve temel düzeyde yazım ve dil bilgisi kurallarına uyması gerekmektedir.
Eser Ara
Aradığınız eseri bulamadıysanız buraya tıklayarak ekleyebilirsiniz.
Tür Ekle
Üst Takson Seç
Kurallar
Komünite Kuralları
Bu platform, yaşamış ve yaşayan bütün türleri filogenetik olarak sınıflandırdığımız ve tanıttığımız Yaşam Ağacı projemize, henüz girilmemiş taksonları girebilmeniz için geliştirdiğimiz bir platformdur. Yapacağınız paylaşımlar Evrim Ağacı'nın kurallarına tabidir. Ayrıca bu komünitenin ek kurallarına da uymanız gerekmektedir.
1
Takson adlarını doğru yazdığınızdan emin olun.
Taksonların sadece ilk harfleri büyük yazılmalıdır. Latince tür adlarında, cins adının ilk harfi büyük, diğer bütün harfler küçük olmalıdır (Örn: Canis lupus domesticus). Türkçe adlarda da sadece ilk harf büyük yazılmalıdır (Örn: Evcil köpek).
2
Taksonlar arası bağlantıları doğru girin.
Girdiğiniz taksonun üst taksonunu girmeniz zorunludur. Eğer üst takson yoksa, mümkün olduğunca öncelikle üst taksonları girmeye çalışın; sonrasında daha alt taksonları girin.
3
Birden fazla kaynaktan kontrol edin.
Mümkün olduğunca ezbere iş yapmayın, girdiğiniz taksonların isimlerinin birden fazla kaynaktan kontrol edin. Alternatif (sinonim) takson adlarını girmeyi unutmayın.
4
Tekrara düşmeyin.
Aynı taksonu birden fazla defa girmediğinizden emin olun. Otomatik tamamlama sistemimiz size bu konuda yardımcı olacaktır.
5
Mümkünse, takson tanıtım yazısı (Taksonomi yazısı) girin.
Bu araç sadece taksonları sisteme girmek için geliştirilmiştir. Dolayısıyla taksonlara ait minimal bilgiye yer vermektedir. Evrim Ağacı olarak amacımız, taksonlara dair detaylı girdilerle bu projeyi zenginleştirmektir. Girdiğiniz türü daha kapsamlı tanıtmak için Taksonomi yazısı girin.
Gönder
Tür Gözlemi Ekle
Tür Seç
Fotoğraf Ekle
Kurallar
Komünite Kuralları
Bu platform, bizzat gözlediğiniz türlerin fotoğraflarını paylaşabilmeniz için geliştirilmiştir. Yapacağınız paylaşımlar Evrim Ağacı'nın kurallarına tabidir. Ayrıca bu komünitenin ek kurallarına da uymanız gerekmektedir.
1
Net ve anlaşılır görseller yükleyin.
Her zaman bir türü kusursuz netlikte fotoğraflamanız mümkün olmayabilir; ancak buraya yüklediğiniz fotoğraflardaki türlerin özellikle de vücut deseni gibi özelliklerinin rahatlıkla ayırt edilecek kadar net olması gerekmektedir.
2
Özgün olun, telif ihlali yapmayın.
Yüklediğiniz fotoğrafların telif hakları size ait olmalıdır. Başkası tarafından çekilen fotoğrafları yükleyemezsiniz. Wikimedia gibi açık kaynak organizasyonlarda yayınlanan telifsiz fotoğrafları yükleyebilirsiniz.
3
Paylaştığınız fotoğrafların telif hakkını isteyemezsiniz.
Yüklediğiniz fotoğraflar tamamen halka açık bir şekilde, sınırsız ve süresiz kullanım izniyle paylaşılacaktır. Bu fotoğraflar nedeniyle Evrim Ağacı’ndan telif veya ödeme talep etmeniz mümkün olmayacaktır. Kendi fotoğraflarınızı başka yerlerde istediğiniz gibi kullanabilirsiniz.
4
Etik kurallarına uyun.
Yüklediğiniz fotoğrafların uygunsuz olmadığından ve başkalarının haklarını ihlâl etmediğinden emin olun.
5
Takson teşhisini doğru yapın.
Yaptığınız gözlemler, spesifik taksonlarla ilişkilendirilmektedir. Takson teşhisini doğru yapmanız beklenmektedir. Taksonu bilemediğinizde, olabildiğince genel bir taksonla ilişkilendirin; örneğin türü bilmiyorsanız cins ile, cinsi bilmiyorsanız aile ile, aileyi bilmiyorsanız takım ile, vs.
Gönder
Tür Ara
Aradığınız türü bulamadıysanız buraya tıklayarak ekleyebilirsiniz.