Otonom Silahların İnsan Avlama Dönemi Başladı: Türkiye Tarafından Üretilen Drone, Tarihte İlk Defa İnsan Müdahalesi ve Kararı Olmadan İnsan Hedefleri Vurmuş Olabilir!
Bu haber 3 yıl öncesine aittir. Haber güncelliğini yitirmiş olabilir; ancak arşivsel değeri ve bilimsel gelişme/ilerleme anlamındaki önemi dolayısıyla yayında tutulmaktadır. Ayrıca konuyla ilgili gelişmeler yaşandıkça bu içerik de güncellenebilir.
2015 yılında yayınladığımız bir açık mektupta, Dünya'nın dört bir yanından akademisyenlerin, yapay zeka ile ilgili en büyük tehlikelerden birinin otonom silahların insan müdahalesi olmaksızın hedef tespiti yapıp, bunları vurabileceği ve dolayısıyla bunun engellenmesi gerektiğine yönelik çağrılarını Evrim Ağacı okurlarıyla paylaşmıştık. Çok ilginç ve öngöremediğimiz bir şekilde, bu endişe 2020 yılında Türkiye tarafından üretilen bir drone ile, gerçek bir savaş sahasında hayata geçirilmiş ve önü alınamayacak bir otonom silahlanma yarışını tetiklemiş olabilir. Mektupta uzmanlar, şöyle yazıyorlardı:[1]
Otonom silahlar insan müdahalesi olmaksızın hedefleri seçer ve vurur. Bu tanıma, örneğin, önceden belirlenmiş birtakım kriterlere sahip kişileri bulup yok edebilen silahlı kuadkopterler (dört pervaneli robot helikopter) girebilir; fakat tanım, tüm hedeflendirme kararlarını insanların verdiği uzaktan yönlendirilebilen güdümlü füzeleri veya dronları (insansız uçakları) kapsamaz. Yapay Zeka (YZ) teknolojisi, bu tür sistemlerin on yıllar sonra değil, sadece yıllar sonra, yasal olmadan da olsa pratikte kullanılabileceği bir noktaya ulaştı ve bu işin tehlike boyutu büyük: Otonom silahlar, askeriyede barut ve nükleer silahlardan sonra üçüncü devrim olarak nitelendirilmektedir.
Otonom silahların lehine ve aleyhine pek çok argüman geliştirilmiştir. Örneğin insan askerlerin yerine makine kullanma, makineye sahip olan ülkeler için insan zayiatını azaltması bakımından iyi, fakat bu sebeple savaşa girme ihtimalini yükseltmesi bakımından ise kötü bir fikirdir. Bugün insanlık için en kilit soru, küresel bir "Yapay Zekaya Sahip Silahlanma yarışını" başlatmak ya da bunu önlemektir. Şayet herhangi büyük askeri bir güç Yapay Zekaya Sahip silahları geliştirmede öne geçerse, küresel bir silahlanma yarışı fiilen kaçınılmaz olur. Bu teknolojik gidişatın nereye varacağı ise şimdiden görülebilir: Otonom silahlar, geleceğin Kalaşnikofları olacaktır. Nükleer silahların aksine, bu silahların üretimi için pahalı ve elde etmesi zor ham maddeye gerek yoktur, bu yüzden de bütün önemli askeri güçler için seri üretim bakımından kolay bulunur ve ucuz olacaklardır. Karaborsada görülmeleri, teröristlerin, halkını daha iyi kontrol etmek isteyen diktatörlerin ya da soykırım başlatmak isteyen savaş baronlarının ve benzerlerinin ellerinde görülmeleri sadece zaman meselesi olacaktır. Otonom silahlar; suikast düzenleme, devletleri istikrarsızlaştırma, halkları boyunduruk altına alma ve belli bir etnik grubun hedef alınarak öldürülmesi gibi eylemler için kusursuzdur. Bu sebeple, inanıyoruz ki, (askeri türden) Yapay Zekaya Sahip silahlanma yarışı, insanlık için faydalı olmayacaktır.
Tüm Reklamları Kapat
Yapay zekanın güncel durumunu ve popüler kültürdeki yansımalarını yakından takip eden biri, herkesin endişesinin "kontrolden çıkan bir yapay zekanın bizi köle yapması" gibi fantastik şeyler olduğunu bilecektir. Elbette bu tür ekstrem durumlar üzerinde yapılan çalışmalar ve belli başlı endişeler de vardır; yok değildir. Ama görebileceğiniz gibi, alandaki uzmanların birçoğunun ana veya birincil endişesi, bu türden bir yapay zeka başkaldırısı değildir. En büyük endişe, insanların bazı kararları makinalara gereğinden erken bırakmasıdır. O kararların başında da, silahların ve hatta kitle imha silahlarının ne zaman ateşleneceğinin ve kime ateşleneceğinin yapay zeka tarafından belirlenmesi vardır.
Yukarıdaki mektubun tamamını Türkçe olarak buradan okuyabilirsiniz. Bu mektup, 2 Haziran 2021i itibariyle 4500'ü yapay zeka ve robotik araştırmacı olmak üzere 30 bine yakın kişi tarafından imzalanmış haldedir. Bu kişiler arasında Stephen Hawking ve Elon Musk gibi aşina olduğunuz isimler de var, Stuart Russell, Barbara Grosz, Peter Norvig, Francesca Rossi, Yann LeCun gibi yapay zeka araştırmalarının devleri de... Siz de tamamını okuduktan sonra, dilerseniz buraya tıklayarak imzacı olabilirsiniz.
Elbette bugüne kadar birçok ülke tarafından otonom, yani insansız hava araçları geliştirildi ve kullanıldı. Ayrıca insan müdahalesi olmadan hedef seçimi ve hedef yok etme araştırmaları da yapıldı. Zaten bu okuduğum mektup ve Evrim Ağacı'nda bu konuda yayınladığımız çok sayıda diğer endişe, bu araştırmaların gerçek savaş sahasında ne tür uygulamaları olabileceğine yönelik kaygıları yansıtıyor.
Ostim Firması STM'in Kargu-2 Dronu
Bu endişeyi gerçeğe dönüştüren ise, Ankara'daki Ostim Teknopark'ta faaliyet gösteren STM isimli bir savunma şirketinin ürettiği Kargu-2 isimli dronudur. Bu dron, aşina olduğunuz büyük insansız hava araçları gibi değildir; daha ziyade bir kuadkopter olarak kategorilendirilebilir. Bunlara resmî olarak aylak mühimmat denmektedir; çünkü bir kez fırlatıldıktan sonra kime, ne zaman saldıracağını dronun kendisi belirlemektedir (bu süreçte "aylak aylak dolaşmaktadır") ve herhangi bir insan müdahalesi bulunmamaktadır.[2] Bu yapıları dolayısıyla bu dronlar saldırıyı bir füze ile değil, bir kamikaze dalışı yapıp, hedef üzerinde patlayarak yapmaktadır. Bu yüzden bunlara "kamikaze dronu" da denmektedir.[3], [4], [5] Bu dronlar, aynı zamanda intihar dronu olarak da adlandırılmaktadır.[6], [7] Aşağıda, STM tarafından yayınlanan bir tanıtım videosunu izleyebilirsiniz:
STM, kamikaze dronu üreten ilk veya tek firma değildir; ancak Birleşmiş Milletler Güvenlik Konseyi tarafından Mart'ta yayınlanan bir rapora göre, ilk defa bu tür bir kamikaze dronu, 2020 yılında gerçek bir savaş ortamında, Libya'daki Haftar kuvvetlerine saldırmıştır.[8] Burada işin siyasi detaylarını yorumlamayacağız; ancak Libya'daki süreci çok farklı açılardan ele alan ve çok sayıda kural ihlâli tespit eden (yani aslen sadece Türkiye veya bu dron saldırısıyla ilgili olmayan) 500 sayfalık rapor, ilgili kısımda şu bilgilere yer veriyor:[8]
27 Mart 2020'de Başbakan Faiez Serraj, GNA-AF'yi [Ulusal Mutabakat Hükûmeti Hava Kuvvetleri'ni] sahil kıyısı boyunca taarruza taşıyan PEACE STORM Operasyonu'nun başladığını duyurdu. Gabya sınıfı fırkateynlerin ve Korkut kısa menzilli hava savunma sistemlerinden oluşan bir ordu, GNA-AF kara birimlerinin etrafına mobil bir hava savunma balonu yerleştirme yeteneği sağladı ve bu sayede bu kara birimleri, HAF [Haftar ile İlişkili Kuvvetler] hava varlıklarını askeri denklemden çıkarmayı başardı. Geliştirilmiş operasyonel istihbarat kabiliyeti; Türkiye tarafından işletilen sinyal istihbaratını, Bayraktar TB-2 ve muhtemelen TAI Anka S insansız savaş hava araçları tarafından sağlanan istihbaratı, gözetlemeyi ve keşifleri içeriyordu (bkz. Ek 27). Bu, HAF yer birimi kapasitesini azaltmak için tasarlanmış asimetrik bir yıpratma savaşının geliştirilmesini mümkün kıldı.
Trablus'un GNA-AF tarafından yarılması, genişletilmiş menzilli hassas mühimmat ateşini mümkün kılan Fırtına T155 155mm kundağı motorlu toplar (bkz. ek 28) ve T-122 Sakarya çok namlulu roket sistemleri (bkz. ek 29) tarafından desteklendi ve bunlar, HAF tarafından kullanılan ve yirminci yüzyılın ortalarından kalma ana muharebe tankları ve ağır toplara karşı kullanıldı.
Daha sonra, lojistik konvoylar ve geri çekilen HAF, uzaktan kontrol edilebilen insansız savaş hava araçları ve STM Kargu-2 (bkz. ek 30) ve diğer aylak mühimmat sistemleri gibi ölümcül otonom silah sistemleri ve ile avlandı. Ölümcül otonom silah sistemleri, operatör ve mühimmat arasında veri bağlantısı gerektirmeden hedeflere saldırmak üzere programlanmıştı. Bu, özünde gerçek bir “ateşle, unut, bul” yeteneğine karşılık gelmektedir.
Evrim Ağacı'ndan MesajEvrim Ağacı'nın çalışmalarına Kreosus, Patreon veya YouTube üzerinden maddi destekte bulunarak hem Türkiye'de bilim anlatıcılığının gelişmesine katkı sağlayabilirsiniz, hem de site ve uygulamamızı reklamsız olarak deneyimleyebilirsiniz. Reklamsız deneyim, sitemizin/uygulamamızın çeşitli kısımlarda gösterilen Google reklamlarını ve destek çağrılarını görmediğiniz, %100 reklamsız ve çok daha temiz bir site deneyimi sunmaktadır.
KreosusKreosus'ta her 10₺'lik destek, 1 aylık reklamsız deneyime karşılık geliyor. Bu sayede, tek seferlik destekçilerimiz de, aylık destekçilerimiz de toplam destekleriyle doğru orantılı bir süre boyunca reklamsız deneyim elde edebiliyorlar.
Kreosus destekçilerimizin reklamsız deneyimi, destek olmaya başladıkları anda devreye girmektedir ve ek bir işleme gerek yoktur.
PatreonPatreon destekçilerimiz, destek miktarından bağımsız olarak, Evrim Ağacı'na destek oldukları süre boyunca reklamsız deneyime erişmeyi sürdürebiliyorlar.
Patreon destekçilerimizin Patreon ile ilişkili e-posta hesapları, Evrim Ağacı'ndaki üyelik e-postaları ile birebir aynı olmalıdır. Patreon destekçilerimizin reklamsız deneyiminin devreye girmesi 24 saat alabilmektedir.
YouTubeYouTube destekçilerimizin hepsi otomatik olarak reklamsız deneyime şimdilik erişemiyorlar ve şu anda, YouTube üzerinden her destek seviyesine reklamsız deneyim ayrıcalığını sunamamaktayız. YouTube Destek Sistemi üzerinde sunulan farklı seviyelerin açıklamalarını okuyarak, hangi ayrıcalıklara erişebileceğinizi öğrenebilirsiniz.
Eğer seçtiğiniz seviye reklamsız deneyim ayrıcalığı sunuyorsa, destek olduktan sonra YouTube tarafından gösterilecek olan bağlantıdaki formu doldurarak reklamsız deneyime erişebilirsiniz. YouTube destekçilerimizin reklamsız deneyiminin devreye girmesi, formu doldurduktan sonra 24-72 saat alabilmektedir.
Diğer PlatformlarBu 3 platform haricinde destek olan destekçilerimize ne yazık ki reklamsız deneyim ayrıcalığını sunamamaktayız. Destekleriniz sayesinde sistemlerimizi geliştirmeyi sürdürüyoruz ve umuyoruz bu ayrıcalıkları zamanla genişletebileceğiz.
Giriş yapmayı unutmayın!Reklamsız deneyim için, maddi desteğiniz ile ilişkilendirilmiş olan Evrim Ağacı hesabınıza üye girişi yapmanız gerekmektedir. Giriş yapmadığınız takdirde reklamları görmeye devam edeceksinizdir.
HAF'ın insansız muharebe hava araçları ve küçük drone'lara dayalı istihbarat, gözetleme ve keşif kabiliyeti, Koral elektronik harp sisteminin elektronik karıştırma kabiliyeti kullanılarak etkisiz hale getirildi.
Dediğimiz gibi işin siyasi ve askeri analizini, bu konunun uzmanları yapacaktır; ancak bu raporda önemli olan, bu saldırının bir insan operatör tarafından yönetilmeden yapılmış olmasıdır.[9] İddiaya göre dron, saldırı kararını ve hangi noktada, kime saldıracağını tamamen kendisi belirledi ve saldırıyı gerçekleştirdi.[10], [11] Ve bu, savaş arenasında ve insanlık tarihinde bir dönüm noktasıdır, çünkü ilk defa bir kamikaze dronu, gerçek bir savaş ortamında, tamamen otonom bir şekilde, yapay zeka algoritmalarını kullanarak seçtiği bir hedefi bombalamaya karar verdi ve bu kararı uyguladı.[12] Uzmanlar, bu tür bir saldırının geri döndürülmesi güç bir süreci tetiklediğini iddia etmekteler.[13]
Bu saldırıda herhangi bir insan öldü mü bilinmemektedir. Rapor, öyle olduğunu ima etse de bunu ispatlayacak herhangi bir kanıt ileri sürmemektedir. Ama eğer bir kişi öldüyse; bu ölüm, tıpkı saldırının kendisi gibi savaş tarihine geçecektir. Böylece ilginç bir şekilde Türkiye, yapay zekanın en tehlikeli silahlanma yarışlarından birini aktif olarak başlatmış olabilecektir.
Kontrolsüz Seçilim ve Otonom Silahlanma Yarışı
Genel olarak silahlanma yarışlarıyla ilgili en kritik nokta, bu tür bir silahlanmanın önünün alınmaması halinde, üretilen silahların kaçınılmaz olarak "kaçak seçilim", "firari seçilim" veya "kontrolsüz seçilim" (İng: "runaway selection") olarak tabir ettiğimiz evrimsel bir sürece uygun biçimde gelişeceği gerçeğidir.
Biyolojide Kontrolsüz Seçilim
Bunu tavuskuşunun kuyruğu üzerinden anlayabilirsiniz: Tavuskuşlarının ataları bir noktada bu kadar iri bir kuyruğa sahip değillerdi. Ancak popülasyon içinde kuyruk büyüklükleri arasında bir çeşitlilik, bir varyasyon vardı. Dişiler, daha iri kuyruklu erkekleri tercih etmeye başladıklarında, o anda popülasyon içindeki en iri kuyruklu bireyler birden avantajlı hale geldiler, çünkü daha kolay çiftleşip daha çok yavru veriyorlardı ve gelecek nesle kendi kuyruklarını uzun kılan genleri daha çok aktarıyorlardı. Dişiler neden böyle bir tercih değişimine gittiler bilinmez; ancak kimi zaman tamamen rastlantısal nedenlerle, kimi zamansa gerçekten iri bir kuyruk üretmenin gerçekten de daha sağlıklı bireylerin yapabileceği bir şey olmasından ötürü, bu kuyruklar, dişiler tarafından "Ben güçlüyüm, beni seç!" mesajı olarak algılanmaya başlandı.
Peki, birazcık uzun kuyruklardan bugünlere nasıl gelebildik? Çok basit: Her nesilde uzun kuyruklu bireyler daha çok ürüyordu ve tıpkı bizim ebeveynlerimizden onlarca noktada meydana gelen mutasyonlar, birçok genin crossing-over ile karılması ve dolayısıyla çeşitlilikle doğmamız gibi, tavuskuşları da ebeveynlerinden biraz farklı doğuyordu. Bu yavruların bir kısmı, ebeveynlerinden uzun kuyruklara sahipti, bazıları daha kısa kuyruklara sahipti, diğerleri eşit uzunlukta kuyruklara sahipti. Ama ne olursa olsun, dişilerin uzun kuyruk tercihi sürdükçe, her nesilde ortaya çıkan en uzun kuyruklu yavrular sürekli seçiliyordu.
Tabii eğer uzun kuyruklu olmak gerçekten bir sağlık göstergesiyse (ki öyledir), en uzun kuyrukları seçen dişiler de en sağlıklı yavruları verme şansına erişiyordu. Yani bu tercih uzun kuyrukları pekiştiriyor, uzun kuyruklar da bu tercihi pekiştiriyordu. Bu döngüsel mekanizma, kontrol edilmediği müddetçe sürekli birbirini besledi ve tavuskuşu kuyruklarını inanılmaz boyutlara ve renklere kavuşturdu.
Bunu doğada her yerde görüyoruz, avlar ile avcılar arasındaki silahlanma mücadelesi bunun en güzel örneğidir: Daha atik olan avlar, avcılarından daha kolay kaçabildi, böylece nesiller boyunca daha atik yavrular doğdu. Ama avcılar, avları ne kadar atikleşirse atikleşsin avlanmak zorundadır, yoksa soyları tükenecektir. Dolayısıyla avların hızlanması, avcıların da hızlanmasını gerektirdi. Daha doğrusu avcılar arasında da en hızlı veya atik olanlar avlanabildi, böylece avcılar da hızlanacak biçimde evrimleşti. Avlar hızlandıkça avcılar hızlandı, avcılar hızlandıkça avlar hızlandı... İşte buna, firari seçilim ya da kontrolsüz seçilim diyoruz.
Elbette bu gidişatı durduran faktörler de var: Örneğin kütleçekim gibi fizik yasaları, bir hayvanın kemikleri kırılmaksızın taşıyabileceği maksimum kütleyi belirler (kuyruk büyüklüğü, kas büyüklüğü, vs. bununla belirlenir). Benzer şekilde, malzeme bilimi, bir kemik veya kasın olabileceği en güçlü, en kırılgan, en dirençli, vs. sınırları çizer. Bu sınırlar çerçevesinde, yeterince güçlü bir seçilim baskısı olduğu müddetçe firari seçilim devam edebilir; ancak bu seçilim, diğer yöndeki seçilim kuvvetlerinin artması sonucu bir noktada dengeye ulaşır. Örneğin tavuskuşunun cinsel seçilim nedeniyle irileşen kuyruğunu dengeleyen şey, çok iri kuyruklu erkeklerin bir noktadan sonra hareket edemeyecek hale gelmesi ve kolay av olmasıdır. Yani doğal seçilim, cinsel seçilimi bir noktada dengeler; çünkü üreyebilecek kadar hayatta kalamadıktan sonra, dişilerin tercihi olacak bir kuyruğa sahip olmanın hiçbir evrimsel anlamı olmayacaktır ve bu şekilde olanlar, elenecektir.
Silahlanma Yarışında Kontrolsüz Seçilim
Bu türden bir seçilimi teknolojik evrimin de her ayağında görmekteyiz: Örneğin radar-antiradar sistemlerini ele alabiliriz. Bir bombardıman uçağı, var olan radar sistemlerini atlatmak için yeni bir antiradar teknolojisine kavuştuğu anda, radar sistemleri de bu antiradarı çözecek biçimde gelişmek zorundadır. Buna bağlı olarak yeni antiradar teknolojileri geliştirilir ve bu döngü, silahlanmayı ve savunma teknolojilerini hızla geliştirir.
Tıpkı biyolojik silahlanma yarışında olduğu gibi, teknolojik silahlanma yarışında da elbette belli sınırlar vardır. Örneğin bir uçağın erişebileceği maksimum kütle, fizik yasalarınca sınırlanmaktadır. Benzer şekilde, sosyoekonomik sınırlar da silahlanma yarışını bir noktada dengeye kavuşturabilir: Örneğin bir ülkenin teknik ve bilimsel kabiliyeti, bir teknolojiyi ne düzeyde geliştirebileceğinin sınırlarını belirler. O sınırın ötesinde kalmayı başaran bir ülke, kendisine karşı atılması gereken adım atılana kadar, daha fazla geliştirme yapmak zorunda değildir (elbette buna rağmen geliştirmeler devam edecektir; fakat bu, ülkelerin yarışta birkaç adım önde kalma arzusunun bir sonucudur, üzerinde seçilim baskısı olmasının değil).
Örneğin Kargu-2 gibi otonom silahların evriminde bir sonraki basamak sürü kabiliyeti olacaktır. Yani 15-20 dron bir arada çalışarak hedefleri etkisiz hale getirebilecektir. Buna karşılık mutlaka antidron sistemleri çıkacak, bu sistemler de yapay zekaya sahip olacak ve silahlanma yarışı bu şekilde hız kazanacaktır. İşte uzmanların korktuğu da bu türden bir silahlanma yarışıdır; çünkü bu yarışın en temel parçası, insanlara ihtiyaç duymaksızın kararlar alan dronlar ve dron sürüleri olacaktır (ve benzeri otonom silahlar).
Yapay Zekaya Sahip Otonom Silahlarla İlgili Sık Sorulan Sorular ve Potansiyel Riskler
Stephen Hawking ve Elon Musk da dahil olmak üzere pek çok kişi, siviller ve askerler arasında ayrım yapamayacaklarını söyleyerek bu tür silahları yasaklamak istediklerini söylerken, diğerleri, drone sürüleri gibi hızlı tempolu tehditlere karşı koymada insan güdümlü silah sistemlerinden daha az hata yapacakları için sivillere yönelik riski azaltmada kritik olacaklarını söylemektedir. Birleşmiş Milletler üyesi olan hükümetler, otonom silahların savaşta kullanımına ilişkin yeni kısıtlamaların gerekli olup olmadığını tartışmaktadırlar. Bununla birlikte, küresel topluluğun yeterince yapmadığı şey, ortak bir risk resmi geliştirmektir. Risk ve fayda arasındaki dengeleri tartmak; kişisel, kurumsal ve ulusal değerler üzerinde etkili olacaktır, ancak riskin nerede olduğunu belirlemek objektif olmalıdır.
Bu, sadece bir istatistik meselesidir.
En üst düzeyde risk, hata olasılığının ve sonucunun bir fonksiyonudur. Herhangi bir otonom silahın en azından bir miktar hata yapma şansı vardır, ancak bu hataların sonuçları çok çeşitli olabilir. En yüksek riskli otonom silahlar, hata yapma olasılığı yüksek olan ve yaptıklarında çok sayıda insanı öldüren silahlardır. .357 magnum'u yanlış ateşlemek bir şeydir; yanlışlıkla bir W88 nükleer savaş başlığını patlatmak ise bambaşka bir şeydir.
Otonom silahlar söz konusu olduğunda risklerin nerede olduğunu anlamak için önemli olan, en az dokuz soruya cevap vermek gerekir.
Bir Otonom Silah, Kimi Öldüreceğine Nasıl Karar Verir?
Bir mayın, en düşük seviyeli otonom silahlardan biri olarak görülebilir. Hiçbir zekası yoktur, ama üzerine belli bir basınç uygulandığında, patlamaya "karar verir". Bir mayının basınç eşiğini değiştirerek, bir çocuk basacak olursa patlamamasını sağlayabilirsiniz (belli hata payları dahilinde).
Öte yandan, İsrail'in ürettiği Harpy veya Türkiye'nin ürettiği Kargu-2 gibi silahlar ise, genellikle düşman radar sinyallerini tespit edip saldırmaya karar verir.[14] Neyse ki küçük çocukların yüksek güçlü radyo dalgaları saçmadığını biliyoruz, dolayısıyla tıpkı mayın tarlalarında olduğu gibi, sivil radarlar ile askeri radarları birbirinden ayırt etmek o kadar zor değildir.
Otonom silahlarla ilgili endişe, radar sinyallerini ayırt edip edemeyecekleri değildir. Otonom silahlarla ilgili endişe, yapay zeka algoritmalarının ta kendisidir. Bu cihazlar otobüs, kamyon, tır, tank gibi farklı cihazlara ait görseller ve videolar kullanarak eğitiliyorlar. Ama Microsoft tarafından üretilen ve Twitter etkileşimleriyle kendini geliştiren "Tay" isimli bir chat botunun, hiç planda olmamasına rağmen, Twitter'ın ırkçı kaynamasından ötürü ırkçı olacak şekilde geliştiği örneği hatırlayın.[15] Veri seti hatalı, eksik veya beklenmedik içeriğe sahipse, bu silahlar da hiç hesapta olmayan, yanlış şeyleri öğrenebilirler.
Buna bir diğer örnek verelim:[16] Üst düzey bir insan kaynakları firması, çalışanları yapay zekanın seçeceği bir sistem kurdu. Kısa bir süre sonra fark ettiler ki yapay zeka, işe alınmanın en önemli 2 kriterinin, isminizin "Jared" olması ve "lisede lacrosse oynamanız" olduğu kanaatine varmıştı. Doğal olarak, işe alınmanın en iyi kriterlerinden ilk ikisi bu olamaz. Yani yapay zeka, veri setinin kendisi ve algoritma kadar iyidir ve otonom bir silahın yapacağı hata, işe alım algoritmasının yaptığı bir hata kadar "masum" veya komik olmayacaktır.
Makina öğrenmesi algoritmaları büyük oranda kara kutu algoritmalardır.[17] Bir taraftan veri girer, diğer taraftan bir sonuç çıkar; ama arada ne olup bittiğini anlayamayız veya anlaması çok güçtür, çünkü sistem çok karmaşıktır. Bu nedenle yanlış bir karar alınacak olursa, bu sorunun neden kaynaklandığını çözemeyebiliriz ve hata olduktan sonra zaten iş işten geçmiş olabilir. Otonom silah geliştiricilerinin, makina öğrenme sistemlerinin hatalı şeyler öğrenmesine neden olan tüm olasılıkları öngörmeleri gerekir - ki bu, şu anki teknoloji ile imkansızdır.
İnsan Avlayan Dronlarda İnsanların Rolü Ne?
Elbette bir insan, sürekli bu makinaların kararlarını denetleyebilir ve absürt bir durum oluşacak olursa onların hatalı karar almasına engel olabilir. Bu zaten şu anda uygulanan yöntem ve endişeyi yaratan da, bu döngüden insanı tamamen çıkarma arzusudur. Çünkü bu tür sistemler çok daha ucuz, çok daha hızlı ve çok daha etkili olabilecek. Ve çok daha tehlikeli...
Eğer Tesla'nın otonom araçları konusunda olanları takip ediyorsanız, bu gidişatı görüyor olabilirsiniz. İnsanlar yapay zekaya güvendikçe, önlemleri elden daha çok bırakmaya başladılar ve çok daha fazla beklenmedik kaza görmeye başladık.[18], [19] Tesla'nın araçları halen ortalama bir sürücüden daha iyi olabilir; ama yapay zekanın eğitilmediği durumlarla karşılaşıp, birçok sürücünün yapmayacağı hataları da yaparak farklı türden sorunlara sebep olduğunu görüyoruz.[20], [21]
Dahası bir insanın denetimi de, otonom silahların hatalı kararlar almayacağı ve hatalı uygulamalar yapmayacağını garanti edemez. Çünkü yapay zekaya olan güvenimiz arttıkça, onun verdiği kararlara da güvenimiz artacak ve sorgulama oranlarımız azalacak. Dahası, güvene bağlı olarak bilişsel olarak dikkatimizin azalması sonucu insan gözetmenin denetimi de gevşeyecek. Duke Üniversitesi İnsan ve Otonomi Laboratuvarı'ndan Missy Cummings, bunu şöyle söylüyor:
İş otonom arabalara geldiğinde, araçlarının kendilerinden daha becerikli olduğunu düşünmeye meyilli olan sürücülerin dikkati daha kolay dağılıyor ve kaza yapma ihtimalleri daha çok artıyor.
Elbette insanların otonom silahlarla ne tür bir ilişki kuracağı, risk seviyesinin ne düzeyde olacağını doğrudan belirlemektedir. İnsanların karar döngüsünün içinde mi, üzerinde mi, yoksa tamamen dışında mı olduğu, sonucu etkileyen önemli bir faktördür. Örneğin Güney Kore tarafından, Kuzey Kore ile aralarında bulunan askersiz bölgede kullanılan SGR A-1 isimli dronun tamamen insan denetimi dışında çalıştığı bildirilmektedir.[22]
Bir Otonom Araç, Ne Tür Silahlar Taşıyabilir?
Söz konusu kitle imha silahları veya güçlü patlayıcılar olduğunda, otonom araçlarda da gördüğümüğz beklenmedik hatalar, sadece sürücünün ve çarptığı aracın sürücüsünün hayatını tehdit etmeyecektir. Koskoca şehirleri tehdit edebilecektir. Bu bir abartı gibi geliyor olabilir; ancak şu anda sahip olduğumuz dronlar bile teorik olarak silahlar, bombalar, füzeler, elektronik silah bozucular, lazerler, mikrodalga silahları, siber saldırı bilgisayarları, kimyasal silahlar, biyolojik silahlar, nükleer silahlar ve bunların herhangi bir kombinasyonu ile donatılabilecek kadar güçlüdür.[23], [24], [25], [26] Bunların kötü ellerde nasıl kullanılabileceğini hayal edebilirsiniz. Bu, yarın olacak demiyoruz. Ama bu riskten haberdar olmak zorundayız.
Otonom Silah, Hedefi Nasıl Ayırt Ediyor?
Nasıl ki yapay zeka halen insan zekasıyla yarışacak düzeye gelemedi, yapay öğrenme algoritmalarımız da halen çok bariz hatalar yapabilecek ve kolayca kandırılabilecek kadar düşük seviyelidir. Başarabildikleri onca baş döndürücü şeye rağmen!
Örneğin bir yapay zekanın bir tank ile bir okul otobüsünü birbirinden ayırabileceğini düşünebilirsiniz; ama bir otobüsün tekerlerinin ve ön penceresinin yarısının kapatıldığı bir durumda yapay zeka, onun bir bisiklet olduğunu sanmıştır.[27]
Bir dron, çapa taşıyan bir çiftçiyle silah taşıyan bir askeri kesin olarak ayırt edebilecek mi? Açık arazide bir tank ile okul otobüsünü ayırt etmek zor olmayabilir; ama ağaçların veya sisin olduğu bir durumda da bu yapılabilecek mi?
Kötücül İnsanlar, Otonom Silahları Nasıl Kandıracak?
Eğer bir sistem kandırılabilirse, o sistemi kandıracak yöntemler geliştirilecek veya kullanılacaktır. Bu, kontrolsüz silahlanma yarışının yalın bir gerçeğidir ve elimizdeki yapay zeka sistemleri, fazlasıyla kandırılabilir bir doğaya sahiptir.
Örneğin, yapay zekanın ballandırılarak anlatıldığı birçok denemede, çok kontrollü şartlarda bir yapay zeka, %85.6 güvenle bir elmanın ne tür bir elma olduğunu (Granny Smith elması mı, Ambrosia elması mı, başka çeşit bir elma mı) söyleyebilmektedir.[28] Bu, harika bir başarıdır! Ama bir kağıdın üzerine "iPod" yazıp o elmanın üzerine yapıştırın ve yapay zeka size %99.7 güvenle onun bir Apple ürünü olduğunu söyleyecektir.[29]
Bir diğer vakada yapay zeka araştırmacıları, fotoğraftaki tek bir pikselin değerini değiştirerek, bir makina görüşü sisteminin gizli bir bombardıman uçağının bir köpek olduğunu sanmasını sağladı. Bir savaşta, kötü niyetli birilerinin bir hastanenin veya okul otobüsünün üzerine "TANK" kelimesini yazarak veya diğer türlü manipülasyonlar yaparak otonom dronları kandırmayacağı garanti edilebilir mi?
Bir Arada Kaç Otonom Silah Kullanılacak?
Silahlanma yarışı hızlanıp, dron sürüleri kullanılmaya başlandıkça da işler kötüleşebilir. Dron sayısının artması, hata riskinin artması demektir; bu, basit olasılık kurallarının ortaya koyduğu bir gerçektir. Dronların birbiriyle iletişimi ise, hata riskinin daha da artması demektir. Çünkü bir dronun yaptığı hata diğer dronları da hataya sevk edebileceği gibi, iletişim sırasında oluşan aksaklıklar, yepyeni hataların doğmasına neden olabilir. Buna, kendiliğinden beliren hata (İng: "emergent error") denir.
Meşhur 3 kör ve 1 fil öyküsünü düşünün: Daha önce hiç fil görmemiş 3 kör adam, bir filin ne olduğunu anlamak için ona dokunurlar. Filin hortumuna dokunan, filin yılan gibi uzun olduğunu, filin yanına dokunan filin duvar gibi geniş olduğunu, bilin bacaklarına dokunan filin sütunlardan oluştuğunu söyler. Hepsi kendince haklıdır; ama hepsi, gerçeğin 3 farklı yorumudur. Bir dron sürüsü, bu şekilde aynı gerçeğin farklı yorumları geldiğinde nasıl karar verecektir? O "şey"in bir fil olduğunu mu, bir yılan olduğunu mu, bir duvar olduğunu mu, bir sütun olduğunu mu yoksa bambaşka bir şey mi olduğunu düşünecektir?
Otonom Silahlar Nerede Kullanılacak?
Karla kaplı Antarktika buzulunda dolaşan silahlı ve otonom bir kara aracının masum insanları öldürme ihtimali pratik olarak sıfırdır. Orada pek bir yaşam yoktur, ortam çoğunlukla çoraktır ve aracın yerleşik sensörlerini engelleyecek veya onların kafasını karıştıracak çok az şey vardır. Ancak New York veya Tokyo sokaklarında dolaşan aynı araç için vaziyet bambaşkadır. Şehirlerde; yapay zeka sistemini hataya itecek çok fazla unsur vardır: Ağaçlar, işaretler, arabalar, binalar ve insanların tümü doğru hedef değerlendirmesini bozabilir.
Denizlerde çalışan otonom silahlar, Antarktika buzullarında çalışan hayali bir otonom silahtan daha fazla hataya açıktır; ancak yine de açık denizlerde çok az engel olduğu için, askeri bir gemi ile sivil bir gemi arasında ayrım yapması çok zor olmayacaktır.
Peki ya bir şehir üzerinde uçan bir otonom silah? Bir okul otobüsü ile zırhlı personel taşıyıcıyı her seferinde yüksek bir kesinlik ile ayıraiblecek mi? Öyle ki, bu kararda hava durumu bile etkilidir: Yakın tarihli bir araştırma, yollardaki engelleri tespit etmek için kullanılan bir yapay zeka sisteminin açık havada %92 olan başarı oranının, sisli havada %58'e düştüğünü bulmuştur.[30] Tabii ki kötü hava, insanların hedefleri verimli bir şekilde sınıflandırmasını engelleyebilir; bu nedenle bu noktada önemli olacak soru, yapay zekanın sınıflandırma becerisinin insanların sınıflandırma becerisine kıyasla ne düzeyde olacağı ve hatalardan kimin sorumlu tutulacağıdır.[31]
Otonom Silahlar Ne Düzeyde Test Ediliyor?
Elbette sözünü ettiğimiz bu silahlar sürekli test edilmektedir; ama Tesla örneğinde de gördüğümüz üzere, böylesi bir sistemin olası her türlü duruma karşı test edilmesi çok zor, belki de imkansızdır. Sonuçta bu durumların bir kısmı, tamamen bilinemez ve öngörülemez bir yapıya sahip olabilir.[32]
Dahası testler, bir silahın kullanılması beklenen biçimlere ve olası operasyon ortamlarına göre yapılacaktır; ancak bunlar, stratejik ortam değiştikçe ve bir savaş geliştikçe değişebilecektir. Bir ortamda sağlam bir şekilde test edilen otonom bir silah, başka bir ortamda kullanıldığında tamamen işlevsiz alabilir. Örneğin Riyad'a nazaran Seattle'da çok daha fazla sisli gün vardır; ama çok daha az kum fırtınası vardır.
Yeterince çok sayıda otonom dron, yeterince çok sefer kullanıldığında, hiç karşılaşılmayan vakaların oluşması ve çok aksi hataların yapılması kaçınılmaz olacaktır. Bu durumda sorumluluk kimde olacaktır? Daha bunu Tesla vakasında bile kesin olarak belirleyemezken, bir okul otobüsü havaya uçup da 30 çocuk ölecek olursa suçluyu nerede arayacağız?
Otonom Silahlar Ne Kadar Yaygın Olacak?
Devletler ve devlet dışı aktörlerin; stratejilerine, kültürlerine, hedeflerine ve ahlaki ödünleşimlere karşı genel hassasiyetlerine bağlı olarak, risk toleransları da doğal olarak farklılık gösterecektir. Otonom silahlar elde etmek ve kullanmak ne kadar kolay olursa, bu silahların ölümcül terörist grupları, baskıcı rejimler ve hata yapma riskine karşı duyarsız gruplar tarafından da kullanılma ihtimalinin o kadar yüksek olduğunu anlamamız gerekmektedir. Berkeley'deki California Üniversitesi'nde bilgisayar bilimi profesörü olan (ve yazımızın başında sözünü ettiğimiz metnin imzacılarından) Stuart Russell'ın dikkat çektiği üzere:
Bana sadece 3 tane iyi lisansüst öğrencisi ve belki 1-2 tane de robotikçi meslektaş verin, basit bir dönem projesi olarak Birleşmiş Milletler binasına girip Rus büyükelçisini bulup ona bir "paket" teslim edebilecek bir silah yapalım.
Neyse ki teknik zeka, organizasyon, altyapı ve kaynak mevcudiyeti, otonom silahların kimler tarafından ne kadar karmaşık bir şekilde inşa edilebileceğini sınırlandıracaktır. En nihayetinde hiçbir "yalnız kurt", garajında otonom bir F-35 inşa edemez.
Sonuç
Uzun lafın kısası, elimizde atomun parçalanbildiği gerçeği kadar güçlü bir gerçek vardır: Makinalar, öğrenebilir. Ama bu öğrenmenin sınırlarını ve biçimini dikte eden biziz ve bir diğer gerçek şu: Biz, kusurlu öğretmenleriz.
Savaşlarda otonom silahların kullanımı, karmakarışık, çok değişkenli ve çok boyutlu problemler sunuyor. Bu nedenle kolaya kaçan çözümlerin hepsi hataya, daha fenası felaketlere gebedir. Elbette bu yazıda bu sorunların hepsine çözüm önerisi sunmamız imkânsızdır; ancak bir bilim iletişimi grubu olarak olarak sizi potansiyel riskler konusunda uyarabiliriz.
Türkiye, kontrolsüz bir otonom silahlanma yarışının fitilini ateşledi mi, ateşlemedi mi, aslında bu çok da önemli değildir. Önemli olan, fitil oradadır, er ya da geç birileri tarafından ateşlenecektir ve biz, eğer şimdi haberdar olmazsak, her zaman olduğu gibi buna da hazırlıksız yakalanacağız.
O yüzden bir anlığına bilimkurgudan çıkıp, gerçek bilimle yüzleşmemiz şart: Yapay zeka aramızda, aktif olarak çalışıyor ve insanların hayatlarının yönünü (ve hatta insanların hayatta kalıp kalmayacağını) belirlemeye başladı bile!
Eğer şimdi direksiyona geçmezsek, gidişata seyirci kalacağımız kesindir.
İçeriklerimizin bilimsel gerçekleri doğru bir şekilde yansıtması için en üst düzey çabayı gösteriyoruz. Gözünüze doğru gelmeyen bir şey varsa, mümkünse güvenilir kaynaklarınızla birlikte bize ulaşın!
Bu içeriğimizle ilgili bir sorunuz mu var? Buraya tıklayarak sorabilirsiniz.
Soru & Cevap Platformuna Git- 14
- 4
- 2
- 2
- 1
- 1
- 0
- 0
- 0
- 0
- 0
- 0
- Türev İçerik Kaynağı: The Bulletin | Arşiv Bağlantısı
- ^ Future of Life Institute. Open Letter On Autonomous Weapons. (15 Mart 2015). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: Future of Life Institute | Arşiv Bağlantısı
- ^ Drone Center. Loitering Munitions. (1 Ocak 2017). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: Bard College | Arşiv Bağlantısı
- ^ M. Rutherford. Kamikaze Drone Loiters Above, Waits For Target. (23 Haziran 2009). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: CNET | Arşiv Bağlantısı
- ^ M. Peck. 'Kamikaze Drones' Add A New Layer Of Lethality To Remote Forces. (11 Ağustos 2015). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: C4ISR | Arşiv Bağlantısı
- ^ T. Gibbons-Neff. Israeli-Made Kamikaze Drone Spotted In Nagorno-Karabakh Conflict. (5 Nisan 2016). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: The Washington Post | Arşiv Bağlantısı
- ^ Y. Lappin. Us Army May Soon Use Israeli-Designed ‘Suicide Drones’. (1 Haziran 2016). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: The Jerusalem Post | JPost.com | Arşiv Bağlantısı
- ^ A. R. Dombe. China Unveils A Harpy-Type Loitering Munition. (1 Mart 2017). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: Israel Defense | Arşiv Bağlantısı
- ^ a b L. M. R. Choudhury, et al. Final Report Of The Panel Of Experts On Libya Established Pursuant To Security Council Resolution 1973 (2011). (8 Mart 2021). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: United Nations | Arşiv Bağlantısı
- ^ J. Zitser. A Rogue Killer Drone 'Hunted Down' A Human Target Without Being Instructed To, Un Report Says. (30 Mayıs 2021). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: Business Insider | Arşiv Bağlantısı
- ^ M. Moran. Killer Drones 'Hunted Down Humans Without Being Told To' Warns Bombshell Report. (28 Mayıs 2021). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: Dailystar | Arşiv Bağlantısı
- ^ S. Trimble. Un: Turkish Drones Attacked Libyan Forces In Autonomous Mode | Aviation Week Network. (27 Mayıs 2021). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: Aviation Week | Arşiv Bağlantısı
- ^ D. Hambling. Drones May Have Attacked Humans Fully Autonomously For The First Time. (27 Mayıs 2021). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: New Scientist | Arşiv Bağlantısı
- ^ A. H. Michel. Libya’s Uav Strike Should Galvanize Efforts To Do Something About Autonomous Weapons. (2 Haziran 2021). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: Defense One | Arşiv Bağlantısı
- ^ T. Rogoway. Meet Israel’s “Suicide Squad” Of Self Sacrificing Drones. (8 Ağustos 2016). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: The Drive | Arşiv Bağlantısı
- ^ J. Vincent. Twitter Taught Microsoft’s Ai Chatbot To Be A Racist Asshole In Less Than A Day. (24 Mart 2016). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: The Verge | Arşiv Bağlantısı
- ^ D. Gershgorn. Companies Are On The Hook If Their Hiring Algorithms Are Biased. (22 Ekim 2018). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: Quartz | Arşiv Bağlantısı
- ^ A. H. Michel. The Black Box, Unlocked. (22 Eylül 2020). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: | Arşiv Bağlantısı
- ^ C. Isidore. Family Of Apple Engineer Sues Tesla, Saying Autopilot Caused His Fatal Crash. (2 Mayıs 2019). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: CNN | Arşiv Bağlantısı
- ^ M. McFarland. Federal Probe Finds Tesla's Autopilot Contributed To Fatal Crash. (12 Eylül 2017). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: CNNMoney | Arşiv Bağlantısı
- ^ T. A. Press. Crash Victim Had Posted Videos Riding In Tesla On Autopilot. (15 Mayıs 2021). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: NBC News | Arşiv Bağlantısı
- ^ A. Morando, et al. Driver-Initiated Tesla Autopilot Disengagements In Naturalistic Driving. (14 Eylül 2020). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: Association for Computing Machinery (ACM) doi: 10.1145/3409120.3410644. | Arşiv Bağlantısı
- ^ A. Velez-Green. The Foreign Policy Essay: The South Korean Sentry—A “Killer Robot” To Prevent War. (1 Mart 2015). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: Lawfare | Arşiv Bağlantısı
- ^ M. Peck. The Pentagon Wants To Arm Drones With Non-Lethal Lasers And Microwave Cannon. (8 Mart 2021). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: Forbes | Arşiv Bağlantısı
- ^ K. L. Best, et al. How To Analyze The Cyber Threat From Drones: Background, Analysis Frameworks, And Analysis Tools. (5 Mart 2020). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: RAND | Arşiv Bağlantısı
- ^ Z. Kallenborn, et al. (2019). Swarming Destruction: Drone Swarms And Chemical, Biological, Radiological, And Nuclear Weapons. The Nonproliferation Review, sf: 523-543. doi: 10.1080/10736700.2018.1546902. | Arşiv Bağlantısı
- ^ D. Axe. Russia Is Building Four Special Submarines To Haul Its Weird Doomsday Drone. (21 Ocak 2021). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: Forbes | Arşiv Bağlantısı
- ^ A. Kortylewski, et al. Combining Compositional Models And Deep Networks For Robust Object Classification Under Occlusion. (28 Mayıs 2019). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: arXiv.org | Arşiv Bağlantısı
- ^ K. Quach. You Only Need Pen And Paper To Fool This Openai Computer Vision Code. Just Write Down What You Want It To See. (5 Mart 2021). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: The Register | Arşiv Bağlantısı
- ^ J. P. Mello. Ai Vision System Hoodwinked By Pen And Paper. (9 Mart 2021). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: Tech News World | Arşiv Bağlantısı
- ^ Z. Liu, et al. (2020). Analysis Of The Influence Of Foggy Weather Environment On The Detection Effect Of Machine Vision Obstacles. Sensors, sf: 349. doi: 10.3390/s20020349. | Arşiv Bağlantısı
- ^ L. Lewis. Redefining Human Control: Lessons From The Battlefield For Autonomous Weapons. (1 Mart 2018). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: Center for Autonomy and AI | Arşiv Bağlantısı
- ^ A. Holland. Known Unknowns. (17 Mayıs 2021). Alındığı Tarih: 2 Haziran 2021. Alındığı Yer: UNIDIR | Arşiv Bağlantısı
Evrim Ağacı'na her ay sadece 1 kahve ısmarlayarak destek olmak ister misiniz?
Şu iki siteden birini kullanarak şimdi destek olabilirsiniz:
kreosus.com/evrimagaci | patreon.com/evrimagaci
Çıktı Bilgisi: Bu sayfa, Evrim Ağacı yazdırma aracı kullanılarak 21/12/2024 17:06:32 tarihinde oluşturulmuştur. Evrim Ağacı'ndaki içeriklerin tamamı, birden fazla editör tarafından, durmaksızın elden geçirilmekte, güncellenmekte ve geliştirilmektedir. Dolayısıyla bu çıktının alındığı tarihten sonra yapılan güncellemeleri görmek ve bu içeriğin en güncel halini okumak için lütfen şu adrese gidiniz: https://evrimagaci.org/s/10538
İçerik Kullanım İzinleri: Evrim Ağacı'ndaki yazılı içerikler orijinallerine hiçbir şekilde dokunulmadığı müddetçe izin alınmaksızın paylaşılabilir, kopyalanabilir, yapıştırılabilir, çoğaltılabilir, basılabilir, dağıtılabilir, yayılabilir, alıntılanabilir. Ancak bu içeriklerin hiçbiri izin alınmaksızın değiştirilemez ve değiştirilmiş halleri Evrim Ağacı'na aitmiş gibi sunulamaz. Benzer şekilde, içeriklerin hiçbiri, söz konusu içeriğin açıkça belirtilmiş yazarlarından ve Evrim Ağacı'ndan başkasına aitmiş gibi sunulamaz. Bu sayfa izin alınmaksızın düzenlenemez, Evrim Ağacı logosu, yazar/editör bilgileri ve içeriğin diğer kısımları izin alınmaksızın değiştirilemez veya kaldırılamaz.