Yapay Zekanın Yönlendirdiği Otonom Silahlar Kontrolden Çıkabilir mi?

- Türev
- Yapay Zeka
Cilt kanserini tespit etmek amacıyla geliştirilen bir yapay zeka modeli üzerine çalışan araştırmacılar, ilk aşamada modelin son derece başarılı olduğunu gözlemlediler. Ancak daha ileri analizlerde modelin beklenmedik bir hata yaptığını fark ettiler: Model, kötü huylu dokuları belirlerken, tıbbi görüntülemelerde yer alan cetvelleri "ayırt edici özellik" olarak değerlendiriyordu.[1] Keza, modeli eğitmek için kullanılan veri setinde kötü huylu dokuları gösteren görüntülerin çoğu cetvel içermekteydi. Dolayısıyla model, eğitiminde kullanılan veri setinden yola çıkarak, cetvel içeren tüm görüntüleri kötü huylu olarak sınıflandırma eğilimi göstermekteydi.
Burada sorun, yapay zekanın akıl yürütme mekanizmasının doğasında yatmaktadır. İnsan bir patolog, böyle bir yanlış çıkarımda bulunmazdı. Bu tür hatalı çıkarımlar, yapay zeka sistemlerinde yaygın olarak görülmektedir. Örneğin, insan kaynakları departmanlarında işe alımda kullanılan algoritmalar, genelde erkek adayları kadın adaylara göre daha fazla tercih etme eğilimi göstermektedir.[2] Benzer şekilde, sağlık alanında kullanılan yapay zeka sistemleri, tıbbi hizmetlerde cinsel, ırksal ve etnik eşitsizlikleri pekiştirebilmektedir.[3] Çünkü çoğu zaman bu sistemler, erkekleri kadınlara ya da bir grubu başka bir gruba karşı kayıran, önceleyen veriler kullanılarak bilerek veya bilmeksizin eğitilmektedir.
Burada anlaşılması gereken şudur: Yapay zeka sistemlerinin eğitiminde kullanılan veriler, nihayetinde insan üretimidir ve dolayısıyla bu veriler çoğu zaman yanlılık içermektedir. Yani yapay zekanın eğitildiği veri seti yanlı olduğunda, doğal olarak modelin kendi de insan ön yargılarını pekiştirme eğilimine sahip olmaktadır. Tahmin edilebileceği üzere bu durum, yapay zekanın yönlendirdiği otonom silahlar için ayrıca önem arz etmektedir.
Yapay Zekayı Silaha Dönüştürmek
2025 yılının başlarında teknoloji devi Google, geçmişte uyguladığı yapay zeka silahları geliştirme yasağını kaldırdı.[4] Google'ın bu kararıyla yapay zekanın, artık yalnızca silah geliştirmek için kullanılmakla sınırlı kalmayacağı; gözetim sistemleri ve otonom savaş araçları geliştirmek için de kullanılacağı öngörülüyor. Dikkate değer bir nokta, bu kararın Google'ın çatı şirketi Alphabet'in piyasa değerinde yaşanan %6’lık bir düşüşten yalnızca birkaç gün sonra alınmış olmasıdır.[5]
Bu, Google'nın yapay zekayı askeri uygulamalar için kullanma konusunda attığı ilk tartışmalı adım değildir. Şirket, 2018 yılında ABD Savunma Bakanlığı ile yürütülen Project Maven adlı bir proje kapsamında silahlı insansız hava araçları için "yüz tanıma" teknolojisi geliştirmek istemiştir.[6] Ancak bu iş birliği kamuoyuna sızınca büyük bir tepkiyle karşılaşmıştır. Google bünyesindeki araştırmacılar, geliştirdikleri teknolojinin savaş amaçlı kullanılmasına karşı çıkmış ve yoğun bilim insanı baskısı sonucunda Google, projeyi devam ettirmemeye karar vermiştir.
Google'ın bu projeden çekilmesiyle, geliştirme süreci rakip şirket Palantir tarafından devralınmıştır.[7] Bu gelişme, kimilerince yapay zekanın askeri kullanımının kaçınılmaz olduğu yönünde yorumlanmaktadır. Bazıları, yapay zeka araştırmacılarının süreci içeriden müdahalelerle şekillendirebileceğini savunmaktadır. Ancak bu tür varsayımlar, şirketlerin ve araştırmacıların, geleceği istedikleri gibi yönlendirebileceği düşüncesine dayanmaktadır.[8] Ancak bu, en az üç nedenden ötürü hatalı bir varsayımdır.
Güven Tuzağı
İlk olarak, insanlar "güven tuzağı" (İng: "confidence trap") olarak adlandırılan bir psikolojik fenomene yatkınlardır. Araştırmalar, geçmişte risk alarak başarı elde edilmesinin, gelecekte de artan ölçülerde risk alma eğilimine sebep olduğunu göstermektedir.[9]
Yapay zeka bağlamında bu, eğitim verilerinin sınırlarını aşacak veya o eğitim verilerinin niteliğini göz ardı edecek biçimde sistemin riskli şekillerde kullanılmasına yol açabilir. Örneğin, sürücüsüz bir aracın daha önce test edilmediği bir rotada aceleci bir şekilde çalıştırılması güvenlik sorunlarına neden olabilir. Sürücüsüz araçlar, gelişmiş veri kümeleriyle eğitilmiş olsalar da halen kritik hatalar yapabilmektedir. Nitekim Tesla'nın bir modeli, sahibinin uzaktan komutuyla hareket ederken 2,75 milyon sterlin değerindeki bir jete çarpmıştır.[10] Oysa bu araçlar, tam da bu tür kazaları önlemek amacıyla tasarlanmıştır. Yapay zeka silahlarının geliştirilmesi durumunda, elimizde bu sistemlerin hatalarını değerlendirebileceğimiz herhangi bir veri bile bulunmamaktadır.
Yapay Zeka mı, Yoksa Yabancı Zeka mı?
İkinci olarak, yapay zeka sistemleri, insan kavrayışına tamamen yabancı şekillerde akıl yürütebilir. Buna verilebilecek klasik bir örnek, "ataç düşünce deneyi"dir (İng: "paperclip thought experiment").[11] Bu düşünce deneyinde, süper zeki bir yapay zeka sistemine mümkün olduğunca fazla ataç üretmesi görevi verilir. Ancak sistem, verilen hedefi yerine getirmek için dünyadaki mevcut tüm kaynakları kullanarak insanlık için yaşamsal öneme sahip kaynakları bile tüketir.
Böyle bir senaryo abartılı gibi görünse de buradaki kritik nokta, yapay zekanın hedeflerini gerçekleştirme yöntemlerini tam anlamıyla öngörememek ve dolayısıyla kontrolü kaybetmektir. Üstelik bu, yapay zekanın "kasıtlı olarak" aldatıcı şekilde davranmasını dahi içerebilir. Örneğin, 2025 yılı başlarında Anthropic'in gelişmiş yapay zeka modeli Claude'un teste tabi tutulduğu önemli bir deney yürütülmüştür.[12] Satranç karşılaşmalarında galibiyet almaya yönlendirilmiş olan modelin, oyunda avantaj sağlamak ya da var olan avantajını elinde tutmak için sistem dosyalarını manipüle etmeye yöneldiği gözlemlenmiştir. Model, satranç taşlarının pozisyonlarını belirleyen dosyaları çalarak bu dosyalar üzerinde değişiklikler yapmış, geçersiz hamleleri mümkün kılacak şekilde hedefine ulaşmak için hileye başvurmuştur.
Toplum, belirli düzeyde hata payını tolere edebilmektedir. İnsanlar, insan kontrolündeki drone saldırıları sonucunda meydana gelen sivil kayıpları hali hazırda olağan kabul edebilmektedir. Bu durum, "aşırılığın sıradanlaşması" (İng: "banality of extremes") olarak adlandırılan psikolojik eğilimle açıklanabilmektedir.[13] Yapay zekanın bize yabancı olan akıl yürütme biçimi, zamanla daha aşırı sonuçları bile normalleştirmemize neden olabilir ve bu durum çok hızlı bir şekilde büyük felaketlerle sonuçlanabilir.
Aslında maddi destek istememizin nedeni çok basit: Çünkü Evrim Ağacı, bizim tek mesleğimiz, tek gelir kaynağımız. Birçoklarının aksine bizler, sosyal medyada gördüğünüz makale ve videolarımızı hobi olarak, mesleğimizden arta kalan zamanlarda yapmıyoruz. Dolayısıyla bu işi sürdürebilmek için gelir elde etmemiz gerekiyor.
Bunda elbette ki hiçbir sakınca yok; kimin, ne şartlar altında yayın yapmayı seçtiği büyük oranda bir tercih meselesi. Ne var ki biz, eğer ana mesleklerimizi icra edecek olursak (yani kendi mesleğimiz doğrultusunda bir iş sahibi olursak) Evrim Ağacı'na zaman ayıramayacağımızı, ayakta tutamayacağımızı biliyoruz. Çünkü az sonra detaylarını vereceğimiz üzere, Evrim Ağacı sosyal medyada denk geldiğiniz makale ve videolardan çok daha büyük, kapsamlı ve aşırı zaman alan bir bilim platformu projesi. Bu nedenle bizler, meslek olarak Evrim Ağacı'nı seçtik.
Eğer hem Evrim Ağacı'ndan hayatımızı idame ettirecek, mesleklerimizi bırakmayı en azından kısmen meşrulaştıracak ve mantıklı kılacak kadar bir gelir kaynağı elde edemezsek, mecburen Evrim Ağacı'nı bırakıp, kendi mesleklerimize döneceğiz. Ama bunu istemiyoruz ve bu nedenle didiniyoruz.
Büyük Şirketler ve Hesap Verebilirlik
Üçüncü olarak, yapay zeka silahlarını geliştiren şirketler ileride dokunulamayacak kadar büyük ve güçlü hale gelebilir. Bu, yapay zeka kaynaklı ciddi hatalar ortaya çıktığında bile şirketlerin hesap verebilirlikten kaçınabilmesine olanak tanıyacaktır.[14] Teknoloji devleri ile ABD yönetimi arasındaki yakın ilişkiler ve lobicilik faaliyetleri gibi durumlar, hesap verebilirliği daha da zayıflatmaktadır.
Bu noktada yapay zeka silahları geliştirmek yerine, bu tür silahların üretimini ve kullanımını yasaklayan küresel bir anlaşma üzerinde çalışmak daha makul bir seçenek olabilir. Bu başta imkansız gibi görünse de tarihte buna benzer örnekler mevcuttur. Örneğin, ozon tabakasındaki deliğin yarattığı çevresel tehdit karşısında uluslararası toplum hızla harekete geçmiş ve Birleşmiş Millet bünyesindeki çabalar sonucunda CFC gazlarının kullanımı tamamen yasaklanmıştır.[15] Üstelik, küresel çaptaki böyle bir düzenleme için yalnızca iki yıl yeterli olmuştur.[16]
Sonuç
Yapay zeka silahlarının yol açacağı tehlikeler, bilim dünyasında hali hazırda geniş bir mutabakatla kabul edilmektedir.[17] Tarihte belirli silahların yasaklanmasına yönelik başarılı örnekler de mevcuttur. Örneğin, biyolojik silahlar birçok ülke tarafından uzun yıllar önce yasaklanmıştır.[18]
Bu yoldaki en büyük engel, büyük devletlerin diğerlerinden geri kalmak istememesi ve hiçbir şirketin kârından vazgeçmemesidir. Dolayısıyla yapay zekanın silahlandırılıp silahlandırılmayacağı, toplum olarak bizlerin kolektif iradesine, bu yöndeki baskısına bağlı olarak şekillenecektir.
Evrim Ağacı'nda tek bir hedefimiz var: Bilimsel gerçekleri en doğru, tarafsız ve kolay anlaşılır şekilde Türkiye'ye ulaştırmak. Ancak tahmin edebileceğiniz gibi Türkiye'de bilim anlatmak hiç kolay bir iş değil; hele ki bir yandan ekonomik bir hayatta kalma mücadelesi verirken...
O nedenle sizin desteklerinize ihtiyacımız var. Eğer yazılarımızı okuyanların %1'i bize bütçesinin elverdiği kadar destek olmayı seçseydi, bir daha tek bir reklam göstermeden Evrim Ağacı'nın bütün bilim iletişimi faaliyetlerini sürdürebilirdik. Bir düşünün: sadece %1'i...
O %1'i inşa etmemize yardım eder misiniz? Evrim Ağacı Premium üyesi olarak, ekibimizin size ve Türkiye'ye bilimi daha etkili ve profesyonel bir şekilde ulaştırmamızı mümkün kılmış olacaksınız. Ayrıca size olan minnetimizin bir ifadesi olarak, çok sayıda ayrıcalığa erişim sağlayacaksınız.
Makalelerimizin bilimsel gerçekleri doğru bir şekilde yansıtması için en üst düzey çabayı gösteriyoruz. Gözünüze doğru gelmeyen bir şey varsa, mümkünse güvenilir kaynaklarınızla birlikte bize ulaşın!
Bu makalemizle ilgili merak ettiğin bir şey mi var? Buraya tıklayarak sorabilirsin.
Soru & Cevap Platformuna Git- 0
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- Türev İçerik Kaynağı: The Conversation | Arşiv Bağlantısı
- ^ A. Narla, et al. (2018). Automated Classification Of Skin Lesions: From Pixels To Practice. Elsevier BV, sf: 2108-2110. doi: 10.1016/j.jid.2018.06.175. | Arşiv Bağlantısı
- I. Ivanova. New York City Wants To Restrict Artificial Intelligence In Hiring. (20 Kasım 2020). Alındığı Tarih: 14 Mart 2025. Alındığı Yer: CBS News | Arşiv Bağlantısı
- J. Sklar. Research: Ai Can Fuel Racial Bias In Healthcare But Can Mitigate It, Too | Published By Journal Of Health Economics And Outcomes Research. (19 Temmuz 2022). Alındığı Tarih: 14 Mart 2025. Alındığı Yer: Jheor | Arşiv Bağlantısı
- ^ L. Hooker, et al. Google Ending Ai Arms Ban Incredibly Concerning, Campaigners Say. (5 Şubat 2025). Alındığı Tarih: 14 Mart 2025. Alındığı Yer: BBC News | Arşiv Bağlantısı
- ^ J. Bhuiyan. Google Parent Alphabet’s Revenues Disappoint Wall Street Amid Stiff Ai Competition. (4 Şubat 2025). Alındığı Tarih: 14 Mart 2025. Alındığı Yer: The Guardian | Arşiv Bağlantısı
- ^ S. Gibbs. Google’s Ai Is Being Used By Us Military Drone Programme. (7 Mart 2018). Alındığı Tarih: 14 Mart 2025. Alındığı Yer: The Guardian | Arşiv Bağlantısı
- ^ R. Daws. Palantir Took Over Project Maven Defense Contract After Google Backed Out. (12 Aralık 2019). Alındığı Tarih: 14 Mart 2025. Alındığı Yer: AI News | Arşiv Bağlantısı
- ^ A. Sergeeva, et al. (2022). Mutable Reality And Unknowable Future: Revealing The Broader Potential Of Pragmatism. Academy of Management, sf: 692-696. doi: 10.5465/amr.2021.0488. | Arşiv Bağlantısı
- ^ A. Bhardwaj, et al. (2024). Frontiers In Operations: The Confidence Trap In Operations Management Practices: Anatomy Of Man-Made Disasters. Institute for Operations Research and the Management Sciences (INFORMS), sf: 1245-1268. doi: 10.1287/msom.2023.0034. | Arşiv Bağlantısı
- ^ F. Lambert. Tesla Vehicle Crashes Into $3.5 Million Jet After Being Dangerously ‘Summoned’ By Owner. (22 Nisan 2022). Alındığı Tarih: 14 Mart 2025. Alındığı Yer: Electrek | Arşiv Bağlantısı
- ^ J. Gans. Ai And The Paperclip Problem. (10 Haziran 2018). Alındığı Tarih: 14 Mart 2025. Alındığı Yer: CEPR | Arşiv Bağlantısı
- ^ H. Booth. When Ai Thinks It Will Lose, It Sometimes Cheats, Study Finds. (19 Şubat 2025). Alındığı Tarih: 14 Mart 2025. Alındığı Yer: Time | Arşiv Bağlantısı
- ^ H. Arendt. Eichmann In Jerusalem, A Report On The Banality Of Evil. Yayınevi: Penguin Classics. sf: 336.
- ^ A. Bhardwaj, et al. (2024). Icarus: On Operational Safety And Organizational Downfall. Elsevier BV. doi: 10.2139/ssrn.5122192. | Arşiv Bağlantısı
- ^ Rapid Transition. Back From The Brink: How The World Rapidly Sealed A Deal To Save The Ozone Layer. (11 Haziran 2019). Alındığı Tarih: 15 Mart 2025. Alındığı Yer: Rapid Transition | Arşiv Bağlantısı
- ^ G. S. Reporter. Total Ban On Cfcs By Europe: Effort To Save Ozone Layer – Archive, 1989. (13 Mart 2024). Alındığı Tarih: 15 Mart 2025. Alındığı Yer: The Guardian | Arşiv Bağlantısı
- ^ B. Neely. Navigating The Risks Of Ai Weaponization. (8 Mart 2024). Alındığı Tarih: 15 Mart 2025. Alındığı Yer: Forbes | Arşiv Bağlantısı
- ^ NTI. Biological Weapons Convention (Bwc). (10 Nisan 1972). Alındığı Tarih: 15 Mart 2025. Alındığı Yer: NTI | Arşiv Bağlantısı
Evrim Ağacı'na her ay sadece 1 kahve ısmarlayarak destek olmak ister misiniz?
Şu iki siteden birini kullanarak şimdi destek olabilirsiniz:
kreosus.com/evrimagaci | patreon.com/evrimagaci
Çıktı Bilgisi: Bu sayfa, Evrim Ağacı yazdırma aracı kullanılarak 22/04/2025 22:14:57 tarihinde oluşturulmuştur. Evrim Ağacı'ndaki içeriklerin tamamı, birden fazla editör tarafından, durmaksızın elden geçirilmekte, güncellenmekte ve geliştirilmektedir. Dolayısıyla bu çıktının alındığı tarihten sonra yapılan güncellemeleri görmek ve bu içeriğin en güncel halini okumak için lütfen şu adrese gidiniz: https://evrimagaci.org/s/20056
İçerik Kullanım İzinleri: Evrim Ağacı'ndaki yazılı içerikler orijinallerine hiçbir şekilde dokunulmadığı müddetçe izin alınmaksızın paylaşılabilir, kopyalanabilir, yapıştırılabilir, çoğaltılabilir, basılabilir, dağıtılabilir, yayılabilir, alıntılanabilir. Ancak bu içeriklerin hiçbiri izin alınmaksızın değiştirilemez ve değiştirilmiş halleri Evrim Ağacı'na aitmiş gibi sunulamaz. Benzer şekilde, içeriklerin hiçbiri, söz konusu içeriğin açıkça belirtilmiş yazarlarından ve Evrim Ağacı'ndan başkasına aitmiş gibi sunulamaz. Bu sayfa izin alınmaksızın düzenlenemez, Evrim Ağacı logosu, yazar/editör bilgileri ve içeriğin diğer kısımları izin alınmaksızın değiştirilemez veya kaldırılamaz.