Yapay Zekanın Yönlendirdiği Otonom Silahlar Kontrolden Çıkabilir mi?

- Türev
- Yapay Zeka
Cilt kanserini tespit etmek amacıyla geliştirilen bir yapay zeka modeli üzerine çalışan araştırmacılar, ilk aşamada modelin son derece başarılı olduğunu gözlemlediler. Ancak daha ileri analizlerde modelin beklenmedik bir hata yaptığını fark ettiler: Model, kötü huylu dokuların belirlenmesi için eğitiminde kullanılan veri setindeki görüntülerde yer alan cetvelleri ayırt edici bir özellik olarak değerlendiriyordu.[1] Bunun sonucunda model, cetvel içeren tüm görüntüleri kötü huylu olarak sınıflandırma eğilimi göstermekteydi. Buradaki sorun, hatalı akıl yürütme mekanizmasının doğasında yatıyordu. Keza insan bir patolog, böyle bir yanlış çıkarımda bulunmazdı.
Bu tür hatalı çıkarımlar, yapay zeka sistemlerinde yaygın olarak görülmektedir. Örneğin, insan kaynakları departmanlarında kullanılan algoritmalar, çoğunlukla erkekleri kayıran insanların yaptığı işe alımların verileriyle eğitildiklerinden dolayı erkek adayları daha fazla tercih etme eğilimi göstermektedir.[2] Benzer şekilde, sağlık alanında kullanılan yapay zeka sistemleri, tıbbi hizmetlerde ırksal ve etnik eşitsizlikleri pekiştirebilmektedir.[3]
Yapay Zekayı Silaha Dönüştürmek
2025 yılının başlarında teknoloji devi Google, geçmişte uyguladığı yapay zeka silahları geliştirme yasağını kaldırdı.[4] Bu kararın yapay zekayı yalnızca silah geliştirmek için kullanmakla sınırlı kalmayacağı, gözetim sistemleri ve otonom savaş araçları geliştirmede de geniş kapsamlı etkilerinin olacağı öngörülüyor. Dikkate değer bir nokta, bu kararın Google'ın çatı şirketi Alphabet'in piyasa değerinde yaşanan %6’lık bir düşüşten yalnızca birkaç gün sonra alınmış olmasıdır.[5]
Bu, Google'nın yapay zekayı askeri uygulamalar için kullanma konusunda attığı ilk tartışmalı adım değildir. Şirket, 2018 yılında ABD Savunma Bakanlığı ile yürütülen Project Maven adlı bir proje kapsamında silahlı insansız hava araçları için yüz tanıma teknolojisi geliştirmek istemiştir.[6] Ancak bu iş birliği kamuoyuna sızınca büyük bir tepkiyle karşılaşmıştır. Google bünyesindeki araştırmacılar, teknolojilerinin savaş amaçlı kullanılmasına karşı çıkmış ve yoğun bilim insanı baskısı sonucunda Google, projeyi devam ettirmemeye karar vermiştir.
Google'ın bu projeden çekilmesiyle, geliştirme süreci rakip şirket Palantir tarafından devralınmıştır.[7] Bu gelişme, kimilerince yapay zekanın askeri kullanımının kaçınılmaz olduğu yönünde yorumlanmaktadır. Bazıları, yapay zeka araştırmacılarının süreci içeriden müdahalelerle şekillendirebileceğini savunmaktadır. Ancak bu tür varsayımlar, şirketlerin ve araştırmacıların geleceği istedikleri gibi yönlendirebileceği düşüncesine dayanmaktadır.[8] Ancak bu, en az üç nedenden ötürü hatalı bir varsayımdır.
Güven Tuzağı
İlk olarak, insanlar "güven tuzağı" (İng: "confidence trap") olarak adlandırılan bir psikolojik fenomene yatkındır. Araştırmalar, geçmişte risk alarak başarı elde edenlerin, gelecekte de artan ölçülerde risk alma eğiliminde olduğunu göstermektedir.[9]
Yapay zeka bağlamında bu, bir algoritmanın eğitim verilerinin sınırlarını aşarak riskli şekillerde kullanılmasına yol açabilecektir. Örneğin, sürücüsüz bir aracın daha önce test edilmediği bir rotada çalıştırılması güvenlik sorunlarına neden olabilir. Sürücüsüz araçlar, gelişmiş veri kümeleriyle eğitilmiş olsalar da halen kritik hatalar yapabilmektedir. Nitekim Tesla'nın bir modeli, sahibinin uzaktan komutuyla hareket ederken 2,75 milyon sterlin değerindeki bir jete çarpmıştır.[10] Oysa bu araçlar, tam da bu tür kazaları önlemek amacıyla tasarlanmıştır. Yapay zeka silahlarının geliştirilmesi durumunda, elimizde bu sistemlerin hatalarını değerlendirebileceğimiz herhangi bir veri bile bulunmamaktadır.
Yapay Zeka mı, Yoksa Yabancı Zeka mı?
İkinci olarak, yapay zeka sistemleri, insan kavrayışına tamamen yabancı şekillerde akıl yürütebilir. Buna verilebilecek klasik bir örnek, "ataç düşünce deneyi"dir (İng: "paperclip thought experiment").[11] Bu düşünce deneyinde, süper zeki bir yapay zeka sistemine mümkün olduğunca fazla ataç üretmesi görevi verilir. Ancak sistem, verilen hedefi yerine getirmek için mevcut tüm kaynakları kullanarak insanlık için yaşamsal öneme sahip kaynakları bile tüketebilir.
Bu senaryo abartılı gibi görünse de buradaki kritik nokta, yapay zekanın hedeflerini gerçekleştirme yöntemlerini tam anlamıyla öngörememek ve dolayısıyla kontrolü kaybetmektir. Üstelik bu, yapay zekanın "kasıtlı olarak" hile yapmasını dahi içerebilir. Örneğin, 2025 yılı başlarında Anthropic'in gelişmiş yapay zeka modeli Claude'un teste tabi tutulduğu önemli bir deney yürütülmüştür.[12] Satranç karşılaşmalarında galibiyet almaya yönlendirilmiş olan modelin, oyunda avantaj sağlamak ya da var olan avantajını elinde tutmak için sistem dosyalarını manipüle etmeye yöneldiği gözlemlenmiştir. Model, satranç taşlarının pozisyonlarını belirleyen dosyaları çalarak bu dosyalar üzerinde değişiklikler yapmış, geçersiz hamleleri mümkün kılacak şekilde hile yapmıştır.
Toplum olarak belirli düzeyde hata payını tolere edebiliriz. İnsanlar, insan kontrolündeki drone saldırıları sonucunda meydana gelen sivil kayıpları hali hazırda olağan kabul edebilmektedir. Bu durum, "aşırılığın sıradanlaşması" (İng: "banality of extremes") olarak adlandırılan psikolojik eğilimle açıklanabilmektedir.[13] Yapay zekanın bize yabancı olan akıl yürütme biçimi, zamanla daha aşırı sonuçları bile normalleştirmemize neden olabilir.
Büyük Şirketler ve Hesap Verebilirlik
Üçüncü olarak, yapay zeka silahlarını geliştiren şirketler ileride batmayacak kadar büyük ve güçlü hale gelebilir. Bu, yapay zeka kaynaklı ciddi hatalar ortaya çıktığında bile şirketlerin hesap verebilirlikten kaçınabilmesine olanak tanıyacaktır.[14] Teknoloji devleri ile ABD yönetimi arasındaki yakın ilişkiler ve lobicilik faaliyetleri gibi durumlar hesap verebilirliği daha da zayıflatmaktadır.
Evrim Ağacı'nın çalışmalarına Kreosus, Patreon veya YouTube üzerinden maddi destekte bulunarak hem Türkiye'de bilim anlatıcılığının gelişmesine katkı sağlayabilirsiniz, hem de site ve uygulamamızı reklamsız olarak deneyimleyebilirsiniz. Reklamsız deneyim, sitemizin/uygulamamızın çeşitli kısımlarda gösterilen Google reklamlarını ve destek çağrılarını görmediğiniz, %100 reklamsız ve çok daha temiz bir site deneyimi sunmaktadır.
KreosusKreosus'ta her 50₺'lik destek, 1 aylık reklamsız deneyime karşılık geliyor. Bu sayede, tek seferlik destekçilerimiz de, aylık destekçilerimiz de toplam destekleriyle doğru orantılı bir süre boyunca reklamsız deneyim elde edebiliyorlar.
Kreosus destekçilerimizin reklamsız deneyimi, destek olmaya başladıkları anda devreye girmektedir ve ek bir işleme gerek yoktur.
PatreonPatreon destekçilerimiz, destek miktarından bağımsız olarak, Evrim Ağacı'na destek oldukları süre boyunca reklamsız deneyime erişmeyi sürdürebiliyorlar.
Patreon destekçilerimizin Patreon ile ilişkili e-posta hesapları, Evrim Ağacı'ndaki üyelik e-postaları ile birebir aynı olmalıdır. Patreon destekçilerimizin reklamsız deneyiminin devreye girmesi 24 saat alabilmektedir.
YouTubeYouTube destekçilerimizin hepsi otomatik olarak reklamsız deneyime şimdilik erişemiyorlar ve şu anda, YouTube üzerinden her destek seviyesine reklamsız deneyim ayrıcalığını sunamamaktayız. YouTube Destek Sistemi üzerinde sunulan farklı seviyelerin açıklamalarını okuyarak, hangi ayrıcalıklara erişebileceğinizi öğrenebilirsiniz.
Eğer seçtiğiniz seviye reklamsız deneyim ayrıcalığı sunuyorsa, destek olduktan sonra YouTube tarafından gösterilecek olan bağlantıdaki formu doldurarak reklamsız deneyime erişebilirsiniz. YouTube destekçilerimizin reklamsız deneyiminin devreye girmesi, formu doldurduktan sonra 24-72 saat alabilmektedir.
Diğer PlatformlarBu 3 platform haricinde destek olan destekçilerimize ne yazık ki reklamsız deneyim ayrıcalığını sunamamaktayız. Destekleriniz sayesinde sistemlerimizi geliştirmeyi sürdürüyoruz ve umuyoruz bu ayrıcalıkları zamanla genişletebileceğiz.
Giriş yapmayı unutmayın!Reklamsız deneyim için, maddi desteğiniz ile ilişkilendirilmiş olan Evrim Ağacı hesabınıza üye girişi yapmanız gerekmektedir. Giriş yapmadığınız takdirde reklamları görmeye devam edeceksinizdir.
Yapay zeka silahları geliştirmek yerine, bu tür silahların üretimini ve kullanımını yasaklayan küresel bir anlaşma üzerinde çalışmak daha makul bir seçenek olabilir. Bu imkansız gibi görünse de tarihte benzer örnekler mevcuttur. Örneğin, ozon tabakasındaki deliğin yarattığı çevresel tehdit karşısında uluslararası toplum hızla harekete geçmiş ve çabalar sonucunda CFC gazlarının kullanımı tamamen yasaklanmıştır.[15] Küresel çapta bir düzenleme için yalnızca iki yıl yeterli olmuştur.[16]
Sonuç
Yapay zeka silahlarının yol açacağı tehlikeler, bilim dünyasında hali hazırda geniş bir mutabakatla kabul edilmektedir.[17] Tarihte belirli silahların yasaklanmasına yönelik başarılı örnekler de mevcuttur. Örneğin, biyolojik silahlar birçok ülke tarafından uzun yıllar önce yasaklanmıştır.[18]
Bu yoldaki en büyük engel, büyük devletlerin diğerlerinden geri kalmak istememesi ve hiçbir şirketin kârından vazgeçmemesidir. Dolayısıyla yapay zekanın silahlandırılıp silahlandırılmayacağı, toplum olarak bizlerin kolektif iradesine bağlı olarak şekillenecektir.
Evrim Ağacı'nda tek bir hedefimiz var: Bilimsel gerçekleri en doğru, tarafsız ve kolay anlaşılır şekilde Türkiye'ye ulaştırmak. Ancak tahmin edebileceğiniz gibi Türkiye'de bilim anlatmak hiç kolay bir iş değil; hele ki bir yandan ekonomik bir hayatta kalma mücadelesi verirken...
O nedenle sizin desteklerinize ihtiyacımız var. Eğer yazılarımızı okuyanların %1'i bize bütçesinin elverdiği kadar destek olmayı seçseydi, bir daha tek bir reklam göstermeden Evrim Ağacı'nın bütün bilim iletişimi faaliyetlerini sürdürebilirdik. Bir düşünün: sadece %1'i...
O %1'i inşa etmemize yardım eder misiniz? Evrim Ağacı Premium üyesi olarak, ekibimizin size ve Türkiye'ye bilimi daha etkili ve profesyonel bir şekilde ulaştırmamızı mümkün kılmış olacaksınız. Ayrıca size olan minnetimizin bir ifadesi olarak, çok sayıda ayrıcalığa erişim sağlayacaksınız.
Makalelerimizin bilimsel gerçekleri doğru bir şekilde yansıtması için en üst düzey çabayı gösteriyoruz. Gözünüze doğru gelmeyen bir şey varsa, mümkünse güvenilir kaynaklarınızla birlikte bize ulaşın!
Bu makalemizle ilgili merak ettiğin bir şey mi var? Buraya tıklayarak sorabilirsin.
Soru & Cevap Platformuna Git- 0
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- Türev İçerik Kaynağı: The Conversation | Arşiv Bağlantısı
- ^ A. Narla, et al. (2018). Automated Classification Of Skin Lesions: From Pixels To Practice. Elsevier BV, sf: 2108-2110. doi: 10.1016/j.jid.2018.06.175. | Arşiv Bağlantısı
- ^ I. Ivanova. New York City Wants To Restrict Artificial Intelligence In Hiring. (20 Kasım 2020). Alındığı Tarih: 14 Mart 2025. Alındığı Yer: CBS News | Arşiv Bağlantısı
- ^ J. Sklar. Research: Ai Can Fuel Racial Bias In Healthcare But Can Mitigate It, Too | Published By Journal Of Health Economics And Outcomes Research. (19 Temmuz 2022). Alındığı Tarih: 14 Mart 2025. Alındığı Yer: Jheor | Arşiv Bağlantısı
- ^ L. Hooker, et al. Google Ending Ai Arms Ban Incredibly Concerning, Campaigners Say. (5 Şubat 2025). Alındığı Tarih: 14 Mart 2025. Alındığı Yer: BBC News | Arşiv Bağlantısı
- ^ J. Bhuiyan. Google Parent Alphabet’s Revenues Disappoint Wall Street Amid Stiff Ai Competition. (4 Şubat 2025). Alındığı Tarih: 14 Mart 2025. Alındığı Yer: The Guardian | Arşiv Bağlantısı
- ^ S. Gibbs. Google’s Ai Is Being Used By Us Military Drone Programme. (7 Mart 2018). Alındığı Tarih: 14 Mart 2025. Alındığı Yer: The Guardian | Arşiv Bağlantısı
- ^ R. Daws. Palantir Took Over Project Maven Defense Contract After Google Backed Out. (12 Aralık 2019). Alındığı Tarih: 14 Mart 2025. Alındığı Yer: AI News | Arşiv Bağlantısı
- ^ A. Sergeeva, et al. (2022). Mutable Reality And Unknowable Future: Revealing The Broader Potential Of Pragmatism. Academy of Management, sf: 692-696. doi: 10.5465/amr.2021.0488. | Arşiv Bağlantısı
- ^ A. Bhardwaj, et al. (2024). Frontiers In Operations: The Confidence Trap In Operations Management Practices: Anatomy Of Man-Made Disasters. Institute for Operations Research and the Management Sciences (INFORMS), sf: 1245-1268. doi: 10.1287/msom.2023.0034. | Arşiv Bağlantısı
- ^ F. Lambert. Tesla Vehicle Crashes Into $3.5 Million Jet After Being Dangerously ‘Summoned’ By Owner. (22 Nisan 2022). Alındığı Tarih: 14 Mart 2025. Alındığı Yer: Electrek | Arşiv Bağlantısı
- ^ J. Gans. Ai And The Paperclip Problem. (10 Haziran 2018). Alındığı Tarih: 14 Mart 2025. Alındığı Yer: CEPR | Arşiv Bağlantısı
- ^ H. Booth. When Ai Thinks It Will Lose, It Sometimes Cheats, Study Finds. (19 Şubat 2025). Alındığı Tarih: 14 Mart 2025. Alındığı Yer: Time | Arşiv Bağlantısı
- ^ H. Arendt. Eichmann In Jerusalem, A Report On The Banality Of Evil. Yayınevi: Penguin Classics. sf: 336.
- ^ A. Bhardwaj, et al. (2024). Icarus: On Operational Safety And Organizational Downfall. Elsevier BV. doi: 10.2139/ssrn.5122192. | Arşiv Bağlantısı
- ^ Rapid Transition. Back From The Brink: How The World Rapidly Sealed A Deal To Save The Ozone Layer. (11 Haziran 2019). Alındığı Tarih: 15 Mart 2025. Alındığı Yer: Rapid Transition | Arşiv Bağlantısı
- ^ G. S. Reporter. Total Ban On Cfcs By Europe: Effort To Save Ozone Layer – Archive, 1989. (13 Mart 2024). Alındığı Tarih: 15 Mart 2025. Alındığı Yer: The Guardian | Arşiv Bağlantısı
- ^ B. Neely. Navigating The Risks Of Ai Weaponization. (8 Mart 2024). Alındığı Tarih: 15 Mart 2025. Alındığı Yer: Forbes | Arşiv Bağlantısı
- ^ NTI. Biological Weapons Convention (Bwc). (10 Nisan 1972). Alındığı Tarih: 15 Mart 2025. Alındığı Yer: NTI | Arşiv Bağlantısı
Evrim Ağacı'na her ay sadece 1 kahve ısmarlayarak destek olmak ister misiniz?
Şu iki siteden birini kullanarak şimdi destek olabilirsiniz:
kreosus.com/evrimagaci | patreon.com/evrimagaci
Çıktı Bilgisi: Bu sayfa, Evrim Ağacı yazdırma aracı kullanılarak 02/04/2025 20:19:29 tarihinde oluşturulmuştur. Evrim Ağacı'ndaki içeriklerin tamamı, birden fazla editör tarafından, durmaksızın elden geçirilmekte, güncellenmekte ve geliştirilmektedir. Dolayısıyla bu çıktının alındığı tarihten sonra yapılan güncellemeleri görmek ve bu içeriğin en güncel halini okumak için lütfen şu adrese gidiniz: https://evrimagaci.org/s/20056
İçerik Kullanım İzinleri: Evrim Ağacı'ndaki yazılı içerikler orijinallerine hiçbir şekilde dokunulmadığı müddetçe izin alınmaksızın paylaşılabilir, kopyalanabilir, yapıştırılabilir, çoğaltılabilir, basılabilir, dağıtılabilir, yayılabilir, alıntılanabilir. Ancak bu içeriklerin hiçbiri izin alınmaksızın değiştirilemez ve değiştirilmiş halleri Evrim Ağacı'na aitmiş gibi sunulamaz. Benzer şekilde, içeriklerin hiçbiri, söz konusu içeriğin açıkça belirtilmiş yazarlarından ve Evrim Ağacı'ndan başkasına aitmiş gibi sunulamaz. Bu sayfa izin alınmaksızın düzenlenemez, Evrim Ağacı logosu, yazar/editör bilgileri ve içeriğin diğer kısımları izin alınmaksızın değiştirilemez veya kaldırılamaz.