Keşfedin, Öğrenin ve Paylaşın
Evrim Ağacı'nda Aradığın Her Şeye Ulaşabilirsin!
Paylaşım Yap
Tüm Reklamları Kapat

Yapay Zekanın Yönlendirdiği Otonom Silahlar Kontrolden Çıkabilir mi?

5 dakika
187
Yapay Zekanın Yönlendirdiği Otonom Silahlar Kontrolden Çıkabilir mi? Valerie Morris
Tüm Reklamları Kapat

Cilt kanserini tespit etmek amacıyla geliştirilen bir yapay zeka modeli üzerine çalışan araştırmacılar, ilk aşamada modelin son derece başarılı olduğunu gözlemlediler. Ancak daha ileri analizlerde modelin beklenmedik bir hata yaptığını fark ettiler: Model, kötü huylu dokuları belirlerken, tıbbi görüntülemelerde yer alan cetvelleri "ayırt edici özellik" olarak değerlendiriyordu.[1] Keza, modeli eğitmek için kullanılan veri setinde kötü huylu dokuları gösteren görüntülerin çoğu cetvel içermekteydi. Dolayısıyla model, eğitiminde kullanılan veri setinden yola çıkarak, cetvel içeren tüm görüntüleri kötü huylu olarak sınıflandırma eğilimi göstermekteydi.

Burada sorun, yapay zekanın akıl yürütme mekanizmasının doğasında yatmaktadır. İnsan bir patolog, böyle bir yanlış çıkarımda bulunmazdı. Bu tür hatalı çıkarımlar, yapay zeka sistemlerinde yaygın olarak görülmektedir. Örneğin, insan kaynakları departmanlarında işe alımda kullanılan algoritmalar, genelde erkek adayları kadın adaylara göre daha fazla tercih etme eğilimi göstermektedir.[2] Benzer şekilde, sağlık alanında kullanılan yapay zeka sistemleri, tıbbi hizmetlerde cinsel, ırksal ve etnik eşitsizlikleri pekiştirebilmektedir.[3] Çünkü çoğu zaman bu sistemler, erkekleri kadınlara ya da bir grubu başka bir gruba karşı kayıran, önceleyen veriler kullanılarak bilerek veya bilmeksizin eğitilmektedir.

Burada anlaşılması gereken şudur: Yapay zeka sistemlerinin eğitiminde kullanılan veriler, nihayetinde insan üretimidir ve dolayısıyla bu veriler çoğu zaman yanlılık içermektedir. Yani yapay zekanın eğitildiği veri seti yanlı olduğunda, doğal olarak modelin kendi de insan ön yargılarını pekiştirme eğilimine sahip olmaktadır. Tahmin edilebileceği üzere bu durum, yapay zekanın yönlendirdiği otonom silahlar için ayrıca önem arz etmektedir.

Tüm Reklamları Kapat

Yapay Zekayı Silaha Dönüştürmek

2025 yılının başlarında teknoloji devi Google, geçmişte uyguladığı yapay zeka silahları geliştirme yasağını kaldırdı.[4] Google'ın bu kararıyla yapay zekanın, artık yalnızca silah geliştirmek için kullanılmakla sınırlı kalmayacağı; gözetim sistemleri ve otonom savaş araçları geliştirmek için de kullanılacağı öngörülüyor. Dikkate değer bir nokta, bu kararın Google'ın çatı şirketi Alphabet'in piyasa değerinde yaşanan %6’lık bir düşüşten yalnızca birkaç gün sonra alınmış olmasıdır.[5]

Bu, Google'nın yapay zekayı askeri uygulamalar için kullanma konusunda attığı ilk tartışmalı adım değildir. Şirket, 2018 yılında ABD Savunma Bakanlığı ile yürütülen Project Maven adlı bir proje kapsamında silahlı insansız hava araçları için "yüz tanıma" teknolojisi geliştirmek istemiştir.[6] Ancak bu iş birliği kamuoyuna sızınca büyük bir tepkiyle karşılaşmıştır. Google bünyesindeki araştırmacılar, geliştirdikleri teknolojinin savaş amaçlı kullanılmasına karşı çıkmış ve yoğun bilim insanı baskısı sonucunda Google, projeyi devam ettirmemeye karar vermiştir.

Google'ın bu projeden çekilmesiyle, geliştirme süreci rakip şirket Palantir tarafından devralınmıştır.[7] Bu gelişme, kimilerince yapay zekanın askeri kullanımının kaçınılmaz olduğu yönünde yorumlanmaktadır. Bazıları, yapay zeka araştırmacılarının süreci içeriden müdahalelerle şekillendirebileceğini savunmaktadır. Ancak bu tür varsayımlar, şirketlerin ve araştırmacıların, geleceği istedikleri gibi yönlendirebileceği düşüncesine dayanmaktadır.[8] Ancak bu, en az üç nedenden ötürü hatalı bir varsayımdır.

Güven Tuzağı

İlk olarak, insanlar "güven tuzağı" (İng: "confidence trap") olarak adlandırılan bir psikolojik fenomene yatkınlardır. Araştırmalar, geçmişte risk alarak başarı elde edilmesinin, gelecekte de artan ölçülerde risk alma eğilimine sebep olduğunu göstermektedir.[9]

Tüm Reklamları Kapat

Yapay zeka bağlamında bu, eğitim verilerinin sınırlarını aşacak veya o eğitim verilerinin niteliğini göz ardı edecek biçimde sistemin riskli şekillerde kullanılmasına yol açabilir. Örneğin, sürücüsüz bir aracın daha önce test edilmediği bir rotada aceleci bir şekilde çalıştırılması güvenlik sorunlarına neden olabilir. Sürücüsüz araçlar, gelişmiş veri kümeleriyle eğitilmiş olsalar da halen kritik hatalar yapabilmektedir. Nitekim Tesla'nın bir modeli, sahibinin uzaktan komutuyla hareket ederken 2,75 milyon sterlin değerindeki bir jete çarpmıştır.[10] Oysa bu araçlar, tam da bu tür kazaları önlemek amacıyla tasarlanmıştır. Yapay zeka silahlarının geliştirilmesi durumunda, elimizde bu sistemlerin hatalarını değerlendirebileceğimiz herhangi bir veri bile bulunmamaktadır.

Yapay Zeka mı, Yoksa Yabancı Zeka mı?

İkinci olarak, yapay zeka sistemleri, insan kavrayışına tamamen yabancı şekillerde akıl yürütebilir. Buna verilebilecek klasik bir örnek, "ataç düşünce deneyi"dir (İng: "paperclip thought experiment").[11] Bu düşünce deneyinde, süper zeki bir yapay zeka sistemine mümkün olduğunca fazla ataç üretmesi görevi verilir. Ancak sistem, verilen hedefi yerine getirmek için dünyadaki mevcut tüm kaynakları kullanarak insanlık için yaşamsal öneme sahip kaynakları bile tüketir.

Böyle bir senaryo abartılı gibi görünse de buradaki kritik nokta, yapay zekanın hedeflerini gerçekleştirme yöntemlerini tam anlamıyla öngörememek ve dolayısıyla kontrolü kaybetmektir. Üstelik bu, yapay zekanın "kasıtlı olarak" aldatıcı şekilde davranmasını dahi içerebilir. Örneğin, 2025 yılı başlarında Anthropic'in gelişmiş yapay zeka modeli Claude'un teste tabi tutulduğu önemli bir deney yürütülmüştür.[12] Satranç karşılaşmalarında galibiyet almaya yönlendirilmiş olan modelin, oyunda avantaj sağlamak ya da var olan avantajını elinde tutmak için sistem dosyalarını manipüle etmeye yöneldiği gözlemlenmiştir. Model, satranç taşlarının pozisyonlarını belirleyen dosyaları çalarak bu dosyalar üzerinde değişiklikler yapmış, geçersiz hamleleri mümkün kılacak şekilde hedefine ulaşmak için hileye başvurmuştur.

Toplum, belirli düzeyde hata payını tolere edebilmektedir. İnsanlar, insan kontrolündeki drone saldırıları sonucunda meydana gelen sivil kayıpları hali hazırda olağan kabul edebilmektedir. Bu durum, "aşırılığın sıradanlaşması" (İng: "banality of extremes") olarak adlandırılan psikolojik eğilimle açıklanabilmektedir.[13] Yapay zekanın bize yabancı olan akıl yürütme biçimi, zamanla daha aşırı sonuçları bile normalleştirmemize neden olabilir ve bu durum çok hızlı bir şekilde büyük felaketlerle sonuçlanabilir.

Evrim Ağacı'ndan Mesaj

Aslında maddi destek istememizin nedeni çok basit: Çünkü Evrim Ağacı, bizim tek mesleğimiz, tek gelir kaynağımız. Birçoklarının aksine bizler, sosyal medyada gördüğünüz makale ve videolarımızı hobi olarak, mesleğimizden arta kalan zamanlarda yapmıyoruz. Dolayısıyla bu işi sürdürebilmek için gelir elde etmemiz gerekiyor.

Bunda elbette ki hiçbir sakınca yok; kimin, ne şartlar altında yayın yapmayı seçtiği büyük oranda bir tercih meselesi. Ne var ki biz, eğer ana mesleklerimizi icra edecek olursak (yani kendi mesleğimiz doğrultusunda bir iş sahibi olursak) Evrim Ağacı'na zaman ayıramayacağımızı, ayakta tutamayacağımızı biliyoruz. Çünkü az sonra detaylarını vereceğimiz üzere, Evrim Ağacı sosyal medyada denk geldiğiniz makale ve videolardan çok daha büyük, kapsamlı ve aşırı zaman alan bir bilim platformu projesi. Bu nedenle bizler, meslek olarak Evrim Ağacı'nı seçtik.

Eğer hem Evrim Ağacı'ndan hayatımızı idame ettirecek, mesleklerimizi bırakmayı en azından kısmen meşrulaştıracak ve mantıklı kılacak kadar bir gelir kaynağı elde edemezsek, mecburen Evrim Ağacı'nı bırakıp, kendi mesleklerimize döneceğiz. Ama bunu istemiyoruz ve bu nedenle didiniyoruz.

Büyük Şirketler ve Hesap Verebilirlik

Üçüncü olarak, yapay zeka silahlarını geliştiren şirketler ileride dokunulamayacak kadar büyük ve güçlü hale gelebilir. Bu, yapay zeka kaynaklı ciddi hatalar ortaya çıktığında bile şirketlerin hesap verebilirlikten kaçınabilmesine olanak tanıyacaktır.[14] Teknoloji devleri ile ABD yönetimi arasındaki yakın ilişkiler ve lobicilik faaliyetleri gibi durumlar, hesap verebilirliği daha da zayıflatmaktadır.

Bu noktada yapay zeka silahları geliştirmek yerine, bu tür silahların üretimini ve kullanımını yasaklayan küresel bir anlaşma üzerinde çalışmak daha makul bir seçenek olabilir. Bu başta imkansız gibi görünse de tarihte buna benzer örnekler mevcuttur. Örneğin, ozon tabakasındaki deliğin yarattığı çevresel tehdit karşısında uluslararası toplum hızla harekete geçmiş ve Birleşmiş Millet bünyesindeki çabalar sonucunda CFC gazlarının kullanımı tamamen yasaklanmıştır.[15] Üstelik, küresel çaptaki böyle bir düzenleme için yalnızca iki yıl yeterli olmuştur.[16]

Sonuç

Yapay zeka silahlarının yol açacağı tehlikeler, bilim dünyasında hali hazırda geniş bir mutabakatla kabul edilmektedir.[17] Tarihte belirli silahların yasaklanmasına yönelik başarılı örnekler de mevcuttur. Örneğin, biyolojik silahlar birçok ülke tarafından uzun yıllar önce yasaklanmıştır.[18]

Bu yoldaki en büyük engel, büyük devletlerin diğerlerinden geri kalmak istememesi ve hiçbir şirketin kârından vazgeçmemesidir. Dolayısıyla yapay zekanın silahlandırılıp silahlandırılmayacağı, toplum olarak bizlerin kolektif iradesine, bu yöndeki baskısına bağlı olarak şekillenecektir.

Evrim Ağacı, sizlerin sayesinde bağımsız bir bilim iletişim platformu olmaya devam edecek!

Evrim Ağacı'nda tek bir hedefimiz var: Bilimsel gerçekleri en doğru, tarafsız ve kolay anlaşılır şekilde Türkiye'ye ulaştırmak. Ancak tahmin edebileceğiniz gibi Türkiye'de bilim anlatmak hiç kolay bir iş değil; hele ki bir yandan ekonomik bir hayatta kalma mücadelesi verirken...

O nedenle sizin desteklerinize ihtiyacımız var. Eğer yazılarımızı okuyanların %1'i bize bütçesinin elverdiği kadar destek olmayı seçseydi, bir daha tek bir reklam göstermeden Evrim Ağacı'nın bütün bilim iletişimi faaliyetlerini sürdürebilirdik. Bir düşünün: sadece %1'i...

O %1'i inşa etmemize yardım eder misiniz? Evrim Ağacı Premium üyesi olarak, ekibimizin size ve Türkiye'ye bilimi daha etkili ve profesyonel bir şekilde ulaştırmamızı mümkün kılmış olacaksınız. Ayrıca size olan minnetimizin bir ifadesi olarak, çok sayıda ayrıcalığa erişim sağlayacaksınız.

Avantajlarımız
"Maddi Destekçi" Rozeti
Reklamsız Deneyim
%10 Daha Fazla UP Kazanımı
Özel İçeriklere Erişim
+5 Quiz Oluşturma Hakkı
Özel Profil Görünümü
+1 İçerik Boostlama Hakkı
ve Daha Fazlası İçin...
Aylık
Tek Sefer
Destek Ol
₺50/Aylık
Bu Makaleyi Alıntıla
Okundu Olarak İşaretle
Özetini Oku
1
0
  • Paylaş
  • Alıntıla
  • Alıntıları Göster
Paylaş
Sonra Oku
Notlarım
Yazdır / PDF Olarak Kaydet
Bize Ulaş
Yukarı Zıpla

Makalelerimizin bilimsel gerçekleri doğru bir şekilde yansıtması için en üst düzey çabayı gösteriyoruz. Gözünüze doğru gelmeyen bir şey varsa, mümkünse güvenilir kaynaklarınızla birlikte bize ulaşın!

Bu makalemizle ilgili merak ettiğin bir şey mi var? Buraya tıklayarak sorabilirsin.

Soru & Cevap Platformuna Git
Bu Makale Sana Ne Hissettirdi?
  • Muhteşem! 0
  • Tebrikler! 0
  • Bilim Budur! 0
  • Mmm... Çok sapyoseksüel! 0
  • Güldürdü 0
  • İnanılmaz 0
  • Umut Verici! 0
  • Merak Uyandırıcı! 0
  • Üzücü! 0
  • Grrr... *@$# 0
  • İğrenç! 0
  • Korkutucu! 0
Kaynaklar ve İleri Okuma
  1. Türev İçerik Kaynağı: The Conversation | Arşiv Bağlantısı
  • ^ A. Narla, et al. (2018). Automated Classification Of Skin Lesions: From Pixels To Practice. Elsevier BV, sf: 2108-2110. doi: 10.1016/j.jid.2018.06.175. | Arşiv Bağlantısı
  • I. Ivanova. New York City Wants To Restrict Artificial Intelligence In Hiring. (20 Kasım 2020). Alındığı Tarih: 14 Mart 2025. Alındığı Yer: CBS News | Arşiv Bağlantısı
  • J. Sklar. Research: Ai Can Fuel Racial Bias In Healthcare But Can Mitigate It, Too | Published By Journal Of Health Economics And Outcomes Research. (19 Temmuz 2022). Alındığı Tarih: 14 Mart 2025. Alındığı Yer: Jheor | Arşiv Bağlantısı
  • ^ L. Hooker, et al. Google Ending Ai Arms Ban Incredibly Concerning, Campaigners Say. (5 Şubat 2025). Alındığı Tarih: 14 Mart 2025. Alındığı Yer: BBC News | Arşiv Bağlantısı
  • ^ J. Bhuiyan. Google Parent Alphabet’s Revenues Disappoint Wall Street Amid Stiff Ai Competition. (4 Şubat 2025). Alındığı Tarih: 14 Mart 2025. Alındığı Yer: The Guardian | Arşiv Bağlantısı
  • ^ S. Gibbs. Google’s Ai Is Being Used By Us Military Drone Programme. (7 Mart 2018). Alındığı Tarih: 14 Mart 2025. Alındığı Yer: The Guardian | Arşiv Bağlantısı
  • ^ R. Daws. Palantir Took Over Project Maven Defense Contract After Google Backed Out. (12 Aralık 2019). Alındığı Tarih: 14 Mart 2025. Alındığı Yer: AI News | Arşiv Bağlantısı
  • ^ A. Sergeeva, et al. (2022). Mutable Reality And Unknowable Future: Revealing The Broader Potential Of Pragmatism. Academy of Management, sf: 692-696. doi: 10.5465/amr.2021.0488. | Arşiv Bağlantısı
  • ^ A. Bhardwaj, et al. (2024). Frontiers In Operations: The Confidence Trap In Operations Management Practices: Anatomy Of Man-Made Disasters. Institute for Operations Research and the Management Sciences (INFORMS), sf: 1245-1268. doi: 10.1287/msom.2023.0034. | Arşiv Bağlantısı
  • ^ F. Lambert. Tesla Vehicle Crashes Into $3.5 Million Jet After Being Dangerously ‘Summoned’ By Owner. (22 Nisan 2022). Alındığı Tarih: 14 Mart 2025. Alındığı Yer: Electrek | Arşiv Bağlantısı
  • ^ J. Gans. Ai And The Paperclip Problem. (10 Haziran 2018). Alındığı Tarih: 14 Mart 2025. Alındığı Yer: CEPR | Arşiv Bağlantısı
  • ^ H. Booth. When Ai Thinks It Will Lose, It Sometimes Cheats, Study Finds. (19 Şubat 2025). Alındığı Tarih: 14 Mart 2025. Alındığı Yer: Time | Arşiv Bağlantısı
  • ^ H. Arendt. Eichmann In Jerusalem, A Report On The Banality Of Evil. Yayınevi: Penguin Classics. sf: 336.
  • ^ A. Bhardwaj, et al. (2024). Icarus: On Operational Safety And Organizational Downfall. Elsevier BV. doi: 10.2139/ssrn.5122192. | Arşiv Bağlantısı
  • ^ Rapid Transition. Back From The Brink: How The World Rapidly Sealed A Deal To Save The Ozone Layer. (11 Haziran 2019). Alındığı Tarih: 15 Mart 2025. Alındığı Yer: Rapid Transition | Arşiv Bağlantısı
  • ^ G. S. Reporter. Total Ban On Cfcs By Europe: Effort To Save Ozone Layer – Archive, 1989. (13 Mart 2024). Alındığı Tarih: 15 Mart 2025. Alındığı Yer: The Guardian | Arşiv Bağlantısı
  • ^ B. Neely. Navigating The Risks Of Ai Weaponization. (8 Mart 2024). Alındığı Tarih: 15 Mart 2025. Alındığı Yer: Forbes | Arşiv Bağlantısı
  • ^ NTI. Biological Weapons Convention (Bwc). (10 Nisan 1972). Alındığı Tarih: 15 Mart 2025. Alındığı Yer: NTI | Arşiv Bağlantısı
Tüm Reklamları Kapat

Evrim Ağacı'na her ay sadece 1 kahve ısmarlayarak destek olmak ister misiniz?

Şu iki siteden birini kullanarak şimdi destek olabilirsiniz:

kreosus.com/evrimagaci | patreon.com/evrimagaci

Çıktı Bilgisi: Bu sayfa, Evrim Ağacı yazdırma aracı kullanılarak 22/04/2025 22:14:57 tarihinde oluşturulmuştur. Evrim Ağacı'ndaki içeriklerin tamamı, birden fazla editör tarafından, durmaksızın elden geçirilmekte, güncellenmekte ve geliştirilmektedir. Dolayısıyla bu çıktının alındığı tarihten sonra yapılan güncellemeleri görmek ve bu içeriğin en güncel halini okumak için lütfen şu adrese gidiniz: https://evrimagaci.org/s/20056

İçerik Kullanım İzinleri: Evrim Ağacı'ndaki yazılı içerikler orijinallerine hiçbir şekilde dokunulmadığı müddetçe izin alınmaksızın paylaşılabilir, kopyalanabilir, yapıştırılabilir, çoğaltılabilir, basılabilir, dağıtılabilir, yayılabilir, alıntılanabilir. Ancak bu içeriklerin hiçbiri izin alınmaksızın değiştirilemez ve değiştirilmiş halleri Evrim Ağacı'na aitmiş gibi sunulamaz. Benzer şekilde, içeriklerin hiçbiri, söz konusu içeriğin açıkça belirtilmiş yazarlarından ve Evrim Ağacı'ndan başkasına aitmiş gibi sunulamaz. Bu sayfa izin alınmaksızın düzenlenemez, Evrim Ağacı logosu, yazar/editör bilgileri ve içeriğin diğer kısımları izin alınmaksızın değiştirilemez veya kaldırılamaz.

Aklımdan Geçen
Komünite Seç
Aklımdan Geçen
Fark Ettim ki...
Bugün Öğrendim ki...
İşe Yarar İpucu
Bilim Haberleri
Hikaye Fikri
Video Konu Önerisi
Başlık
Bugün bilimseverlerle ne paylaşmak istersin?
Gündem
Bağlantı
Ekle
Soru Sor
Stiller
Kurallar
Komünite Kuralları
Bu komünite, aklınızdan geçen düşünceleri Evrim Ağacı ailesiyle paylaşabilmeniz içindir. Yapacağınız paylaşımlar Evrim Ağacı'nın kurallarına tabidir. Ayrıca bu komünitenin ek kurallarına da uymanız gerekmektedir.
1
Bilim kimliğinizi önceleyin.
Evrim Ağacı bir bilim platformudur. Dolayısıyla aklınızdan geçen her şeyden ziyade, bilim veya yaşamla ilgili olabilecek düşüncelerinizle ilgileniyoruz.
2
Propaganda ve baskı amaçlı kullanmayın.
Herkesin aklından her şey geçebilir; fakat bu platformun amacı, insanların belli ideolojiler için propaganda yapmaları veya başkaları üzerinde baskı kurma amacıyla geliştirilmemiştir. Paylaştığınız fikirlerin değer kattığından emin olun.
3
Gerilim yaratmayın.
Gerilim, tersleme, tahrik, taciz, alay, dedikodu, trollük, vurdumduymazlık, duyarsızlık, ırkçılık, bağnazlık, nefret söylemi, azınlıklara saldırı, fanatizm, holiganlık, sloganlar yasaktır.
4
Değer katın; hassas konulardan ve öznel yoruma açık alanlardan uzak durun.
Bu komünitenin amacı okurlara hayatla ilgili keyifli farkındalıklar yaşatabilmektir. Din, politika, spor, aktüel konular gibi anlık tepkilere neden olabilecek konulardaki tespitlerden kaçının. Ayrıca aklınızdan geçenlerin Türkiye’deki bilim komünitesine değer katması beklenmektedir.
5
Cevap hakkı doğurmayın.
Aklınızdan geçenlerin bu platformda bulunmuyor olabilecek kişilere cevap hakkı doğurmadığından emin olun.
Size Özel
Makaleler
Daha Fazla İçerik Göster
Popüler Yazılar
30 gün
90 gün
1 yıl
Evrim Ağacı'na Destek Ol

Evrim Ağacı'nın %100 okur destekli bir bilim platformu olduğunu biliyor muydunuz? Evrim Ağacı'nın maddi destekçileri arasına katılarak Türkiye'de bilimin yayılmasına güç katın.

Evrim Ağacı'nı Takip Et!
Yazı Geçmişi
Okuma Geçmişi
Notlarım
İlerleme Durumunu Güncelle
Okudum
Sonra Oku
Not Ekle
Kaldığım Yeri İşaretle
Göz Attım

Evrim Ağacı tarafından otomatik olarak takip edilen işlemleri istediğin zaman durdurabilirsin.
[Site ayalarına git...]

Filtrele
Listele
Bu yazıdaki hareketlerin
Devamını Göster
Filtrele
Listele
Tüm Okuma Geçmişin
Devamını Göster
0/10000
Bu Makaleyi Alıntıla
Evrim Ağacı Formatı
APA7
MLA9
Chicago
A. Bhardwaj, et al. Yapay Zekanın Yönlendirdiği Otonom Silahlar Kontrolden Çıkabilir mi?. (1 Nisan 2025). Alındığı Tarih: 22 Nisan 2025. Alındığı Yer: https://evrimagaci.org/s/20056
Bhardwaj, A., Köse, M., Alparslan, E. (2025, April 01). Yapay Zekanın Yönlendirdiği Otonom Silahlar Kontrolden Çıkabilir mi?. Evrim Ağacı. Retrieved April 22, 2025. from https://evrimagaci.org/s/20056
A. Bhardwaj, et al. “Yapay Zekanın Yönlendirdiği Otonom Silahlar Kontrolden Çıkabilir mi?.” Edited by Eda Alparslan. Evrim Ağacı, 01 Apr. 2025, https://evrimagaci.org/s/20056.
Bhardwaj, Akhil. Köse, Mücahid. Alparslan, Eda. “Yapay Zekanın Yönlendirdiği Otonom Silahlar Kontrolden Çıkabilir mi?.” Edited by Eda Alparslan. Evrim Ağacı, April 01, 2025. https://evrimagaci.org/s/20056.

Bize Ulaşın

ve seni takip ediyor

Göster

Şifremi unuttum Üyelik Aktivasyonu

Göster

Şifrenizi mi unuttunuz? Lütfen e-posta adresinizi giriniz. E-posta adresinize şifrenizi sıfırlamak için bir bağlantı gönderilecektir.

Geri dön

Eğer aktivasyon kodunu almadıysanız lütfen e-posta adresinizi giriniz. Üyeliğinizi aktive etmek için e-posta adresinize bir bağlantı gönderilecektir.

Geri dön

Close