Keşfedin, Öğrenin ve Paylaşın
Evrim Ağacı'nda Aradığın Her Şeye Ulaşabilirsin!
Paylaşım Yap
Tüm Reklamları Kapat
Tüm Reklamları Kapat

Yapay Zekanın Yönlendirdiği Otonom Silahlar Kontrolden Çıkabilir mi?

5 dakika
53
Yapay Zekanın Yönlendirdiği Otonom Silahlar Kontrolden Çıkabilir mi? Valerie Morris
Tüm Reklamları Kapat

Cilt kanserini tespit etmek amacıyla geliştirilen bir yapay zeka modeli üzerine çalışan araştırmacılar, ilk aşamada modelin son derece başarılı olduğunu gözlemlediler. Ancak daha ileri analizlerde modelin beklenmedik bir hata yaptığını fark ettiler: Model, kötü huylu dokuların belirlenmesi için eğitiminde kullanılan veri setindeki görüntülerde yer alan cetvelleri ayırt edici bir özellik olarak değerlendiriyordu.[1] Bunun sonucunda model, cetvel içeren tüm görüntüleri kötü huylu olarak sınıflandırma eğilimi göstermekteydi. Buradaki sorun, hatalı akıl yürütme mekanizmasının doğasında yatıyordu. Keza insan bir patolog, böyle bir yanlış çıkarımda bulunmazdı.

Bu tür hatalı çıkarımlar, yapay zeka sistemlerinde yaygın olarak görülmektedir. Örneğin, insan kaynakları departmanlarında kullanılan algoritmalar, çoğunlukla erkekleri kayıran insanların yaptığı işe alımların verileriyle eğitildiklerinden dolayı erkek adayları daha fazla tercih etme eğilimi göstermektedir.[2] Benzer şekilde, sağlık alanında kullanılan yapay zeka sistemleri, tıbbi hizmetlerde ırksal ve etnik eşitsizlikleri pekiştirebilmektedir.[3]

Yapay Zekayı Silaha Dönüştürmek

2025 yılının başlarında teknoloji devi Google, geçmişte uyguladığı yapay zeka silahları geliştirme yasağını kaldırdı.[4] Bu kararın yapay zekayı yalnızca silah geliştirmek için kullanmakla sınırlı kalmayacağı, gözetim sistemleri ve otonom savaş araçları geliştirmede de geniş kapsamlı etkilerinin olacağı öngörülüyor. Dikkate değer bir nokta, bu kararın Google'ın çatı şirketi Alphabet'in piyasa değerinde yaşanan %6’lık bir düşüşten yalnızca birkaç gün sonra alınmış olmasıdır.[5]

Tüm Reklamları Kapat

Bu, Google'nın yapay zekayı askeri uygulamalar için kullanma konusunda attığı ilk tartışmalı adım değildir. Şirket, 2018 yılında ABD Savunma Bakanlığı ile yürütülen Project Maven adlı bir proje kapsamında silahlı insansız hava araçları için yüz tanıma teknolojisi geliştirmek istemiştir.[6] Ancak bu iş birliği kamuoyuna sızınca büyük bir tepkiyle karşılaşmıştır. Google bünyesindeki araştırmacılar, teknolojilerinin savaş amaçlı kullanılmasına karşı çıkmış ve yoğun bilim insanı baskısı sonucunda Google, projeyi devam ettirmemeye karar vermiştir.

Google'ın bu projeden çekilmesiyle, geliştirme süreci rakip şirket Palantir tarafından devralınmıştır.[7] Bu gelişme, kimilerince yapay zekanın askeri kullanımının kaçınılmaz olduğu yönünde yorumlanmaktadır. Bazıları, yapay zeka araştırmacılarının süreci içeriden müdahalelerle şekillendirebileceğini savunmaktadır. Ancak bu tür varsayımlar, şirketlerin ve araştırmacıların geleceği istedikleri gibi yönlendirebileceği düşüncesine dayanmaktadır.[8] Ancak bu, en az üç nedenden ötürü hatalı bir varsayımdır.

Güven Tuzağı

İlk olarak, insanlar "güven tuzağı" (İng: "confidence trap") olarak adlandırılan bir psikolojik fenomene yatkındır. Araştırmalar, geçmişte risk alarak başarı elde edenlerin, gelecekte de artan ölçülerde risk alma eğiliminde olduğunu göstermektedir.[9]

Yapay zeka bağlamında bu, bir algoritmanın eğitim verilerinin sınırlarını aşarak riskli şekillerde kullanılmasına yol açabilecektir. Örneğin, sürücüsüz bir aracın daha önce test edilmediği bir rotada çalıştırılması güvenlik sorunlarına neden olabilir. Sürücüsüz araçlar, gelişmiş veri kümeleriyle eğitilmiş olsalar da halen kritik hatalar yapabilmektedir. Nitekim Tesla'nın bir modeli, sahibinin uzaktan komutuyla hareket ederken 2,75 milyon sterlin değerindeki bir jete çarpmıştır.[10] Oysa bu araçlar, tam da bu tür kazaları önlemek amacıyla tasarlanmıştır. Yapay zeka silahlarının geliştirilmesi durumunda, elimizde bu sistemlerin hatalarını değerlendirebileceğimiz herhangi bir veri bile bulunmamaktadır.

Tüm Reklamları Kapat

Yapay Zeka mı, Yoksa Yabancı Zeka mı?

İkinci olarak, yapay zeka sistemleri, insan kavrayışına tamamen yabancı şekillerde akıl yürütebilir. Buna verilebilecek klasik bir örnek, "ataç düşünce deneyi"dir (İng: "paperclip thought experiment").[11] Bu düşünce deneyinde, süper zeki bir yapay zeka sistemine mümkün olduğunca fazla ataç üretmesi görevi verilir. Ancak sistem, verilen hedefi yerine getirmek için mevcut tüm kaynakları kullanarak insanlık için yaşamsal öneme sahip kaynakları bile tüketebilir.

Bu senaryo abartılı gibi görünse de buradaki kritik nokta, yapay zekanın hedeflerini gerçekleştirme yöntemlerini tam anlamıyla öngörememek ve dolayısıyla kontrolü kaybetmektir. Üstelik bu, yapay zekanın "kasıtlı olarak" hile yapmasını dahi içerebilir. Örneğin, 2025 yılı başlarında Anthropic'in gelişmiş yapay zeka modeli Claude'un teste tabi tutulduğu önemli bir deney yürütülmüştür.[12] Satranç karşılaşmalarında galibiyet almaya yönlendirilmiş olan modelin, oyunda avantaj sağlamak ya da var olan avantajını elinde tutmak için sistem dosyalarını manipüle etmeye yöneldiği gözlemlenmiştir. Model, satranç taşlarının pozisyonlarını belirleyen dosyaları çalarak bu dosyalar üzerinde değişiklikler yapmış, geçersiz hamleleri mümkün kılacak şekilde hile yapmıştır.

Toplum olarak belirli düzeyde hata payını tolere edebiliriz. İnsanlar, insan kontrolündeki drone saldırıları sonucunda meydana gelen sivil kayıpları hali hazırda olağan kabul edebilmektedir. Bu durum, "aşırılığın sıradanlaşması" (İng: "banality of extremes") olarak adlandırılan psikolojik eğilimle açıklanabilmektedir.[13] Yapay zekanın bize yabancı olan akıl yürütme biçimi, zamanla daha aşırı sonuçları bile normalleştirmemize neden olabilir.

Büyük Şirketler ve Hesap Verebilirlik

Üçüncü olarak, yapay zeka silahlarını geliştiren şirketler ileride batmayacak kadar büyük ve güçlü hale gelebilir. Bu, yapay zeka kaynaklı ciddi hatalar ortaya çıktığında bile şirketlerin hesap verebilirlikten kaçınabilmesine olanak tanıyacaktır.[14] Teknoloji devleri ile ABD yönetimi arasındaki yakın ilişkiler ve lobicilik faaliyetleri gibi durumlar hesap verebilirliği daha da zayıflatmaktadır.

Evrim Ağacı'ndan Mesaj

Evrim Ağacı'nın çalışmalarına Kreosus, Patreon veya YouTube üzerinden maddi destekte bulunarak hem Türkiye'de bilim anlatıcılığının gelişmesine katkı sağlayabilirsiniz, hem de site ve uygulamamızı reklamsız olarak deneyimleyebilirsiniz. Reklamsız deneyim, sitemizin/uygulamamızın çeşitli kısımlarda gösterilen Google reklamlarını ve destek çağrılarını görmediğiniz, %100 reklamsız ve çok daha temiz bir site deneyimi sunmaktadır.

Kreosus

Kreosus'ta her 50₺'lik destek, 1 aylık reklamsız deneyime karşılık geliyor. Bu sayede, tek seferlik destekçilerimiz de, aylık destekçilerimiz de toplam destekleriyle doğru orantılı bir süre boyunca reklamsız deneyim elde edebiliyorlar.

Kreosus destekçilerimizin reklamsız deneyimi, destek olmaya başladıkları anda devreye girmektedir ve ek bir işleme gerek yoktur.

Patreon

Patreon destekçilerimiz, destek miktarından bağımsız olarak, Evrim Ağacı'na destek oldukları süre boyunca reklamsız deneyime erişmeyi sürdürebiliyorlar.

Patreon destekçilerimizin Patreon ile ilişkili e-posta hesapları, Evrim Ağacı'ndaki üyelik e-postaları ile birebir aynı olmalıdır. Patreon destekçilerimizin reklamsız deneyiminin devreye girmesi 24 saat alabilmektedir.

YouTube

YouTube destekçilerimizin hepsi otomatik olarak reklamsız deneyime şimdilik erişemiyorlar ve şu anda, YouTube üzerinden her destek seviyesine reklamsız deneyim ayrıcalığını sunamamaktayız. YouTube Destek Sistemi üzerinde sunulan farklı seviyelerin açıklamalarını okuyarak, hangi ayrıcalıklara erişebileceğinizi öğrenebilirsiniz.

Eğer seçtiğiniz seviye reklamsız deneyim ayrıcalığı sunuyorsa, destek olduktan sonra YouTube tarafından gösterilecek olan bağlantıdaki formu doldurarak reklamsız deneyime erişebilirsiniz. YouTube destekçilerimizin reklamsız deneyiminin devreye girmesi, formu doldurduktan sonra 24-72 saat alabilmektedir.

Diğer Platformlar

Bu 3 platform haricinde destek olan destekçilerimize ne yazık ki reklamsız deneyim ayrıcalığını sunamamaktayız. Destekleriniz sayesinde sistemlerimizi geliştirmeyi sürdürüyoruz ve umuyoruz bu ayrıcalıkları zamanla genişletebileceğiz.

Giriş yapmayı unutmayın!

Reklamsız deneyim için, maddi desteğiniz ile ilişkilendirilmiş olan Evrim Ağacı hesabınıza yapmanız gerekmektedir. Giriş yapmadığınız takdirde reklamları görmeye devam edeceksinizdir.

Yapay zeka silahları geliştirmek yerine, bu tür silahların üretimini ve kullanımını yasaklayan küresel bir anlaşma üzerinde çalışmak daha makul bir seçenek olabilir. Bu imkansız gibi görünse de tarihte benzer örnekler mevcuttur. Örneğin, ozon tabakasındaki deliğin yarattığı çevresel tehdit karşısında uluslararası toplum hızla harekete geçmiş ve çabalar sonucunda CFC gazlarının kullanımı tamamen yasaklanmıştır.[15] Küresel çapta bir düzenleme için yalnızca iki yıl yeterli olmuştur.[16]

Sonuç

Yapay zeka silahlarının yol açacağı tehlikeler, bilim dünyasında hali hazırda geniş bir mutabakatla kabul edilmektedir.[17] Tarihte belirli silahların yasaklanmasına yönelik başarılı örnekler de mevcuttur. Örneğin, biyolojik silahlar birçok ülke tarafından uzun yıllar önce yasaklanmıştır.[18]

Bu yoldaki en büyük engel, büyük devletlerin diğerlerinden geri kalmak istememesi ve hiçbir şirketin kârından vazgeçmemesidir. Dolayısıyla yapay zekanın silahlandırılıp silahlandırılmayacağı, toplum olarak bizlerin kolektif iradesine bağlı olarak şekillenecektir.

Evrim Ağacı, sizlerin sayesinde bağımsız bir bilim iletişim platformu olmaya devam edecek!

Evrim Ağacı'nda tek bir hedefimiz var: Bilimsel gerçekleri en doğru, tarafsız ve kolay anlaşılır şekilde Türkiye'ye ulaştırmak. Ancak tahmin edebileceğiniz gibi Türkiye'de bilim anlatmak hiç kolay bir iş değil; hele ki bir yandan ekonomik bir hayatta kalma mücadelesi verirken...

O nedenle sizin desteklerinize ihtiyacımız var. Eğer yazılarımızı okuyanların %1'i bize bütçesinin elverdiği kadar destek olmayı seçseydi, bir daha tek bir reklam göstermeden Evrim Ağacı'nın bütün bilim iletişimi faaliyetlerini sürdürebilirdik. Bir düşünün: sadece %1'i...

O %1'i inşa etmemize yardım eder misiniz? Evrim Ağacı Premium üyesi olarak, ekibimizin size ve Türkiye'ye bilimi daha etkili ve profesyonel bir şekilde ulaştırmamızı mümkün kılmış olacaksınız. Ayrıca size olan minnetimizin bir ifadesi olarak, çok sayıda ayrıcalığa erişim sağlayacaksınız.

Avantajlarımız
"Maddi Destekçi" Rozeti
Reklamsız Deneyim
%10 Daha Fazla UP Kazanımı
Özel İçeriklere Erişim
+5 Quiz Oluşturma Hakkı
Özel Profil Görünümü
+1 İçerik Boostlama Hakkı
ve Daha Fazlası İçin...
Aylık
Tek Sefer
Destek Ol
₺50/Aylık
Bu Makaleyi Alıntıla
Okundu Olarak İşaretle
Özetini Oku
1
0
  • Paylaş
  • Alıntıla
  • Alıntıları Göster
Paylaş
Sonra Oku
Notlarım
Yazdır / PDF Olarak Kaydet
Bize Ulaş
Yukarı Zıpla

Makalelerimizin bilimsel gerçekleri doğru bir şekilde yansıtması için en üst düzey çabayı gösteriyoruz. Gözünüze doğru gelmeyen bir şey varsa, mümkünse güvenilir kaynaklarınızla birlikte bize ulaşın!

Bu makalemizle ilgili merak ettiğin bir şey mi var? Buraya tıklayarak sorabilirsin.

Soru & Cevap Platformuna Git
Bu Makale Sana Ne Hissettirdi?
  • Muhteşem! 0
  • Tebrikler! 0
  • Bilim Budur! 0
  • Mmm... Çok sapyoseksüel! 0
  • Güldürdü 0
  • İnanılmaz 0
  • Umut Verici! 0
  • Merak Uyandırıcı! 0
  • Üzücü! 0
  • Grrr... *@$# 0
  • İğrenç! 0
  • Korkutucu! 0
Kaynaklar ve İleri Okuma
  1. Türev İçerik Kaynağı: The Conversation | Arşiv Bağlantısı
  • ^ A. Narla, et al. (2018). Automated Classification Of Skin Lesions: From Pixels To Practice. Elsevier BV, sf: 2108-2110. doi: 10.1016/j.jid.2018.06.175. | Arşiv Bağlantısı
  • ^ I. Ivanova. New York City Wants To Restrict Artificial Intelligence In Hiring. (20 Kasım 2020). Alındığı Tarih: 14 Mart 2025. Alındığı Yer: CBS News | Arşiv Bağlantısı
  • ^ J. Sklar. Research: Ai Can Fuel Racial Bias In Healthcare But Can Mitigate It, Too | Published By Journal Of Health Economics And Outcomes Research. (19 Temmuz 2022). Alındığı Tarih: 14 Mart 2025. Alındığı Yer: Jheor | Arşiv Bağlantısı
  • ^ L. Hooker, et al. Google Ending Ai Arms Ban Incredibly Concerning, Campaigners Say. (5 Şubat 2025). Alındığı Tarih: 14 Mart 2025. Alındığı Yer: BBC News | Arşiv Bağlantısı
  • ^ J. Bhuiyan. Google Parent Alphabet’s Revenues Disappoint Wall Street Amid Stiff Ai Competition. (4 Şubat 2025). Alındığı Tarih: 14 Mart 2025. Alındığı Yer: The Guardian | Arşiv Bağlantısı
  • ^ S. Gibbs. Google’s Ai Is Being Used By Us Military Drone Programme. (7 Mart 2018). Alındığı Tarih: 14 Mart 2025. Alındığı Yer: The Guardian | Arşiv Bağlantısı
  • ^ R. Daws. Palantir Took Over Project Maven Defense Contract After Google Backed Out. (12 Aralık 2019). Alındığı Tarih: 14 Mart 2025. Alındığı Yer: AI News | Arşiv Bağlantısı
  • ^ A. Sergeeva, et al. (2022). Mutable Reality And Unknowable Future: Revealing The Broader Potential Of Pragmatism. Academy of Management, sf: 692-696. doi: 10.5465/amr.2021.0488. | Arşiv Bağlantısı
  • ^ A. Bhardwaj, et al. (2024). Frontiers In Operations: The Confidence Trap In Operations Management Practices: Anatomy Of Man-Made Disasters. Institute for Operations Research and the Management Sciences (INFORMS), sf: 1245-1268. doi: 10.1287/msom.2023.0034. | Arşiv Bağlantısı
  • ^ F. Lambert. Tesla Vehicle Crashes Into $3.5 Million Jet After Being Dangerously ‘Summoned’ By Owner. (22 Nisan 2022). Alındığı Tarih: 14 Mart 2025. Alındığı Yer: Electrek | Arşiv Bağlantısı
  • ^ J. Gans. Ai And The Paperclip Problem. (10 Haziran 2018). Alındığı Tarih: 14 Mart 2025. Alındığı Yer: CEPR | Arşiv Bağlantısı
  • ^ H. Booth. When Ai Thinks It Will Lose, It Sometimes Cheats, Study Finds. (19 Şubat 2025). Alındığı Tarih: 14 Mart 2025. Alındığı Yer: Time | Arşiv Bağlantısı
  • ^ H. Arendt. Eichmann In Jerusalem, A Report On The Banality Of Evil. Yayınevi: Penguin Classics. sf: 336.
  • ^ A. Bhardwaj, et al. (2024). Icarus: On Operational Safety And Organizational Downfall. Elsevier BV. doi: 10.2139/ssrn.5122192. | Arşiv Bağlantısı
  • ^ Rapid Transition. Back From The Brink: How The World Rapidly Sealed A Deal To Save The Ozone Layer. (11 Haziran 2019). Alındığı Tarih: 15 Mart 2025. Alındığı Yer: Rapid Transition | Arşiv Bağlantısı
  • ^ G. S. Reporter. Total Ban On Cfcs By Europe: Effort To Save Ozone Layer – Archive, 1989. (13 Mart 2024). Alındığı Tarih: 15 Mart 2025. Alındığı Yer: The Guardian | Arşiv Bağlantısı
  • ^ B. Neely. Navigating The Risks Of Ai Weaponization. (8 Mart 2024). Alındığı Tarih: 15 Mart 2025. Alındığı Yer: Forbes | Arşiv Bağlantısı
  • ^ NTI. Biological Weapons Convention (Bwc). (10 Nisan 1972). Alındığı Tarih: 15 Mart 2025. Alındığı Yer: NTI | Arşiv Bağlantısı
Tüm Reklamları Kapat

Evrim Ağacı'na her ay sadece 1 kahve ısmarlayarak destek olmak ister misiniz?

Şu iki siteden birini kullanarak şimdi destek olabilirsiniz:

kreosus.com/evrimagaci | patreon.com/evrimagaci

Çıktı Bilgisi: Bu sayfa, Evrim Ağacı yazdırma aracı kullanılarak 02/04/2025 20:19:29 tarihinde oluşturulmuştur. Evrim Ağacı'ndaki içeriklerin tamamı, birden fazla editör tarafından, durmaksızın elden geçirilmekte, güncellenmekte ve geliştirilmektedir. Dolayısıyla bu çıktının alındığı tarihten sonra yapılan güncellemeleri görmek ve bu içeriğin en güncel halini okumak için lütfen şu adrese gidiniz: https://evrimagaci.org/s/20056

İçerik Kullanım İzinleri: Evrim Ağacı'ndaki yazılı içerikler orijinallerine hiçbir şekilde dokunulmadığı müddetçe izin alınmaksızın paylaşılabilir, kopyalanabilir, yapıştırılabilir, çoğaltılabilir, basılabilir, dağıtılabilir, yayılabilir, alıntılanabilir. Ancak bu içeriklerin hiçbiri izin alınmaksızın değiştirilemez ve değiştirilmiş halleri Evrim Ağacı'na aitmiş gibi sunulamaz. Benzer şekilde, içeriklerin hiçbiri, söz konusu içeriğin açıkça belirtilmiş yazarlarından ve Evrim Ağacı'ndan başkasına aitmiş gibi sunulamaz. Bu sayfa izin alınmaksızın düzenlenemez, Evrim Ağacı logosu, yazar/editör bilgileri ve içeriğin diğer kısımları izin alınmaksızın değiştirilemez veya kaldırılamaz.

Tüm Reklamları Kapat
Aklımdan Geçen
Komünite Seç
Aklımdan Geçen
Fark Ettim ki...
Bugün Öğrendim ki...
İşe Yarar İpucu
Bilim Haberleri
Hikaye Fikri
Video Konu Önerisi
Başlık
Bugün bilimseverlerle ne paylaşmak istersin?
Gündem
Bağlantı
Ekle
Soru Sor
Stiller
Kurallar
Komünite Kuralları
Bu komünite, aklınızdan geçen düşünceleri Evrim Ağacı ailesiyle paylaşabilmeniz içindir. Yapacağınız paylaşımlar Evrim Ağacı'nın kurallarına tabidir. Ayrıca bu komünitenin ek kurallarına da uymanız gerekmektedir.
1
Bilim kimliğinizi önceleyin.
Evrim Ağacı bir bilim platformudur. Dolayısıyla aklınızdan geçen her şeyden ziyade, bilim veya yaşamla ilgili olabilecek düşüncelerinizle ilgileniyoruz.
2
Propaganda ve baskı amaçlı kullanmayın.
Herkesin aklından her şey geçebilir; fakat bu platformun amacı, insanların belli ideolojiler için propaganda yapmaları veya başkaları üzerinde baskı kurma amacıyla geliştirilmemiştir. Paylaştığınız fikirlerin değer kattığından emin olun.
3
Gerilim yaratmayın.
Gerilim, tersleme, tahrik, taciz, alay, dedikodu, trollük, vurdumduymazlık, duyarsızlık, ırkçılık, bağnazlık, nefret söylemi, azınlıklara saldırı, fanatizm, holiganlık, sloganlar yasaktır.
4
Değer katın; hassas konulardan ve öznel yoruma açık alanlardan uzak durun.
Bu komünitenin amacı okurlara hayatla ilgili keyifli farkındalıklar yaşatabilmektir. Din, politika, spor, aktüel konular gibi anlık tepkilere neden olabilecek konulardaki tespitlerden kaçının. Ayrıca aklınızdan geçenlerin Türkiye’deki bilim komünitesine değer katması beklenmektedir.
5
Cevap hakkı doğurmayın.
Aklınızdan geçenlerin bu platformda bulunmuyor olabilecek kişilere cevap hakkı doğurmadığından emin olun.
Size Özel
Makaleler
Daha Fazla İçerik Göster
Popüler Yazılar
30 gün
90 gün
1 yıl
Evrim Ağacı'na Destek Ol

Evrim Ağacı'nın %100 okur destekli bir bilim platformu olduğunu biliyor muydunuz? Evrim Ağacı'nın maddi destekçileri arasına katılarak Türkiye'de bilimin yayılmasına güç katın.

Evrim Ağacı'nı Takip Et!
Yazı Geçmişi
Okuma Geçmişi
Notlarım
İlerleme Durumunu Güncelle
Okudum
Sonra Oku
Not Ekle
Kaldığım Yeri İşaretle
Göz Attım

Evrim Ağacı tarafından otomatik olarak takip edilen işlemleri istediğin zaman durdurabilirsin.
[Site ayalarına git...]

Filtrele
Listele
Bu yazıdaki hareketlerin
Devamını Göster
Filtrele
Listele
Tüm Okuma Geçmişin
Devamını Göster
0/10000
Bu Makaleyi Alıntıla
Evrim Ağacı Formatı
APA7
MLA9
Chicago
A. Bhardwaj, et al. Yapay Zekanın Yönlendirdiği Otonom Silahlar Kontrolden Çıkabilir mi?. (31 Mart 2025). Alındığı Tarih: 2 Nisan 2025. Alındığı Yer: https://evrimagaci.org/s/20056
Bhardwaj, A., Köse, M., Alparslan, E. (2025, March 31). Yapay Zekanın Yönlendirdiği Otonom Silahlar Kontrolden Çıkabilir mi?. Evrim Ağacı. Retrieved April 02, 2025. from https://evrimagaci.org/s/20056
A. Bhardwaj, et al. “Yapay Zekanın Yönlendirdiği Otonom Silahlar Kontrolden Çıkabilir mi?.” Edited by Eda Alparslan. Evrim Ağacı, 31 Mar. 2025, https://evrimagaci.org/s/20056.
Bhardwaj, Akhil. Köse, Mücahid. Alparslan, Eda. “Yapay Zekanın Yönlendirdiği Otonom Silahlar Kontrolden Çıkabilir mi?.” Edited by Eda Alparslan. Evrim Ağacı, March 31, 2025. https://evrimagaci.org/s/20056.

Bize Ulaşın

ve seni takip ediyor

Göster

Şifremi unuttum Üyelik Aktivasyonu

Göster

Şifrenizi mi unuttunuz? Lütfen e-posta adresinizi giriniz. E-posta adresinize şifrenizi sıfırlamak için bir bağlantı gönderilecektir.

Geri dön

Eğer aktivasyon kodunu almadıysanız lütfen e-posta adresinizi giriniz. Üyeliğinizi aktive etmek için e-posta adresinize bir bağlantı gönderilecektir.

Geri dön

Close