Keşfedin, Öğrenin ve Paylaşın
Evrim Ağacı'nda Aradığın Her Şeye Ulaşabilirsin!
Paylaşım Yap
Tüm Reklamları Kapat
Tüm Reklamları Kapat

Yapay Süper Zekayı Kontrol Etmek İmkansız Olabilir!

3 dakika
3,991
Yapay Süper Zekayı Kontrol Etmek İmkansız Olabilir!
Evrim Ağacı Akademi: Yapay Zeka Güvenliği Yazı Dizisi

Bu yazı, Yapay Zeka Güvenliği yazı dizisinin 2 . yazısıdır. Bu yazı dizisini okumaya, serinin 1. yazısı olan " Yapay Zekâ Nasıl Tehlikeli Olabilir? Yapay Genel Zekâ Güvenliği Neden Çok Önemlidir?" başlıklı makalemizden başlamanızı öneririz.

Yazı dizisi içindeki ilerleyişinizi kaydetmek için veya kayıt olun.

EA Akademi Hakkında Bilgi Al
Tarihi Geçmiş Haber

Bu haber 3 yıl öncesine aittir. Haber güncelliğini yitirmiş olabilir; ancak arşivsel değeri ve bilimsel gelişme/ilerleme anlamındaki önemi dolayısıyla yayında tutulmaktadır. Ayrıca konuyla ilgili gelişmeler yaşandıkça bu içerik de güncellenebilir.

Tüm Reklamları Kapat

Yapay zekanın insanlığı alaşağı etme fikri onlarca yıldır konuşuluyor. Uluslararası bir araştırma ekibi, süper zeki bir yapay zekayı (YZ) kontrol edip edemeyeceğimize dair beklentilerini, 5 Ocak 2021'de Journal of Artificial Intelligence Research'de (JAIR) yayımlanan çalışmalarıyla açıkladılar.[1]

Kısa cevap, Yapay Süper Zeka'yı (YSZ) kontrol etmenin imkansıza çok yakın olacağıdır. İşin püf noktası, insan kavrayışının çok ötesindeki bir süper zekayı kontrol etmenin, analiz edebileceğimiz süper zekanın bir simülasyonunu gerektirmesidir. Fakat eğer süper zekayı anlayamazsak, böyle bir simülasyon yaratmak imkansızdır.

Yeni çalışmanın yazarları, yapay süper zekanın ortaya çıkacağı türden senaryoları belirleyemezsek, "insanlara zarar vermemek" gibi kurallar oluşturulamayacağını söylüyor. Bir bilgisayar sistemi, insan programcıların olanaklarının üzerinde bir seviyede çalışmaya başladığında artık bir sınır konulamaz. Araştırmacılar, makalede şunları yazıyor:

Tüm Reklamları Kapat

Bir süper zeka, tipik olarak "robot etiği" başlığı altında çalışılanlardan temelde farklı bir sorun teşkil eder. Bunun nedeni, süper zekanın çok yönlü olmasıdır. Bundan dolayı kontrol edilebilmesi bir yana, süper zeka, insanlar tarafından anlaşılmaz olan hedeflere ulaşmak için çeşitli kaynakları harekete geçirme potansiyeline sahiptir.

Çalışma ekibinin gerekçesinin bir kısmı, Alan Turing'in 1936'da ortaya koyduğu sonlanma problemine dayanıyor.[2] Sorun, bir bilgisayar programının bir sonuca ve cevaba ulaşıp ulaşmayacağını (ve durup durmayacağını) veya bir tane bulmaya çalışırken sonsuza dek döngüye girip girmeyeceğini bilmeye odaklanır.

Turing'in akıllıca geliştirdiği matematiksel bir analizle kanıtladığı gibi, bazı özel programlar için, hedefe ulaşmak amacıyla yazılabilecek her potansiyel programı bilmemize imkan verecek bir yol bulmak mantıksal olarak imkansızdır. Bu durum bizi, süper zeki bir sistemde, mümkün olan her bilgisayar programını aynı anda hafızasında tutabilecek yapay zekaya geri getiriyor. Örneğin, yapay süper zekanın insanlara herhangi bir şekilde zarar vermesini ve insanlığı yok etmesini engellemek için yazılan herhangi bir program bir sonuca varabilir (veya durabilir) - her iki şekilde de kesinlikle emin olmamız matematiksel olarak imkansızdır, bu da kapsayıcı olmadığı anlamına gelir.

Araştırmacılar, böyle bir makineyi kontrol edebilecek bir algoritma geliştirmenin, bilgi işlemenin sınırları nedeniyle temelde imkansız olacağını buldu. Almanya'daki Max-Planck İnsani Gelişme Enstitüsü'nden bilgisayar bilimcisi Iyad Rahwan, şöyle diyor:

Problemi teorik bilgisayar biliminin temel kurallarına indirgerseniz, bir yapay zekaya dünyayı yok etmemesi komutunu verecek bir algoritmanın yanlışlıkla kendi operasyonlarını durdurabileceği ortaya çıkar. Bu olursa, koruma algoritmasının tehdidi halen analiz edip etmediğini veya zararlı yapay zekayı kontrol altına almak için durup durmadığını bilemezsiniz. Aslında bu, koruma algoritmasını kullanılamaz hale getirir.

Araştırmacılar, makalede şunları yazıyor:

Tüm Reklamları Kapat

Bir süper zekanın, potansiyel olarak dünyanın durumu kadar karmaşık girdi üzerinde evrensel bir Turing makinesi tarafından yürütülebilecek tüm programları içeren bir programı içereceğini varsayarsak, sıkı koruma, teorik (ve pratik olarak) imkansız olan böyle bir programın simülasyonunu gerektirir.

Araştırmacılar, yapay zekaya biraz etik öğretmenin ve dünyayı yok etmemesini söylemenin alternatifinin, süper zekanın yeteneklerini sınırlamak olduğunu söylüyorlar. Örneğin, internetin bazı bölümlerine veya belirli ağlara erişimi kesilebilir. Yeni çalışma bu fikri de reddediyor ve yapay süper zekanın erişimini sınırlayacağını öne sürüyor. Argümana göre, eğer süper zekayı insanların kapsamının dışındaki sorunları çözmek için kullanmayacaksak, o zaman neden yaratalım?

Yapay zeka ile ilerleyeceksek, kontrolümüz dışındaki bir süper zekanın ne zaman geldiğini bile bilemeyebiliriz, anlaşılmazlığı da budur. Bu durum, gittiğimiz yön hakkında bazı ciddi sorular sormaya başlamamız gerektiği anlamına gelmektedir.[3] Max-Planck İnsani Gelişme Enstitüsü'nden bilgisayar bilimcisi Manuel Cebrian şöyle söylüyor:

Dünyayı kontrol eden süper zeki bir makine kulağa bilimkurgu gibi geliyor; ancak insan programcıların, nasıl öğrendiklerini tam olarak anlayamadığı, bazı önemli görevleri bağımsız olarak yerine getirebilen makineler zaten mevcut. Dolayısıyla, bunun bir noktada kontrol edilemez ve insanlık için tehlikeli olup olmayacağı sorusu ortaya çıkmaktadır.

"Teknolojik tekillik (Yapay Genel/Süper Zeka) yakın bir gelecekte gerçekleşebilir mi?" diye merak ediyorsanız, şu içeriğimiz tam size göre: Teknolojik Tekilliğe Ne Zaman Ulaşılacak? Yapay Genel Zeka Ne Kadar Uzakta?

Bu Makaleyi Alıntıla
Okundu Olarak İşaretle
Evrim Ağacı Akademi: Yapay Zeka Güvenliği Yazı Dizisi

Bu yazı, Yapay Zeka Güvenliği yazı dizisinin 2 . yazısıdır. Bu yazı dizisini okumaya, serinin 1. yazısı olan " Yapay Zekâ Nasıl Tehlikeli Olabilir? Yapay Genel Zekâ Güvenliği Neden Çok Önemlidir?" başlıklı makalemizden başlamanızı öneririz.

Yazı dizisi içindeki ilerleyişinizi kaydetmek için veya kayıt olun.

EA Akademi Hakkında Bilgi Al
36
0
  • Paylaş
  • Alıntıla
  • Alıntıları Göster
Paylaş
Sonra Oku
Notlarım
Yazdır / PDF Olarak Kaydet
Bize Ulaş
Yukarı Zıpla

İçeriklerimizin bilimsel gerçekleri doğru bir şekilde yansıtması için en üst düzey çabayı gösteriyoruz. Gözünüze doğru gelmeyen bir şey varsa, mümkünse güvenilir kaynaklarınızla birlikte bize ulaşın!

Bu içeriğimizle ilgili bir sorunuz mu var? Buraya tıklayarak sorabilirsiniz.

Soru & Cevap Platformuna Git
Bu İçerik Size Ne Hissettirdi?
  • Korkutucu! 17
  • Tebrikler! 9
  • Muhteşem! 7
  • Bilim Budur! 4
  • Mmm... Çok sapyoseksüel! 4
  • İnanılmaz 3
  • Merak Uyandırıcı! 2
  • Güldürdü 0
  • Umut Verici! 0
  • Üzücü! 0
  • Grrr... *@$# 0
  • İğrenç! 0
Kaynaklar ve İleri Okuma
  1. Türev İçerik Kaynağı: ScienceAlert | Arşiv Bağlantısı
Tüm Reklamları Kapat

Evrim Ağacı'na her ay sadece 1 kahve ısmarlayarak destek olmak ister misiniz?

Şu iki siteden birini kullanarak şimdi destek olabilirsiniz:

kreosus.com/evrimagaci | patreon.com/evrimagaci

Çıktı Bilgisi: Bu sayfa, Evrim Ağacı yazdırma aracı kullanılarak 18/12/2024 15:11:02 tarihinde oluşturulmuştur. Evrim Ağacı'ndaki içeriklerin tamamı, birden fazla editör tarafından, durmaksızın elden geçirilmekte, güncellenmekte ve geliştirilmektedir. Dolayısıyla bu çıktının alındığı tarihten sonra yapılan güncellemeleri görmek ve bu içeriğin en güncel halini okumak için lütfen şu adrese gidiniz: https://evrimagaci.org/s/9964

İçerik Kullanım İzinleri: Evrim Ağacı'ndaki yazılı içerikler orijinallerine hiçbir şekilde dokunulmadığı müddetçe izin alınmaksızın paylaşılabilir, kopyalanabilir, yapıştırılabilir, çoğaltılabilir, basılabilir, dağıtılabilir, yayılabilir, alıntılanabilir. Ancak bu içeriklerin hiçbiri izin alınmaksızın değiştirilemez ve değiştirilmiş halleri Evrim Ağacı'na aitmiş gibi sunulamaz. Benzer şekilde, içeriklerin hiçbiri, söz konusu içeriğin açıkça belirtilmiş yazarlarından ve Evrim Ağacı'ndan başkasına aitmiş gibi sunulamaz. Bu sayfa izin alınmaksızın düzenlenemez, Evrim Ağacı logosu, yazar/editör bilgileri ve içeriğin diğer kısımları izin alınmaksızın değiştirilemez veya kaldırılamaz.

Tüm Reklamları Kapat
Keşfet
Akış
İçerikler
Gündem
Tercih
Ana Bulaşma Mekanizması
Ölüm
Diş
Normal Doğum
Vejetaryen
Ateş
Kuvvet
Filogenetik
Meyve
Bilgi
Ölümden Sonra Yaşam
Bebek Doğumu
Küresel
Doğa Gözlemleri
Viral Enfeksiyon
Hastalıkların Tedavisi
Demir
Kadın Sağlığı
Böcek Bilimi
Hekim
Araç
Homeostasis
Köpek
Balina
Aklımdan Geçen
Komünite Seç
Aklımdan Geçen
Fark Ettim ki...
Bugün Öğrendim ki...
İşe Yarar İpucu
Bilim Haberleri
Hikaye Fikri
Video Konu Önerisi
Başlık
Kafana takılan neler var?
Gündem
Bağlantı
Ekle
Soru Sor
Stiller
Kurallar
Komünite Kuralları
Bu komünite, aklınızdan geçen düşünceleri Evrim Ağacı ailesiyle paylaşabilmeniz içindir. Yapacağınız paylaşımlar Evrim Ağacı'nın kurallarına tabidir. Ayrıca bu komünitenin ek kurallarına da uymanız gerekmektedir.
1
Bilim kimliğinizi önceleyin.
Evrim Ağacı bir bilim platformudur. Dolayısıyla aklınızdan geçen her şeyden ziyade, bilim veya yaşamla ilgili olabilecek düşüncelerinizle ilgileniyoruz.
2
Propaganda ve baskı amaçlı kullanmayın.
Herkesin aklından her şey geçebilir; fakat bu platformun amacı, insanların belli ideolojiler için propaganda yapmaları veya başkaları üzerinde baskı kurma amacıyla geliştirilmemiştir. Paylaştığınız fikirlerin değer kattığından emin olun.
3
Gerilim yaratmayın.
Gerilim, tersleme, tahrik, taciz, alay, dedikodu, trollük, vurdumduymazlık, duyarsızlık, ırkçılık, bağnazlık, nefret söylemi, azınlıklara saldırı, fanatizm, holiganlık, sloganlar yasaktır.
4
Değer katın; hassas konulardan ve öznel yoruma açık alanlardan uzak durun.
Bu komünitenin amacı okurlara hayatla ilgili keyifli farkındalıklar yaşatabilmektir. Din, politika, spor, aktüel konular gibi anlık tepkilere neden olabilecek konulardaki tespitlerden kaçının. Ayrıca aklınızdan geçenlerin Türkiye’deki bilim komünitesine değer katması beklenmektedir.
5
Cevap hakkı doğurmayın.
Aklınızdan geçenlerin bu platformda bulunmuyor olabilecek kişilere cevap hakkı doğurmadığından emin olun.
Sosyal
Yeniler
Daha Fazla İçerik Göster
Popüler Yazılar
30 gün
90 gün
1 yıl
Evrim Ağacı'na Destek Ol

Evrim Ağacı'nın %100 okur destekli bir bilim platformu olduğunu biliyor muydunuz? Evrim Ağacı'nın maddi destekçileri arasına katılarak Türkiye'de bilimin yayılmasına güç katın.

Evrim Ağacı'nı Takip Et!
Yazı Geçmişi
Okuma Geçmişi
Notlarım
İlerleme Durumunu Güncelle
Okudum
Sonra Oku
Not Ekle
Kaldığım Yeri İşaretle
Göz Attım

Evrim Ağacı tarafından otomatik olarak takip edilen işlemleri istediğin zaman durdurabilirsin.
[Site ayalarına git...]

Filtrele
Listele
Bu yazıdaki hareketlerin
Devamını Göster
Filtrele
Listele
Tüm Okuma Geçmişin
Devamını Göster
0/10000
Bu Makaleyi Alıntıla
Evrim Ağacı Formatı
APA7
MLA9
Chicago
D. Nield, et al. Yapay Süper Zekayı Kontrol Etmek İmkansız Olabilir!. (17 Ocak 2021). Alındığı Tarih: 18 Aralık 2024. Alındığı Yer: https://evrimagaci.org/s/9964
Nield, D., Köse, M., Bakırcı, Ç. M. (2021, January 17). Yapay Süper Zekayı Kontrol Etmek İmkansız Olabilir!. Evrim Ağacı. Retrieved December 18, 2024. from https://evrimagaci.org/s/9964
D. Nield, et al. “Yapay Süper Zekayı Kontrol Etmek İmkansız Olabilir!.” Edited by Çağrı Mert Bakırcı. Evrim Ağacı, 17 Jan. 2021, https://evrimagaci.org/s/9964.
Nield, David. Köse, Mücahid. Bakırcı, Çağrı Mert. “Yapay Süper Zekayı Kontrol Etmek İmkansız Olabilir!.” Edited by Çağrı Mert Bakırcı. Evrim Ağacı, January 17, 2021. https://evrimagaci.org/s/9964.
ve seni takip ediyor

Göster

Şifremi unuttum Üyelik Aktivasyonu

Göster

Şifrenizi mi unuttunuz? Lütfen e-posta adresinizi giriniz. E-posta adresinize şifrenizi sıfırlamak için bir bağlantı gönderilecektir.

Geri dön

Eğer aktivasyon kodunu almadıysanız lütfen e-posta adresinizi giriniz. Üyeliğinizi aktive etmek için e-posta adresinize bir bağlantı gönderilecektir.

Geri dön

Close