Paylaşım Yap
Tüm Reklamları Kapat
Tüm Reklamları Kapat

Yapay Zeka Ölümsüzlüğümüz veya Sonumuz Olabilir!

Yapay Zeka Ölümsüzlüğümüz veya Sonumuz Olabilir! Gregory Bufithis
14 dakika
17,772
Evrim Ağacı Akademi: Yapay Zekaya Giden Yol Yazı Dizisi

Bu yazı, Yapay Zekaya Giden Yol yazı dizisinin 3. yazısıdır. Bu yazı dizisini okumaya, serinin 1. yazısı olan "Süperzeka’ya Giden Yol Çok Yakınımızda!" başlıklı makalemizden başlamanızı öneririz.

Yazı dizisi içindeki ilerleyişinizi kaydetmek için veya kayıt olun.

EA Akademi Hakkında Bilgi Al
Tüm Reklamları Kapat
Elimizde, muhtemelen insanlığın tüm geleceğinin bağlı olduğu, süresi belirsiz ve son derece zor bir problem var.

Nick Bostrom

“Bi' dakika nasıl olabilir ne okuyorum ben anlamıyorum ya neden herkes bundan bahsetmiyor!” serimizin ikinci bölümüne hoş geldiniz.

Tüm Reklamları Kapat

İlk iki kısım oldukça masum başladı, Yapay Dar Zeka'dan, veya YDZ'den (sürüş rotası bulmak veya satranç oynamak gibi, tek bir görevde uzmanlaşan YZ) ve bugün hayatımızın her yerinde nasıl kullanıldığından bahsettik. Sonra YDZ'den Yapay Genel Zeka'ya, veya YGZ'ye (genel olarak en az bir insan kadar akıllı YZ) geçmenin neden zor olduğunu inceledik, ve geçmişte gördüğümüz teknolojinin üstel gelişiminin neden YGZ'nin aslında göründüğü kadar uzak olmayabileceği anlamına geldiğini konuştuk. İlk iki yazımız, makinelerimiz insan seviyesinde zekaya ulaştıklarında hemen şunu yapabilecekleri gerçeğini yüzünüze vurmamla sonlanmıştı:

Kendimizi ekrana bakakalmış, ömrümüzün görmeye yeteceği Yapay Süperzeka, veya YSZ (genel olarak herhangi bir insandan çok daha zeki olan YZ) fikriyle ve bunu düşünürken ne hissetmemiz gerektiğini anlamaya çalışırken bulduk.

Tüm Reklamları Kapat

Konuya dalmadan önce, bir makinenin süperzeki olması ne anlama gelir hatırlayalım.

Hız süperzekası ve kalite süperzekası arasındaki fark, önemli bir nokta. Genellikle birisi süper-akıllı bir bilgisayar düşündüğünde aklına gelen ilk şey bir insan kadar zeki olduğu, ama çok çok daha hızlı düşünebildiği — bir insan gibi düşünebilen ama bunu bir milyon kat daha hızlı yapan, yani bir insanın on yılda çözeceği bir şeyi beş dakikada çözebilen bir makine hayal ediyorlar.

Kulağa etkileyici geliyor ve doğru da, YSZ herhangi bir insandan çok daha hızlı düşünebilir — ama asıl ayırt edici özelliği, zeka kalitesindeki avantajı olurdu. Bu da tamamen farklı bir şey. İnsanları zeka olarak şempanzelerden daha üstün kılan şey düşünme hızındaki fark değil — insan beyninin kompleks dilsel ifadelere veya uzun vadeli planlamaya veya soyut akıl yürütmeye imkan veren kavramsal modüller bulundurması. Bir şempanzenin beynini bin kat hızlandırmak onu bizim seviyemize getirmezdi — on yıl sürse de özel bir alet takımı kullanarak karmaşık bir modeli bir araya getirmeyi öğrenemezdi. Bir insan bunu birkaç saat içinde başarabilir. İnsanlarda, bir şempanzenin ne kadar denerse denesin asla sahip olamayacağı dünyalar dolusu kavramsal fonksiyon bulunuyor.

Evrim Ağacı'ndan Mesaj

Ama olay yalnızca bir şempanzenin bizim yapabildiklerimizi yapamaması değil, beyninin bu şeylerin varlığını kavrayamıyor olması — bir şempanze, bir insanı ve bir gökdeleni tanıyabilir, ama gökdelenin insanlar tarafından yapıldığını asla anlayamayacaktır. Onun dünyasında o kadar büyük bir şey doğanın bir parçasıdır, nokta. Ve gökdelen inşa etmeyi geçtim, herhangi birinin bir gökdelen inşa edebileceğini anlamak bile onu aşar. İşte bu, zeka kalitesindeki ufak bir farkın sonucu.

Ve bugün bahsetmekte olduğumuz zeka aralığında, veyahut biyolojik canlılar arasındaki çok daha küçük aralıklarda, şempanze-insan arasındaki zeka kalitesi farkı ufacık kalıyor. Daha önceki bir yazımda, biyolojik bilişsel kapasiteyi bir merdiven kullanarak betimlemiştim:

Süperzeki bir makinenin ne kadar büyük bir olay olacağını anlayabilmek için, insanlardan iki adım yukarıdaki koyu yeşil basamakta bir makine hayal edin. Bu makine yalnızca birazcık süperzeki olurdu, ama bizden üstün bilişsel yeteneği, az önce bahsettiğimiz şempanze-insan aralığı kadar büyük olurdu. Ve şempanzenin, gökdelenlerin inşa edilebildiğini anlayamaması gibi, biz de koyu yeşil basamaktaki bir makinenin yapabileceği şeyleri yapmayı geçtim, anlayamayacağız—bize açıklamaya çalışsa bile. Ve bu bizden yalnızca iki basamak yukarıda. En üstten ikinci basamaktaki bir makine bize, biz karıncalara ne isek o olurdu. Bildiği şeylerin en ufak bir parçasını öğretmek için bile yıllarını harcayabilirdi ama boşuna çabalamış olurdu.

Ama bugün bahsedeceğimiz süperzeka bu merdivendeki herhangi bir şeyin çok daha ötesinde. Bir zeka patlamasında—bir makinenin daha akıllı hale geldikçe zekasını daha hızlı geliştirebilmesi ve nihayet yukarı doğru fırlayışa geçmesi anlamına geliyor—, bir makinenin şempanze basamağından bir üst basamağa atlaması yıllar sürebilir. Fakat bizim iki üstümüzdeki koyu yeşil basamağa ulaştığında belki de yalnızca saatler içinde bir basamak daha atlayacak. Bizim on basamak üstümüze ulaştığında ise her saniye dörder basamak atlayacak. İşte bu yüzden şunu anlamamız gerek: insan seviyesinde YGZ'ye ulaşan ilk makine haberlere çıktıktan kısa bir süre sonra, merdivende yeri şurada (ya da belki milyon kat daha yüksekte) olan bir şeyle aynı Dünya'da bulunma ihtimalimiz var:

Ve iki basamak üstümüzdeki bir makinenin gücünü anlamaya çalışmanın boşuna olacağını az önce söyledik, o yüzden şunu kesinlikle belirleyelim: YSZ'nin yapacaklarını veya bizim için ne gibi sonuçlar doğuracağını bilmemizin imkanı yok. Ne şimdi, ne daha sonra. Aksini düşünen biri, süperzekanın ne anlama geldiğini anlamıyordur.

Tüm Reklamları Kapat

Evrim, biyolojik beyni yüzlerce milyon yıl boyunca yavaşça ve aşama aşama geliştirdi. Buna göre eğer insanlar bir YSZ makinesi yaratırsa, evrimi ayaklarımız altında ezmiş olacağız. Veya belki bu da evrimin bir parçasıdır—belki evrim böyle çalışıyordur: zeka yavaş yavaş artarak makine süperzekası yaratabilecek seviyeye ulaşır ve bu seviye, oyunun kurallarını değiştirecek ve yaşayan her şey için yeni bir gelecek belirleyecek dünya genelinde bir patlamayı tetikleyen bir teldir:

Ve daha sonra konuşacağımız sebeplerden dolayı, bilim dünyasının büyük bir kısmı olayın tele takılıp takılmayacağımız değil, ne zaman takılacağımız olduğunu düşünüyor. Biraz çılgın bir bilgi.

Ee, bu bizi nerede bırakıyor?

Valla dünyada hiçkimse, özellikle ben, tele takıldığımızda ne olacağını söyleyemez. Ama Oxford'lu filozof ve öncü YZ düşünürlerinden Nick Bostrom, tüm muhtemel sonuçları iki geniş kategoriye ayırabileceğimize inanıyor.

Tüm Reklamları Kapat

Birincisi, tarihe bakarsak hayatın şöyle işlediğini görebiliriz: türler ortaya çıkar, bir süre var olur ve bir süre sonra, kaçınılmaz olarak hayat denge kalasından itilir ve “yok olma"ya düşerler—

Tarih boyunca "Tüm türler eninde sonunda yok olur” kuralı, neredeyse “Tüm insanlar eninde sonunda ölür” kuralı kadar geçerli olmuştur. Bugüne kadar türlerin %99.9'u denge kalasından düştü. Ve bir canlı türü kalasta sendelemeye devam ettikçe; başka bir tür, doğanın bir rüzgarı veya kalası yerinden oynatan bir asteroit tarafından düşürülmesi yalnızca bir zaman meselesi. Bostrom “yok olma"ya bir cazibe merkezi diyor—tüm türlerin sendeleyerek düştüğü ve hiçbir türün geri dönemediği bir yer.

Karşılaştığım birçok bilim insanı YSZ'nin insanları yok olmaya gönderme gücünün olacağını kabul etse de, birçoğu eğer yararımıza kullanılırsa YSZ'nin gücünün bazı bireyleri ve komple türümüzü ikinci bir cazibe merkezine getirebileceğini düşünüyor—tür ölümsüzlüğü. Bostrom, tür ölümsüzlüğünün en az tür yok olması kadar bir cazibe merkezi olduğuna inanıyor, yani diğer bir deyişle, eğer oraya varmayı başarırsak yok olmaya sonsuza dek dayanıklı olacağız—faniliği ve şansı yenmiş olacağız. Yani bugüne dek tüm türler denge kalasından düşüp yok olmaya konmuş olsa da, Bostrom kalasın iki tarafı olduğunu ve şimdiye kadar Dünya'daki hiçbir şeyin diğer tarafa nasıl konulacağını bulacak kadar zeki olmadığını düşünüyor.

Eğer Bostrom ve diğerleri haklıysa, ki okuduklarıma göre gerçekten olabilirler, sindirmemiz gereken iki şaşırtıcı gerçek var:

Tüm Reklamları Kapat

Agora Bilim Pazarı
Kayıp Kitap Avcıları 2 - Dört Buçuk Silahşorlar

Tuhaflıkların sonu gelmiyor.

Yıllardır severek okuduğumuz hikâyelerin başına garip şeyler gelmeye devam ediyor. Şimdi de Üç Silahşorlar! Kitabın orta yerinde, aslında hikâyede olmaması gereken bir karakter belirdi: esrarengiz Cüce Gumpo! Bu kötü karakterli cüce, bildiğimiz Üç Silahşorlar hikâyesinin altını üstüne getirmekte kararlı.

Alba ve Diego hikâyeyi onarmak zorundalar. Bunun için önce Paris’e gitmeleri, kitap karakteri kılığında hikâyeye sızmaları, sonra da bir yolunu bulup bu davetsiz misafiri kapı dışarı etmeleri gerekiyor. Peki, sıcak çikolata aşkı Gumpo’yu FINIS kapısına götürmeye yetecek mi?

Ve unutmadan: “Şimdiye kadar yazılmış en güzel öykü” hâlâ kayıp…

Devamını Göster
₺135.00
Kayıp Kitap Avcıları 2 - Dört Buçuk Silahşorlar
  • Dış Sitelerde Paylaş

1) YSZ'nin varışı, dünyada ilk kez bir canlı türünün denge kalasının ölümsüzlük tarafına düşmesini muhtemel kılacak.

2) YSZ'nin varışının o kadar akıl almaz derecede çarpıcı bir etkisi olacak ki, insan ırkını kalastan düşürmesi muhtemel, bir tarafa veya diğerine.

Veyahut evrim tele takıldığında, insanların kalasla ilişkisini tamamen kesip yeni bir dünya yaratabilir, insanların olduğu veya olmadığı.

Öyle görünüyor ki herhangi bir insanın şu an sorması gereken soru şu: Tele ne zaman takılacağız ve takıldığımızda kalasın hangi tarafına düşeceğiz?

Dünyadaki kimse bu sorunun cevabını bilmiyor, ama dünyadaki en akıllı insanların birçoğu yıllardır buna kafa yoruyor. Bu yazının geri kalanını, ne bulduklarını inceleyerek geçireceğiz.

Sorunun ilk kısmıyla başlayalım: Tele ne zaman takılacağız?

Diğer bir deyişle: Bir makinenin süperzekaya ulaşmasına ne kadar var?

Pek şaşırtıcı gelmeyecek ama, bu bilim insanları ve düşünürler arasında hararetli bir tartışma ve birçok farklı düşünce var. Birçoğu; profesör Vernor Vinge, bilim insanı Ben Goertzel, Sun Microsystems'ın kurucularından Bill Joy, veya aralarında en ünlüsü, mucit ve fütürist Ray Kurzweil, makine öğreniminde uzman Jeremy Howard'ın bir TED konuşmasında gösterdiği şu grafikle hemfikir durumda:

Adı geçen insanlar, bunun yakın bir zamanda yaşanacağına inanıyor: üstel büyüme gerçekleşiyor ve makine öğrenimi, şu an peşimizden yavaşça gelse de, önümüzdeki birkaç on yıl içinde yanımızdan basıp gidecek.

Diğerleri, örneğin Microsoft kurucularından Paul Allen, araştırmacı psikolog Gary Marcus, NYU bilgisayar uzmanı Ernest Davis, ve teknoloji girişimcisi Mitch Kapor, Kurzweil gibi düşünürlerin bu işin zorluğunu büyük ölçüde küçümsediğini ve tele aslında o kadar da yakın olmadığımıza inanıyor.

Tüm Reklamları Kapat

Kurzweil tarafı buna cevaben, ortadaki tek küçümsemenin üstel büyümeye hak ettiği değeri vermemek olduğunu söylüyor ve şüphecileri, 1985'te internetin yavaş büyüyüşüne bakıp yakın gelecekte herhangi bir etkiye sebep olamayacağını savunanlarla karşılaştırıyor.

Şüpheciler buna karşılık olarak ise zeka konusunda gelişme kaydetmek için gereken ilerlemenin de her adımla üstel olarak zorlaştığını ve bunun teknolojik ilerlemenin bilindik üstel doğasını dengeleyeceğini söylüyor. Ve böyle sürüp gidiyor işte. <>Nick Bostrom'un da içinde bulunduğu üçüncü bir taraf, iki tarafın da bunun zamanı konusunda emin olacak dayanakları olmadığına inanıyor ve şu iki gerçeği birden kabul ediyor: A) bu yakın gelecekte kesinlikle gerçekleşebilir ve B) bunun garantisi yok; çok uzun bir süre de alabilir.

Yine de başkaları, filozof Hubert Dreyfus gibi, bu üç grubun da ortada takılacak bir "tel” olduğuna inanmalarını saflık olarak görüyor ve YSZ'ye asla ulaşılamayacağını düşünüyor.

Peki tüm bu fikirleri bir araya topladığımızda ortaya ne çıkıyor?

Tüm Reklamları Kapat

2013'te, Vincent C. Müller ve Nick Bostrom bir dizi konferansta yüzlerce YZ uzmanına bir anket düzenledi ve şu soruyu sordu: “Bu soru için insanların bilimsel aktivitesinin büyük bir engel olmadan devam ettiğini varsayın. Hangi yılda İSMZ (İnsan Seviyesinde Makine Zekası)‘nin var olmasına (%10 / %50 %90) ihtimal verirdiniz?” Onlardan iyimser bir yıl (YGZ'ye ulaşma şansımızın %10 olduğuna inandıkları bir yıl), gerçekçi bir tahmin (YGZ'ye %50 ihtimal verdikleri bi yıl, diğer bir deyişle bu yıldan sonra YGZ'ye ulaşmış olma ihtimalimiz, ulaşmamış olma ihtimalimizden daha yüksek), ve güvenli bir tahmin (%90 ihtimalle YGZ'ye ulaşacağımızı düşündükleri en erken yıl) istediler. Bir araya getirildiklerinde, sonuçlar şöyleydi:

  • Ortalama iyimser yıl (%10 ihtimal): 2022
  • Ortalama realistik yıl (%50 ihtimal): 2040
  • Ortalama kötümser yıl (%90 ihtimal): 2075

Yani ortalama katılımcı, 25 yıl sonra YGZ'ye ulaşmış olma ihtimalimizin, ulaşmamış olma ihtimalimizden yüksek olduğunu düşünüyor. %90 ihtimalin ortalama cevabı olan 2075 şu anlama geliyor: Eğer şu an bir ergenseniz, ortalama katılımcı, YZ uzmanlarının diğer yarısıyla beraber, YGZ'yi görmeye ömrünüzün yeteceğini söylüyor.

Yazar James Barrat tarafından Ben Goertzel'in yıllık YGZ Konferansı'nda yapılan bir başka araştırma ise yüzdeleri atarak katılımcılara yalnızca YGZ'ye ne zaman ulaşılacağını sordu—2030'a kadar, 2050'ye kadar, 2100'e kadar, 2100'den sonra, veya asla. Sonuçlar:

  • 2030'a kadar: Katılımcıların %42'si
  • 2050'ye kadar: %25
  • 2100'e kadar: %20
  • 2100'den sonra: %10
  • Asla: %2

Müller ve Bostrom'un sonuçlarına oldukça yakın. Barrat'ın anketinde, katılımcıların üçte ikisinden fazlası YGZ'nin 2050'ye kadar geleceğine inanıyor. Katılımcıların yarısından biraz azı ise YGZ'yi önümüzdeki 15 yıl içinde görmeyi bekliyor. YGZ'nin geleceğimizin bir parçası olmadığını düşünen yalnızca %2'lik kısım da dikkat çekici.

Tüm Reklamları Kapat

Fakat tel YGZ değil, YSZ. E o zaman uzmanlar ne zaman YSZ'ye ulaşacağımızı düşünüyor?

Müller ve Bostrom uzmanlara ayrıca YSZ'ye A) YGZ'den sonraki iki yıl içinde mi (yani neredeyse aniden bir zeka patlamasıyla mı), yoksa B) 30 yıl içinde mi ulaşılacağını sordu. Sonuçlar:

Ortalama cevap hızlı (2 yıl) bir YGZ YSZ geçişinin %10 ihtimale sahip olduğu yönünde, ama 30 yıl veya daha kısa sürecek bir geçişe %75 ihtimal veriliyor.

Bu verilerden ortalama cevabın ne kadar uzunlukta bir geçiş süresine %50 ihtimal verdiğini çıkaramıyoruz, ama yaklaşık olsun diye yukarıdaki iki cevaba bakarak 20 yıl dediklerini varsayalım. Yani ortalama düşünce—YZ uzmanlarının dünyasının tam merkezindeki düşünce—, YSZ teline takılacağımız en gerçekçi tahminin [YGZ için 2040 tahmini + bizim YGZ-YSZ geçişi için 20 yıl varsayımımız] = 2060 olduğu yönünde.

Tüm Reklamları Kapat

 Tabii ki yukarıdaki tüm istatistikler varsayım ve yalnızca YZ uzmanları topluluğunun merkezindeki fikri yansıtıyor. Ama yine de bize, bu konu hakkındaki en bilgili insanların büyük bir kısmının, dünyayı değiştirme potansiyeline sahip olabilecek YSZ'nin gelişi için 2060 yılının makul bir tahmin olduğunu söylüyor. Yalnızca 45 yıl sonrası.

Tamam, şimdi isterseniz yukarıdaki sorunun ikinci kısmına geçelim: Tele takıldığımızda, kalasın hangi tarafına düşeceğiz?

Süperzeka akıl almaz bir güce sahip olacak—bizim için kritik olan soru şu:

O gücün kontrolü kimde veya neyde olacak, ve istekleri ne olacak?

Tüm Reklamları Kapat

Bu sorunun cevabı YSZ'nin inanılmaz derecede muazzam bir gelişme mi, akıl almaz derecede kötü bir gelişme mi, yoksa arada bir şey mi olacağını belirleyecek.

Tabii ki uzmanlar topluluğu yine bu sorunun cevabı için hararetli bir tartışma içinde. Müller ve Bostrom'un anketi katılımcılardan YGZ'nin insanlığa muhtemel etkilerine bir ihtimal vermelerini istedi ve ortalama cevabın, etkilerin ya iyi ya da aşırı iyi olmasına %52 ihtimal verdiğini, kötü ya da aşırı kötü olmasına ise %31 ihtimal verdiğini gördü. Etkilerin nötr olmasına ise yalnızca %17 ihtimal verildi. Başka bir deyişle, bu konuyla ilgili en çok bilgiye sahip olan insanlar bunun bayağı büyük bir şey olacağından emin. Bu sayıların YGZ'nin varışı için olduğunu belirtmekte fayda var. Tahminimce, eğer soru YSZ hakkında olsaydı nötr yüzdesi çok daha az olurdu.

İyi vs. kötü sonuç kısmına dalmadan önce, bu sorunun “ne zaman olacak?” ve “iyi mi olacak kötü mü?” kısımlarını, çoğu uzmanın görüşlerini yansıtan bir grafikte birleştirelim.

Ana Taraf hakkında birazdan konuşacağız, ama önce—sizin olayınız nedir? Aslında olayınızın ne olduğunu biliyorum, çünkü bu konuyu araştırmaya başlamadan önce benim de olayımdı. Çoğu insanın bu konu hakkında pek düşünmüyor oluşunun bazı nedenleri:

Tüm Reklamları Kapat

  • İlk iki bölümde de bahsettiğimiz gibi, gerçekçi olmayan YZ senaryolarına sahip filmler bize YZ'nin genel olarak ciddiye alınmayacak bir şey olduğunu hissettirerek ortalığı karıştırdı. James Barrat bu durumu, Hastalık Kontrol Merkezi (CDC) bize gelecekte görülebilecek bir vampir tehdidi için ciddi bir uyarı yayınlasa vereceğimiz tepkiye benzetiyor.
  • Bilişsel önyargı nedeniyle, bir şeyin gerçek olduğuna kanıt görmeden inanmakta zorluk çekiyoruz. Eminim ki 1988'de bilgisayar uzmanları internetin ne kadar büyük bir şey olacağı hakkında devamlı konuşuyorlardı, ama insanlar internetin hayatlarını değiştireceklerini pek düşünmüyorlardı—ta ki değiştirene dek. Bunun sebeplerinden birisi bilgisayarların 1988'de pek bir şey yapamıyor oluşlarıydı, yani insanlar bilgisayarlarına bakıp “Gerçekten mi? Bu mu değiştirecek hayatımı?” diye düşünüyorlardı. Hayal güçleri, kişisel tecrübelerinin onlara bir bilgisayarın ne olduğunu öğrettikleriyle sınırlıydı. Bu da bilgisayarların ne olabileceklerini hayal etmelerini zorlaştırdı. Aynı şey şimdi YZ ile yaşanıyor. Büyük bir şey olacağını duyuyoruz, ama henüz gerçekleşmediği için ve günümüzdeki YZ ile olan kişisel tecrübelerimiz yüzünden, bunun hayatımızı önemli ölçüde değiştireceğine inanmakta güçlük çekiyoruz. Ve bu önyargılar, her gün kendilerimizle ilgilenmekteyken uzmanların bizim dikkatimizi çekmeye çalışırken karşılaştıkları şeyler.
  • İnanıyor olsak bile—bugün kaç kere sonsuzluğun geriye kalan büyük bir kısmını var olmayarak geçireceğiniz gerçeği üzerinde düşündünüz? Çok değil, değil mi? Ortada bugün yapmakta olduğunuz başka şeylere kıyasla çok daha çarpıcı bir gerçek olmasına rağmen? Bunun sebebi beyinlerimizin günlük küçük şeylere odaklanmış olması, içinde bulunduğumuz durum ne kadar uzun vadeli ve çılgın olsa da. Yapımız böyle.

Bu iki yazının hedeflerinden biri de sizi Başka Şeyler Hakkında Düşünmeyi Seviyorum Tarafı'ndan çıkarmak ve uzman taraflarından birine yerleştirmek. Yukarıdaki karedeki iki kesik çizginin birleştiği yerde, tamamen kararsız bir halde duruyor olsanız bile.

Araştırmam sırasında bu konu hakkında düzinelerce farklı düşünceye denk geldim, ama hemen fark ettim ki çoğu insanın düşünceleri Ana Taraf diye adlandırdığım kısımda bir yere düşüyor. Özellikle de uzmanların dörtte üçünden fazlası, Ana Tarafın içinde bulunan iki altbölüme düşüyor.

Bir sonraki yazımızda, bu iki kampın bir ucundan girip diğer ucundan çıkacağız. Daha sonrasında ise bu konu üzerine inşa ederek, içeriği zenginleştirerek bilgilerimizi derinleştireceğiz.

Bu Makaleyi Alıntıla
Okundu Olarak İşaretle
Evrim Ağacı Akademi: Yapay Zekaya Giden Yol Yazı Dizisi

Bu yazı, Yapay Zekaya Giden Yol yazı dizisinin 3. yazısıdır. Bu yazı dizisini okumaya, serinin 1. yazısı olan "Süperzeka’ya Giden Yol Çok Yakınımızda!" başlıklı makalemizden başlamanızı öneririz.

Yazı dizisi içindeki ilerleyişinizi kaydetmek için veya kayıt olun.

EA Akademi Hakkında Bilgi Al
77
0
  • Paylaş
  • Alıntıla
  • Alıntıları Göster
Paylaş
Sonra Oku
Notlarım
Yazdır / PDF Olarak Kaydet
Bize Ulaş
Yukarı Zıpla

İçeriklerimizin bilimsel gerçekleri doğru bir şekilde yansıtması için en üst düzey çabayı gösteriyoruz. Gözünüze doğru gelmeyen bir şey varsa, mümkünse güvenilir kaynaklarınızla birlikte bize ulaşın!

Bu içeriğimizle ilgili bir sorunuz mu var? Buraya tıklayarak sorabilirsiniz.

İçerikle İlgili Sorular
Soru & Cevap Platformuna Git
Bu İçerik Size Ne Hissettirdi?
  • Muhteşem! 21
  • Tebrikler! 16
  • Merak Uyandırıcı! 11
  • Korkutucu! 7
  • Umut Verici! 6
  • Bilim Budur! 5
  • Mmm... Çok sapyoseksüel! 4
  • İnanılmaz 4
  • Güldürdü 2
  • Üzücü! 1
  • Grrr... *@$# 1
  • İğrenç! 1
Kaynaklar ve İleri Okuma
  1. Çeviri Kaynağı: Wait But Why? | Arşiv Bağlantısı
  • N. Bostrom. (2014). Superintelligence: Paths, Dangers, Strategies. ISBN: 0199678111. Yayınevi: Oxford University Press.
  • J. Barrat. (2013). Our Final Invention: Artificial Intelligence And The End Of The Human Era. ISBN: B00CQYAWRY. Yayınevi: Thomas Dunne Books.
  • R. Kurzweil. (2006). The Singularity Is Near: When Humans Transcend Biology. ISBN: 0143037889. Yayınevi: Penguin Books.
  • N. J. Nilsson. (2009). The Quest For Artificial Intelligenc. ISBN: 0521122937. Yayınevi: Cambridge University Press.
  • S. Pinker, et al. (2014). How The Mind Works. ISBN: 1491514965. Yayınevi: Brilliance Audio.
  • V. Vinge. The Coming Technological Singularity: How To Survive In The Post-Human Era. (1 Ocak 1993). Alındığı Tarih: 2 Temmuz 2019. Alındığı Yer: SDSU | Arşiv Bağlantısı
  • E. Davis. (2014). Ethical Guidelines For A Superintelligence. NYU Department of Computer Science, sf: 1-5. | Arşiv Bağlantısı
  • N. Bostrom. How Long Before Superintelligence?. (12 Mart 2008). Alındığı Tarih: 2 Temmuz 2019. Alındığı Yer: Nick Bostrom | Arşiv Bağlantısı
  • V. C. Müller, et al. Future Progress In Artificial Intelligence: A Survey Of Expert Opinion. (1 Ocak 2014). Alındığı Tarih: 2 Temmuz 2019. Alındığı Yer: Nick Bostrom | Arşiv Bağlantısı
  • M. Y. Vardi. (2012). Artificial Intelligence: Past And Future. Communications of the ACM, sf: 5. | Arşiv Bağlantısı
  • N. Bostrom. Nick Bostrom On Superintelligence. (1 Aralık 2014). Alındığı Tarih: 2 Temmuz 2019. Alındığı Yer: EconTalk | Arşiv Bağlantısı
  • R. Roberts. Bostrom Follow-Up. (2 Temmuz 2019). Alındığı Tarih: 2 Temmuz 2019. Alındığı Yer: EconTalk | Arşiv Bağlantısı
  • S. Armstrong, et al. (2012). How We’re Predicting Ai—Or Failing To. Beyond AI: Artificial Dreams, sf: 52-75. | Arşiv Bağlantısı
  • S. Russell, et al. (2009). Artificial Intelligence: A Modern Approach. ISBN: 0136042597. Yayınevi: Pearson.
  • G. Marcus. Hyping Artificial Intelligence, Yet Again. (31 Aralık 2013). Alındığı Tarih: 2 Temmuz 2019. Alındığı Yer: The New Yorker | Arşiv Bağlantısı
  • S. Pinker. (2019). Could A Computer Ever Be Conscious?. University of Manchester, sf: 1-3. | Arşiv Bağlantısı
  • C. Shulman. (2010). Basic Ai Drives And Catastrophic Risks. The Singularity Institute. | Arşiv Bağlantısı
  • World Economic Forum. (Rapor, 2015). Global Risks 2015. Not: http://www3.weforum.org/docs/WEF_Global_Risks_2015_Report15.pdf.
  • J. R. Searle. What Your Computer Can’t Know. (9 Ekim 2014). Alındığı Tarih: 2 Temmuz 2019. Alındığı Yer: The New York Review of Books | Arşiv Bağlantısı
  • J. Lanier. One Half A Manifesto. (11 Ekim 2000). Alındığı Tarih: 2 Temmuz 2019. Alındığı Yer: Edge | Arşiv Bağlantısı
  • B. Joy. Why The Future Doesn't Need Us. (4 Ocak 2000). Alındığı Tarih: 2 Temmuz 2019. Alındığı Yer: Wired | Arşiv Bağlantısı
  • P. Allen, et al. The Singularity Isn't Near. (12 Ekim 2011). Alındığı Tarih: 2 Temmuz 2019. Alındığı Yer: MIT Technology Review | Arşiv Bağlantısı
  • R. Kurzweil. Don't Underestimate The Singularity. (19 Ekim 2011). Alındığı Tarih: 2 Temmuz 2019. Alındığı Yer: MIT Technology Review | Arşiv Bağlantısı
  • S. Hawking, et al. Transcending Complacency On Superintelligent Machines. (19 Nisan 2014). Alındığı Tarih: 2 Temmuz 2019. Alındığı Yer: HuffPost | Arşiv Bağlantısı
  • H. L. Dreyfus. (1992). What Computers Still Can't Do: A Critique Of Artificial Reason. ISBN: 0262540673. Yayınevi: MIT Press.
  • S. Armstrong. (2014). Smarter Than Us: The Rise Of Machine Intelligence. ISBN: B00IB4N4KU. Yayınevi: Machine Intelligence Research Institute.
Tüm Reklamları Kapat

Evrim Ağacı'na her ay sadece 1 kahve ısmarlayarak destek olmak ister misiniz?

Şu iki siteden birini kullanarak şimdi destek olabilirsiniz:

kreosus.com/evrimagaci | patreon.com/evrimagaci

Çıktı Bilgisi: Bu sayfa, Evrim Ağacı yazdırma aracı kullanılarak 29/03/2024 11:09:08 tarihinde oluşturulmuştur. Evrim Ağacı'ndaki içeriklerin tamamı, birden fazla editör tarafından, durmaksızın elden geçirilmekte, güncellenmekte ve geliştirilmektedir. Dolayısıyla bu çıktının alındığı tarihten sonra yapılan güncellemeleri görmek ve bu içeriğin en güncel halini okumak için lütfen şu adrese gidiniz: https://evrimagaci.org/s/447

İçerik Kullanım İzinleri: Evrim Ağacı'ndaki yazılı içerikler orijinallerine hiçbir şekilde dokunulmadığı müddetçe izin alınmaksızın paylaşılabilir, kopyalanabilir, yapıştırılabilir, çoğaltılabilir, basılabilir, dağıtılabilir, yayılabilir, alıntılanabilir. Ancak bu içeriklerin hiçbiri izin alınmaksızın değiştirilemez ve değiştirilmiş halleri Evrim Ağacı'na aitmiş gibi sunulamaz. Benzer şekilde, içeriklerin hiçbiri, söz konusu içeriğin açıkça belirtilmiş yazarlarından ve Evrim Ağacı'ndan başkasına aitmiş gibi sunulamaz. Bu sayfa izin alınmaksızın düzenlenemez, Evrim Ağacı logosu, yazar/editör bilgileri ve içeriğin diğer kısımları izin alınmaksızın değiştirilemez veya kaldırılamaz.

Tüm Reklamları Kapat
Keşfet
Akış
İçerikler
Gündem
Hızlı
Gezegen
Egzersiz
Yangın
Kuantum Fiziği
Diyet
Mavi
Antibiyotik
Balina
Evrim Tarihi
Genetik Değişim
İngiltere
Şiddet
Tür
Türlerin Kökeni
Hayatta Kalma
Gebelik
Doğal
Biyocoğrafya
Radyoaktif
Oyun
Astrofizik
Buz
İyi
Damar
Aklımdan Geçen
Komünite Seç
Aklımdan Geçen
Fark Ettim ki...
Bugün Öğrendim ki...
İşe Yarar İpucu
Bilim Haberleri
Hikaye Fikri
Video Konu Önerisi
Başlık
Gündem
Bugün Türkiye'de bilime ve bilim okuryazarlığına neler katacaksın?
Bağlantı
Kurallar
Komünite Kuralları
Bu komünite, aklınızdan geçen düşünceleri Evrim Ağacı ailesiyle paylaşabilmeniz içindir. Yapacağınız paylaşımlar Evrim Ağacı'nın kurallarına tabidir. Ayrıca bu komünitenin ek kurallarına da uymanız gerekmektedir.
1
Bilim kimliğinizi önceleyin.
Evrim Ağacı bir bilim platformudur. Dolayısıyla aklınızdan geçen her şeyden ziyade, bilim veya yaşamla ilgili olabilecek düşüncelerinizle ilgileniyoruz.
2
Propaganda ve baskı amaçlı kullanmayın.
Herkesin aklından her şey geçebilir; fakat bu platformun amacı, insanların belli ideolojiler için propaganda yapmaları veya başkaları üzerinde baskı kurma amacıyla geliştirilmemiştir. Paylaştığınız fikirlerin değer kattığından emin olun.
3
Gerilim yaratmayın.
Gerilim, tersleme, tahrik, taciz, alay, dedikodu, trollük, vurdumduymazlık, duyarsızlık, ırkçılık, bağnazlık, nefret söylemi, azınlıklara saldırı, fanatizm, holiganlık, sloganlar yasaktır.
4
Değer katın; hassas konulardan ve öznel yoruma açık alanlardan uzak durun.
Bu komünitenin amacı okurlara hayatla ilgili keyifli farkındalıklar yaşatabilmektir. Din, politika, spor, aktüel konular gibi anlık tepkilere neden olabilecek konulardaki tespitlerden kaçının. Ayrıca aklınızdan geçenlerin Türkiye’deki bilim komünitesine değer katması beklenmektedir.
5
Cevap hakkı doğurmayın.
Bu platformda cevap veya yorum sistemi bulunmamaktadır. Dolayısıyla aklınızdan geçenlerin, tespit edilebilir kişilere cevap hakkı doğurmadığından emin olun.
Ekle
Soru Sor
Sosyal
Yeniler
Daha Fazla İçerik Göster
Popüler Yazılar
30 gün
90 gün
1 yıl
Evrim Ağacı'na Destek Ol

Evrim Ağacı'nın %100 okur destekli bir bilim platformu olduğunu biliyor muydunuz? Evrim Ağacı'nın maddi destekçileri arasına katılarak Türkiye'de bilimin yayılmasına güç katın.

Evrim Ağacı'nı Takip Et!
Yazı Geçmişi
Okuma Geçmişi
Notlarım
İlerleme Durumunu Güncelle
Okudum
Sonra Oku
Not Ekle
Kaldığım Yeri İşaretle
Göz Attım

Evrim Ağacı tarafından otomatik olarak takip edilen işlemleri istediğin zaman durdurabilirsin.
[Site ayalarına git...]

Filtrele
Listele
Bu yazıdaki hareketlerin
Devamını Göster
Filtrele
Listele
Tüm Okuma Geçmişin
Devamını Göster
0/10000
Bu Makaleyi Alıntıla
Evrim Ağacı Formatı
APA7
MLA9
Chicago
T. Urban, et al. Yapay Zeka Ölümsüzlüğümüz veya Sonumuz Olabilir!. (16 Kasım 2016). Alındığı Tarih: 29 Mart 2024. Alındığı Yer: https://evrimagaci.org/s/447
Urban, T., Özel, M., Bakırcı, Ç. M. (2016, November 16). Yapay Zeka Ölümsüzlüğümüz veya Sonumuz Olabilir!. Evrim Ağacı. Retrieved March 29, 2024. from https://evrimagaci.org/s/447
T. Urban, et al. “Yapay Zeka Ölümsüzlüğümüz veya Sonumuz Olabilir!.” Edited by Çağrı Mert Bakırcı. Translated by Mert Özel, Evrim Ağacı, 16 Nov. 2016, https://evrimagaci.org/s/447.
Urban, Tim. Özel, Mert. Bakırcı, Çağrı Mert. “Yapay Zeka Ölümsüzlüğümüz veya Sonumuz Olabilir!.” Edited by Çağrı Mert Bakırcı. Translated by Mert Özel. Evrim Ağacı, November 16, 2016. https://evrimagaci.org/s/447.
ve seni takip ediyor

Göster

Şifrenizi mi unuttunuz? Lütfen e-posta adresinizi giriniz. E-posta adresinize şifrenizi sıfırlamak için bir bağlantı gönderilecektir.

Geri dön

Eğer aktivasyon kodunu almadıysanız lütfen e-posta adresinizi giriniz. Üyeliğinizi aktive etmek için e-posta adresinize bir bağlantı gönderilecektir.

Geri dön

Close