Yapay Zeka Ölümsüzlüğümüz veya Sonumuz Olabilir!
Elimizde, muhtemelen insanlığın tüm geleceğinin bağlı olduğu, süresi belirsiz ve son derece zor bir problem var.
Nick Bostrom
“Bi' dakika nasıl olabilir ne okuyorum ben anlamıyorum ya neden herkes bundan bahsetmiyor!” serimizin ikinci bölümüne hoş geldiniz.
İlk iki kısım oldukça masum başladı, Yapay Dar Zeka'dan, veya YDZ'den (sürüş rotası bulmak veya satranç oynamak gibi, tek bir görevde uzmanlaşan YZ) ve bugün hayatımızın her yerinde nasıl kullanıldığından bahsettik. Sonra YDZ'den Yapay Genel Zeka'ya, veya YGZ'ye (genel olarak en az bir insan kadar akıllı YZ) geçmenin neden zor olduğunu inceledik, ve geçmişte gördüğümüz teknolojinin üstel gelişiminin neden YGZ'nin aslında göründüğü kadar uzak olmayabileceği anlamına geldiğini konuştuk. İlk iki yazımız, makinelerimiz insan seviyesinde zekaya ulaştıklarında hemen şunu yapabilecekleri gerçeğini yüzünüze vurmamla sonlanmıştı:
Kendimizi ekrana bakakalmış, ömrümüzün görmeye yeteceği Yapay Süperzeka, veya YSZ (genel olarak herhangi bir insandan çok daha zeki olan YZ) fikriyle ve bunu düşünürken ne hissetmemiz gerektiğini anlamaya çalışırken bulduk.
Konuya dalmadan önce, bir makinenin süperzeki olması ne anlama gelir hatırlayalım.
Hız süperzekası ve kalite süperzekası arasındaki fark, önemli bir nokta. Genellikle birisi süper-akıllı bir bilgisayar düşündüğünde aklına gelen ilk şey bir insan kadar zeki olduğu, ama çok çok daha hızlı düşünebildiği — bir insan gibi düşünebilen ama bunu bir milyon kat daha hızlı yapan, yani bir insanın on yılda çözeceği bir şeyi beş dakikada çözebilen bir makine hayal ediyorlar.
Kulağa etkileyici geliyor ve doğru da, YSZ herhangi bir insandan çok daha hızlı düşünebilir — ama asıl ayırt edici özelliği, zeka kalitesindeki avantajı olurdu. Bu da tamamen farklı bir şey. İnsanları zeka olarak şempanzelerden daha üstün kılan şey düşünme hızındaki fark değil — insan beyninin kompleks dilsel ifadelere veya uzun vadeli planlamaya veya soyut akıl yürütmeye imkan veren kavramsal modüller bulundurması. Bir şempanzenin beynini bin kat hızlandırmak onu bizim seviyemize getirmezdi — on yıl sürse de özel bir alet takımı kullanarak karmaşık bir modeli bir araya getirmeyi öğrenemezdi. Bir insan bunu birkaç saat içinde başarabilir. İnsanlarda, bir şempanzenin ne kadar denerse denesin asla sahip olamayacağı dünyalar dolusu kavramsal fonksiyon bulunuyor.
Ama olay yalnızca bir şempanzenin bizim yapabildiklerimizi yapamaması değil, beyninin bu şeylerin varlığını kavrayamıyor olması — bir şempanze, bir insanı ve bir gökdeleni tanıyabilir, ama gökdelenin insanlar tarafından yapıldığını asla anlayamayacaktır. Onun dünyasında o kadar büyük bir şey doğanın bir parçasıdır, nokta. Ve gökdelen inşa etmeyi geçtim, herhangi birinin bir gökdelen inşa edebileceğini anlamak bile onu aşar. İşte bu, zeka kalitesindeki ufak bir farkın sonucu.
Ve bugün bahsetmekte olduğumuz zeka aralığında, veyahut biyolojik canlılar arasındaki çok daha küçük aralıklarda, şempanze-insan arasındaki zeka kalitesi farkı ufacık kalıyor. Daha önceki bir yazımda, biyolojik bilişsel kapasiteyi bir merdiven kullanarak betimlemiştim:
Süperzeki bir makinenin ne kadar büyük bir olay olacağını anlayabilmek için, insanlardan iki adım yukarıdaki koyu yeşil basamakta bir makine hayal edin. Bu makine yalnızca birazcık süperzeki olurdu, ama bizden üstün bilişsel yeteneği, az önce bahsettiğimiz şempanze-insan aralığı kadar büyük olurdu. Ve şempanzenin, gökdelenlerin inşa edilebildiğini anlayamaması gibi, biz de koyu yeşil basamaktaki bir makinenin yapabileceği şeyleri yapmayı geçtim, anlayamayacağız—bize açıklamaya çalışsa bile. Ve bu bizden yalnızca iki basamak yukarıda. En üstten ikinci basamaktaki bir makine bize, biz karıncalara ne isek o olurdu. Bildiği şeylerin en ufak bir parçasını öğretmek için bile yıllarını harcayabilirdi ama boşuna çabalamış olurdu.
Ama bugün bahsedeceğimiz süperzeka bu merdivendeki herhangi bir şeyin çok daha ötesinde. Bir zeka patlamasında—bir makinenin daha akıllı hale geldikçe zekasını daha hızlı geliştirebilmesi ve nihayet yukarı doğru fırlayışa geçmesi anlamına geliyor—, bir makinenin şempanze basamağından bir üst basamağa atlaması yıllar sürebilir. Fakat bizim iki üstümüzdeki koyu yeşil basamağa ulaştığında belki de yalnızca saatler içinde bir basamak daha atlayacak. Bizim on basamak üstümüze ulaştığında ise her saniye dörder basamak atlayacak. İşte bu yüzden şunu anlamamız gerek: insan seviyesinde YGZ'ye ulaşan ilk makine haberlere çıktıktan kısa bir süre sonra, merdivende yeri şurada (ya da belki milyon kat daha yüksekte) olan bir şeyle aynı Dünya'da bulunma ihtimalimiz var:
Evrim Ağacı'nın çalışmalarına Kreosus, Patreon veya YouTube üzerinden maddi destekte bulunarak hem Türkiye'de bilim anlatıcılığının gelişmesine katkı sağlayabilirsiniz, hem de site ve uygulamamızı reklamsız olarak deneyimleyebilirsiniz. Reklamsız deneyim, sitemizin/uygulamamızın çeşitli kısımlarda gösterilen Google reklamlarını ve destek çağrılarını görmediğiniz, %100 reklamsız ve çok daha temiz bir site deneyimi sunmaktadır.
KreosusKreosus'ta her 10₺'lik destek, 1 aylık reklamsız deneyime karşılık geliyor. Bu sayede, tek seferlik destekçilerimiz de, aylık destekçilerimiz de toplam destekleriyle doğru orantılı bir süre boyunca reklamsız deneyim elde edebiliyorlar.
Kreosus destekçilerimizin reklamsız deneyimi, destek olmaya başladıkları anda devreye girmektedir ve ek bir işleme gerek yoktur.
PatreonPatreon destekçilerimiz, destek miktarından bağımsız olarak, Evrim Ağacı'na destek oldukları süre boyunca reklamsız deneyime erişmeyi sürdürebiliyorlar.
Patreon destekçilerimizin Patreon ile ilişkili e-posta hesapları, Evrim Ağacı'ndaki üyelik e-postaları ile birebir aynı olmalıdır. Patreon destekçilerimizin reklamsız deneyiminin devreye girmesi 24 saat alabilmektedir.
YouTubeYouTube destekçilerimizin hepsi otomatik olarak reklamsız deneyime şimdilik erişemiyorlar ve şu anda, YouTube üzerinden her destek seviyesine reklamsız deneyim ayrıcalığını sunamamaktayız. YouTube Destek Sistemi üzerinde sunulan farklı seviyelerin açıklamalarını okuyarak, hangi ayrıcalıklara erişebileceğinizi öğrenebilirsiniz.
Eğer seçtiğiniz seviye reklamsız deneyim ayrıcalığı sunuyorsa, destek olduktan sonra YouTube tarafından gösterilecek olan bağlantıdaki formu doldurarak reklamsız deneyime erişebilirsiniz. YouTube destekçilerimizin reklamsız deneyiminin devreye girmesi, formu doldurduktan sonra 24-72 saat alabilmektedir.
Diğer PlatformlarBu 3 platform haricinde destek olan destekçilerimize ne yazık ki reklamsız deneyim ayrıcalığını sunamamaktayız. Destekleriniz sayesinde sistemlerimizi geliştirmeyi sürdürüyoruz ve umuyoruz bu ayrıcalıkları zamanla genişletebileceğiz.
Giriş yapmayı unutmayın!Reklamsız deneyim için, maddi desteğiniz ile ilişkilendirilmiş olan Evrim Ağacı hesabınıza üye girişi yapmanız gerekmektedir. Giriş yapmadığınız takdirde reklamları görmeye devam edeceksinizdir.
Ve iki basamak üstümüzdeki bir makinenin gücünü anlamaya çalışmanın boşuna olacağını az önce söyledik, o yüzden şunu kesinlikle belirleyelim: YSZ'nin yapacaklarını veya bizim için ne gibi sonuçlar doğuracağını bilmemizin imkanı yok. Ne şimdi, ne daha sonra. Aksini düşünen biri, süperzekanın ne anlama geldiğini anlamıyordur.
Evrim, biyolojik beyni yüzlerce milyon yıl boyunca yavaşça ve aşama aşama geliştirdi. Buna göre eğer insanlar bir YSZ makinesi yaratırsa, evrimi ayaklarımız altında ezmiş olacağız. Veya belki bu da evrimin bir parçasıdır—belki evrim böyle çalışıyordur: zeka yavaş yavaş artarak makine süperzekası yaratabilecek seviyeye ulaşır ve bu seviye, oyunun kurallarını değiştirecek ve yaşayan her şey için yeni bir gelecek belirleyecek dünya genelinde bir patlamayı tetikleyen bir teldir:
Ve daha sonra konuşacağımız sebeplerden dolayı, bilim dünyasının büyük bir kısmı olayın tele takılıp takılmayacağımız değil, ne zaman takılacağımız olduğunu düşünüyor. Biraz çılgın bir bilgi.
Ee, bu bizi nerede bırakıyor?
Valla dünyada hiçkimse, özellikle ben, tele takıldığımızda ne olacağını söyleyemez. Ama Oxford'lu filozof ve öncü YZ düşünürlerinden Nick Bostrom, tüm muhtemel sonuçları iki geniş kategoriye ayırabileceğimize inanıyor.
Birincisi, tarihe bakarsak hayatın şöyle işlediğini görebiliriz: türler ortaya çıkar, bir süre var olur ve bir süre sonra, kaçınılmaz olarak hayat denge kalasından itilir ve “yok olma"ya düşerler—
Tarih boyunca "Tüm türler eninde sonunda yok olur” kuralı, neredeyse “Tüm insanlar eninde sonunda ölür” kuralı kadar geçerli olmuştur. Bugüne kadar türlerin %99.9'u denge kalasından düştü. Ve bir canlı türü kalasta sendelemeye devam ettikçe; başka bir tür, doğanın bir rüzgarı veya kalası yerinden oynatan bir asteroit tarafından düşürülmesi yalnızca bir zaman meselesi. Bostrom “yok olma"ya bir cazibe merkezi diyor—tüm türlerin sendeleyerek düştüğü ve hiçbir türün geri dönemediği bir yer.
Karşılaştığım birçok bilim insanı YSZ'nin insanları yok olmaya gönderme gücünün olacağını kabul etse de, birçoğu eğer yararımıza kullanılırsa YSZ'nin gücünün bazı bireyleri ve komple türümüzü ikinci bir cazibe merkezine getirebileceğini düşünüyor—tür ölümsüzlüğü. Bostrom, tür ölümsüzlüğünün en az tür yok olması kadar bir cazibe merkezi olduğuna inanıyor, yani diğer bir deyişle, eğer oraya varmayı başarırsak yok olmaya sonsuza dek dayanıklı olacağız—faniliği ve şansı yenmiş olacağız. Yani bugüne dek tüm türler denge kalasından düşüp yok olmaya konmuş olsa da, Bostrom kalasın iki tarafı olduğunu ve şimdiye kadar Dünya'daki hiçbir şeyin diğer tarafa nasıl konulacağını bulacak kadar zeki olmadığını düşünüyor.
Eğer Bostrom ve diğerleri haklıysa, ki okuduklarıma göre gerçekten olabilirler, sindirmemiz gereken iki şaşırtıcı gerçek var:
1) YSZ'nin varışı, dünyada ilk kez bir canlı türünün denge kalasının ölümsüzlük tarafına düşmesini muhtemel kılacak.
2) YSZ'nin varışının o kadar akıl almaz derecede çarpıcı bir etkisi olacak ki, insan ırkını kalastan düşürmesi muhtemel, bir tarafa veya diğerine.
Veyahut evrim tele takıldığında, insanların kalasla ilişkisini tamamen kesip yeni bir dünya yaratabilir, insanların olduğu veya olmadığı.
Öyle görünüyor ki herhangi bir insanın şu an sorması gereken soru şu: Tele ne zaman takılacağız ve takıldığımızda kalasın hangi tarafına düşeceğiz?
Dünyadaki kimse bu sorunun cevabını bilmiyor, ama dünyadaki en akıllı insanların birçoğu yıllardır buna kafa yoruyor. Bu yazının geri kalanını, ne bulduklarını inceleyerek geçireceğiz.
Sorunun ilk kısmıyla başlayalım: Tele ne zaman takılacağız?
Diğer bir deyişle: Bir makinenin süperzekaya ulaşmasına ne kadar var?
Pek şaşırtıcı gelmeyecek ama, bu bilim insanları ve düşünürler arasında hararetli bir tartışma ve birçok farklı düşünce var. Birçoğu; profesör Vernor Vinge, bilim insanı Ben Goertzel, Sun Microsystems'ın kurucularından Bill Joy, veya aralarında en ünlüsü, mucit ve fütürist Ray Kurzweil, makine öğreniminde uzman Jeremy Howard'ın bir TED konuşmasında gösterdiği şu grafikle hemfikir durumda:
Adı geçen insanlar, bunun yakın bir zamanda yaşanacağına inanıyor: üstel büyüme gerçekleşiyor ve makine öğrenimi, şu an peşimizden yavaşça gelse de, önümüzdeki birkaç on yıl içinde yanımızdan basıp gidecek.
Diğerleri, örneğin Microsoft kurucularından Paul Allen, araştırmacı psikolog Gary Marcus, NYU bilgisayar uzmanı Ernest Davis, ve teknoloji girişimcisi Mitch Kapor, Kurzweil gibi düşünürlerin bu işin zorluğunu büyük ölçüde küçümsediğini ve tele aslında o kadar da yakın olmadığımıza inanıyor.
Kurzweil tarafı buna cevaben, ortadaki tek küçümsemenin üstel büyümeye hak ettiği değeri vermemek olduğunu söylüyor ve şüphecileri, 1985'te internetin yavaş büyüyüşüne bakıp yakın gelecekte herhangi bir etkiye sebep olamayacağını savunanlarla karşılaştırıyor.
Şüpheciler buna karşılık olarak ise zeka konusunda gelişme kaydetmek için gereken ilerlemenin de her adımla üstel olarak zorlaştığını ve bunun teknolojik ilerlemenin bilindik üstel doğasını dengeleyeceğini söylüyor. Ve böyle sürüp gidiyor işte. <>Nick Bostrom'un da içinde bulunduğu üçüncü bir taraf, iki tarafın da bunun zamanı konusunda emin olacak dayanakları olmadığına inanıyor ve şu iki gerçeği birden kabul ediyor: A) bu yakın gelecekte kesinlikle gerçekleşebilir ve B) bunun garantisi yok; çok uzun bir süre de alabilir.
Yine de başkaları, filozof Hubert Dreyfus gibi, bu üç grubun da ortada takılacak bir "tel” olduğuna inanmalarını saflık olarak görüyor ve YSZ'ye asla ulaşılamayacağını düşünüyor.
Peki tüm bu fikirleri bir araya topladığımızda ortaya ne çıkıyor?
2013'te, Vincent C. Müller ve Nick Bostrom bir dizi konferansta yüzlerce YZ uzmanına bir anket düzenledi ve şu soruyu sordu: “Bu soru için insanların bilimsel aktivitesinin büyük bir engel olmadan devam ettiğini varsayın. Hangi yılda İSMZ (İnsan Seviyesinde Makine Zekası)‘nin var olmasına (%10 / %50 %90) ihtimal verirdiniz?” Onlardan iyimser bir yıl (YGZ'ye ulaşma şansımızın %10 olduğuna inandıkları bir yıl), gerçekçi bir tahmin (YGZ'ye %50 ihtimal verdikleri bi yıl, diğer bir deyişle bu yıldan sonra YGZ'ye ulaşmış olma ihtimalimiz, ulaşmamış olma ihtimalimizden daha yüksek), ve güvenli bir tahmin (%90 ihtimalle YGZ'ye ulaşacağımızı düşündükleri en erken yıl) istediler. Bir araya getirildiklerinde, sonuçlar şöyleydi:
- Ortalama iyimser yıl (%10 ihtimal): 2022
- Ortalama realistik yıl (%50 ihtimal): 2040
- Ortalama kötümser yıl (%90 ihtimal): 2075
Yani ortalama katılımcı, 25 yıl sonra YGZ'ye ulaşmış olma ihtimalimizin, ulaşmamış olma ihtimalimizden yüksek olduğunu düşünüyor. %90 ihtimalin ortalama cevabı olan 2075 şu anlama geliyor: Eğer şu an bir ergenseniz, ortalama katılımcı, YZ uzmanlarının diğer yarısıyla beraber, YGZ'yi görmeye ömrünüzün yeteceğini söylüyor.
Yazar James Barrat tarafından Ben Goertzel'in yıllık YGZ Konferansı'nda yapılan bir başka araştırma ise yüzdeleri atarak katılımcılara yalnızca YGZ'ye ne zaman ulaşılacağını sordu—2030'a kadar, 2050'ye kadar, 2100'e kadar, 2100'den sonra, veya asla. Sonuçlar:
- 2030'a kadar: Katılımcıların %42'si
- 2050'ye kadar: %25
- 2100'e kadar: %20
- 2100'den sonra: %10
- Asla: %2
Müller ve Bostrom'un sonuçlarına oldukça yakın. Barrat'ın anketinde, katılımcıların üçte ikisinden fazlası YGZ'nin 2050'ye kadar geleceğine inanıyor. Katılımcıların yarısından biraz azı ise YGZ'yi önümüzdeki 15 yıl içinde görmeyi bekliyor. YGZ'nin geleceğimizin bir parçası olmadığını düşünen yalnızca %2'lik kısım da dikkat çekici.
Fakat tel YGZ değil, YSZ. E o zaman uzmanlar ne zaman YSZ'ye ulaşacağımızı düşünüyor?
Müller ve Bostrom uzmanlara ayrıca YSZ'ye A) YGZ'den sonraki iki yıl içinde mi (yani neredeyse aniden bir zeka patlamasıyla mı), yoksa B) 30 yıl içinde mi ulaşılacağını sordu. Sonuçlar:
Ortalama cevap hızlı (2 yıl) bir YGZ YSZ geçişinin %10 ihtimale sahip olduğu yönünde, ama 30 yıl veya daha kısa sürecek bir geçişe %75 ihtimal veriliyor.
Bu verilerden ortalama cevabın ne kadar uzunlukta bir geçiş süresine %50 ihtimal verdiğini çıkaramıyoruz, ama yaklaşık olsun diye yukarıdaki iki cevaba bakarak 20 yıl dediklerini varsayalım. Yani ortalama düşünce—YZ uzmanlarının dünyasının tam merkezindeki düşünce—, YSZ teline takılacağımız en gerçekçi tahminin [YGZ için 2040 tahmini + bizim YGZ-YSZ geçişi için 20 yıl varsayımımız] = 2060 olduğu yönünde.
Tabii ki yukarıdaki tüm istatistikler varsayım ve yalnızca YZ uzmanları topluluğunun merkezindeki fikri yansıtıyor. Ama yine de bize, bu konu hakkındaki en bilgili insanların büyük bir kısmının, dünyayı değiştirme potansiyeline sahip olabilecek YSZ'nin gelişi için 2060 yılının makul bir tahmin olduğunu söylüyor. Yalnızca 45 yıl sonrası.
Tamam, şimdi isterseniz yukarıdaki sorunun ikinci kısmına geçelim: Tele takıldığımızda, kalasın hangi tarafına düşeceğiz?
Süperzeka akıl almaz bir güce sahip olacak—bizim için kritik olan soru şu:
O gücün kontrolü kimde veya neyde olacak, ve istekleri ne olacak?
Bu sorunun cevabı YSZ'nin inanılmaz derecede muazzam bir gelişme mi, akıl almaz derecede kötü bir gelişme mi, yoksa arada bir şey mi olacağını belirleyecek.
Tabii ki uzmanlar topluluğu yine bu sorunun cevabı için hararetli bir tartışma içinde. Müller ve Bostrom'un anketi katılımcılardan YGZ'nin insanlığa muhtemel etkilerine bir ihtimal vermelerini istedi ve ortalama cevabın, etkilerin ya iyi ya da aşırı iyi olmasına %52 ihtimal verdiğini, kötü ya da aşırı kötü olmasına ise %31 ihtimal verdiğini gördü. Etkilerin nötr olmasına ise yalnızca %17 ihtimal verildi. Başka bir deyişle, bu konuyla ilgili en çok bilgiye sahip olan insanlar bunun bayağı büyük bir şey olacağından emin. Bu sayıların YGZ'nin varışı için olduğunu belirtmekte fayda var. Tahminimce, eğer soru YSZ hakkında olsaydı nötr yüzdesi çok daha az olurdu.
İyi vs. kötü sonuç kısmına dalmadan önce, bu sorunun “ne zaman olacak?” ve “iyi mi olacak kötü mü?” kısımlarını, çoğu uzmanın görüşlerini yansıtan bir grafikte birleştirelim.
Ana Taraf hakkında birazdan konuşacağız, ama önce—sizin olayınız nedir? Aslında olayınızın ne olduğunu biliyorum, çünkü bu konuyu araştırmaya başlamadan önce benim de olayımdı. Çoğu insanın bu konu hakkında pek düşünmüyor oluşunun bazı nedenleri:
- İlk iki bölümde de bahsettiğimiz gibi, gerçekçi olmayan YZ senaryolarına sahip filmler bize YZ'nin genel olarak ciddiye alınmayacak bir şey olduğunu hissettirerek ortalığı karıştırdı. James Barrat bu durumu, Hastalık Kontrol Merkezi (CDC) bize gelecekte görülebilecek bir vampir tehdidi için ciddi bir uyarı yayınlasa vereceğimiz tepkiye benzetiyor.
- Bilişsel önyargı nedeniyle, bir şeyin gerçek olduğuna kanıt görmeden inanmakta zorluk çekiyoruz. Eminim ki 1988'de bilgisayar uzmanları internetin ne kadar büyük bir şey olacağı hakkında devamlı konuşuyorlardı, ama insanlar internetin hayatlarını değiştireceklerini pek düşünmüyorlardı—ta ki değiştirene dek. Bunun sebeplerinden birisi bilgisayarların 1988'de pek bir şey yapamıyor oluşlarıydı, yani insanlar bilgisayarlarına bakıp “Gerçekten mi? Bu mu değiştirecek hayatımı?” diye düşünüyorlardı. Hayal güçleri, kişisel tecrübelerinin onlara bir bilgisayarın ne olduğunu öğrettikleriyle sınırlıydı. Bu da bilgisayarların ne olabileceklerini hayal etmelerini zorlaştırdı. Aynı şey şimdi YZ ile yaşanıyor. Büyük bir şey olacağını duyuyoruz, ama henüz gerçekleşmediği için ve günümüzdeki YZ ile olan kişisel tecrübelerimiz yüzünden, bunun hayatımızı önemli ölçüde değiştireceğine inanmakta güçlük çekiyoruz. Ve bu önyargılar, her gün kendilerimizle ilgilenmekteyken uzmanların bizim dikkatimizi çekmeye çalışırken karşılaştıkları şeyler.
- İnanıyor olsak bile—bugün kaç kere sonsuzluğun geriye kalan büyük bir kısmını var olmayarak geçireceğiniz gerçeği üzerinde düşündünüz? Çok değil, değil mi? Ortada bugün yapmakta olduğunuz başka şeylere kıyasla çok daha çarpıcı bir gerçek olmasına rağmen? Bunun sebebi beyinlerimizin günlük küçük şeylere odaklanmış olması, içinde bulunduğumuz durum ne kadar uzun vadeli ve çılgın olsa da. Yapımız böyle.
Bu iki yazının hedeflerinden biri de sizi Başka Şeyler Hakkında Düşünmeyi Seviyorum Tarafı'ndan çıkarmak ve uzman taraflarından birine yerleştirmek. Yukarıdaki karedeki iki kesik çizginin birleştiği yerde, tamamen kararsız bir halde duruyor olsanız bile.
Araştırmam sırasında bu konu hakkında düzinelerce farklı düşünceye denk geldim, ama hemen fark ettim ki çoğu insanın düşünceleri Ana Taraf diye adlandırdığım kısımda bir yere düşüyor. Özellikle de uzmanların dörtte üçünden fazlası, Ana Tarafın içinde bulunan iki altbölüme düşüyor.
Bir sonraki yazımızda, bu iki kampın bir ucundan girip diğer ucundan çıkacağız. Daha sonrasında ise bu konu üzerine inşa ederek, içeriği zenginleştirerek bilgilerimizi derinleştireceğiz.
İçeriklerimizin bilimsel gerçekleri doğru bir şekilde yansıtması için en üst düzey çabayı gösteriyoruz. Gözünüze doğru gelmeyen bir şey varsa, mümkünse güvenilir kaynaklarınızla birlikte bize ulaşın!
Bu içeriğimizle ilgili bir sorunuz mu var? Buraya tıklayarak sorabilirsiniz.
İçerikle İlgili Sorular
- Yapay Zeka Bilgisayar Bilimleri anlamında doygunluğuna ulaştı mı?
- Süper zeka makinenin anlattıklarını anlayamayacağız belki ama bir şempanzeden farklı olarak anlayamayacağımızın farkında olacak mıyız?
- Eğer YSZ'nın zekası tecrübe ve bilgi temelli olmadan otomatik şekilde çok hızlı gelişirse her anını az önce ne kadar da aptaldım demekle geçirmez mi?
- 23
- 18
- 13
- 7
- 6
- 5
- 5
- 5
- 2
- 2
- 1
- 1
- Çeviri Kaynağı: Wait But Why? | Arşiv Bağlantısı
- N. Bostrom. (2014). Superintelligence: Paths, Dangers, Strategies. ISBN: 0199678111. Yayınevi: Oxford University Press.
- J. Barrat. (2013). Our Final Invention: Artificial Intelligence And The End Of The Human Era. ISBN: B00CQYAWRY. Yayınevi: Thomas Dunne Books.
- R. Kurzweil. (2006). The Singularity Is Near: When Humans Transcend Biology. ISBN: 0143037889. Yayınevi: Penguin Books.
- N. J. Nilsson. (2009). The Quest For Artificial Intelligenc. ISBN: 0521122937. Yayınevi: Cambridge University Press.
- S. Pinker, et al. (2014). How The Mind Works. ISBN: 1491514965. Yayınevi: Brilliance Audio.
- V. Vinge. The Coming Technological Singularity: How To Survive In The Post-Human Era. (1 Ocak 1993). Alındığı Tarih: 2 Temmuz 2019. Alındığı Yer: SDSU | Arşiv Bağlantısı
- E. Davis. (2014). Ethical Guidelines For A Superintelligence. NYU Department of Computer Science, sf: 1-5. | Arşiv Bağlantısı
- N. Bostrom. How Long Before Superintelligence?. (12 Mart 2008). Alındığı Tarih: 2 Temmuz 2019. Alındığı Yer: Nick Bostrom | Arşiv Bağlantısı
- V. C. Müller, et al. Future Progress In Artificial Intelligence: A Survey Of Expert Opinion. (1 Ocak 2014). Alındığı Tarih: 2 Temmuz 2019. Alındığı Yer: Nick Bostrom | Arşiv Bağlantısı
- M. Y. Vardi. (2012). Artificial Intelligence: Past And Future. Communications of the ACM, sf: 5. | Arşiv Bağlantısı
- N. Bostrom. Nick Bostrom On Superintelligence. (1 Aralık 2014). Alındığı Tarih: 2 Temmuz 2019. Alındığı Yer: EconTalk | Arşiv Bağlantısı
- R. Roberts. Bostrom Follow-Up. (2 Temmuz 2019). Alındığı Tarih: 2 Temmuz 2019. Alındığı Yer: EconTalk | Arşiv Bağlantısı
- S. Armstrong, et al. (2012). How We’re Predicting Ai—Or Failing To. Beyond AI: Artificial Dreams, sf: 52-75. | Arşiv Bağlantısı
- S. Russell, et al. (2009). Artificial Intelligence: A Modern Approach. ISBN: 0136042597. Yayınevi: Pearson.
- G. Marcus. Hyping Artificial Intelligence, Yet Again. (31 Aralık 2013). Alındığı Tarih: 2 Temmuz 2019. Alındığı Yer: The New Yorker | Arşiv Bağlantısı
- S. Pinker. (2019). Could A Computer Ever Be Conscious?. University of Manchester, sf: 1-3. | Arşiv Bağlantısı
- C. Shulman. (2010). Basic Ai Drives And Catastrophic Risks. The Singularity Institute. | Arşiv Bağlantısı
- World Economic Forum. (Rapor, 2015). Global Risks 2015. Not: http://www3.weforum.org/docs/WEF_Global_Risks_2015_Report15.pdf.
- J. R. Searle. What Your Computer Can’t Know. (9 Ekim 2014). Alındığı Tarih: 2 Temmuz 2019. Alındığı Yer: The New York Review of Books | Arşiv Bağlantısı
- J. Lanier. One Half A Manifesto. (11 Ekim 2000). Alındığı Tarih: 2 Temmuz 2019. Alındığı Yer: Edge | Arşiv Bağlantısı
- B. Joy. Why The Future Doesn't Need Us. (4 Ocak 2000). Alındığı Tarih: 2 Temmuz 2019. Alındığı Yer: Wired | Arşiv Bağlantısı
- P. Allen, et al. The Singularity Isn't Near. (12 Ekim 2011). Alındığı Tarih: 2 Temmuz 2019. Alındığı Yer: MIT Technology Review | Arşiv Bağlantısı
- R. Kurzweil. Don't Underestimate The Singularity. (19 Ekim 2011). Alındığı Tarih: 2 Temmuz 2019. Alındığı Yer: MIT Technology Review | Arşiv Bağlantısı
- S. Hawking, et al. Transcending Complacency On Superintelligent Machines. (19 Nisan 2014). Alındığı Tarih: 2 Temmuz 2019. Alındığı Yer: HuffPost | Arşiv Bağlantısı
- H. L. Dreyfus. (1992). What Computers Still Can't Do: A Critique Of Artificial Reason. ISBN: 0262540673. Yayınevi: MIT Press.
- S. Armstrong. (2014). Smarter Than Us: The Rise Of Machine Intelligence. ISBN: B00IB4N4KU. Yayınevi: Machine Intelligence Research Institute.
Evrim Ağacı'na her ay sadece 1 kahve ısmarlayarak destek olmak ister misiniz?
Şu iki siteden birini kullanarak şimdi destek olabilirsiniz:
kreosus.com/evrimagaci | patreon.com/evrimagaci
Çıktı Bilgisi: Bu sayfa, Evrim Ağacı yazdırma aracı kullanılarak 04/12/2024 20:36:19 tarihinde oluşturulmuştur. Evrim Ağacı'ndaki içeriklerin tamamı, birden fazla editör tarafından, durmaksızın elden geçirilmekte, güncellenmekte ve geliştirilmektedir. Dolayısıyla bu çıktının alındığı tarihten sonra yapılan güncellemeleri görmek ve bu içeriğin en güncel halini okumak için lütfen şu adrese gidiniz: https://evrimagaci.org/s/447
İçerik Kullanım İzinleri: Evrim Ağacı'ndaki yazılı içerikler orijinallerine hiçbir şekilde dokunulmadığı müddetçe izin alınmaksızın paylaşılabilir, kopyalanabilir, yapıştırılabilir, çoğaltılabilir, basılabilir, dağıtılabilir, yayılabilir, alıntılanabilir. Ancak bu içeriklerin hiçbiri izin alınmaksızın değiştirilemez ve değiştirilmiş halleri Evrim Ağacı'na aitmiş gibi sunulamaz. Benzer şekilde, içeriklerin hiçbiri, söz konusu içeriğin açıkça belirtilmiş yazarlarından ve Evrim Ağacı'ndan başkasına aitmiş gibi sunulamaz. Bu sayfa izin alınmaksızın düzenlenemez, Evrim Ağacı logosu, yazar/editör bilgileri ve içeriğin diğer kısımları izin alınmaksızın değiştirilemez veya kaldırılamaz.
This work is an exact translation of the article originally published in Wait But Why?. Evrim Ağacı is a popular science organization which seeks to increase scientific awareness and knowledge in Turkey, and this translation is a part of those efforts. If you are the author/owner of this article and if you choose it to be taken down, please contact us and we will immediately remove your content. Thank you for your cooperation and understanding.