Büyük Dil Modelleri ve Yapay Genel Zekâ: İnsan Seviyesinde Zekâya Giden Yolda Neredeyiz?
Büyük Dil Modelleri Muhtemelen Yapay Genel Zekâya Yol Açmayacak! Ancak Bu, Yapay Genel Zekânın Çok Uzakta Olduğu Anlamına Gelmiyor!
OpenAI, Eylül 2024'te cüretkâr bir vaatle ortaya çıktı. ChatGPT'nin arkasındaki şirket, en yeni büyük dil modelleri (İng: "LLMs") dizisi olan o1'i, "yeni bir yapay zekâ yetenek düzeyi" sunan bir teknoloji olarak tanıttı.[1]
Bu duyuru, on yıllardır süregelen bir tartışmayı da yeniden alevlendirdi: Bir makinenin, insan beyninin üstesinden gelebildiği tüm bilişsel görevleri yerine getirebileceği güne ne kadar kaldı? Bir yapay zekâ sistemi ne zaman bir görevden diğerine genelleme, soyut akıl yürütme, planlama yapabilecek ve dünyanın hangi yönlerinin inceleyip öğrenmeye değer olduğuna karar verebilecek? Yapay genel zekâ (İng: "AGI") olarak adlandırılan böyle bir sistem; iklim değişikliği, pandemiler, kanser, Alzheimer ve diğer hastalıklar için tedaviler gibi çetin sorunları ele alabilecek düzeyde olabilir. Ancak böylesine muazzam bir güç, belirsizlikleri de beraberinde getirecek ve insanlık için çeşitli ve büyük riskler de oluşturacaktır.
Derin öğrenme ve yapay sinir ağları üzerine yaptığı öncü çalışmalar ile bilinen (bu çalışmalarından dolayı "modern yapay zekânın/derin öğrenmenin babası" olarak adlandırılmaktadır), bilgisayar bilimlerinde dünyanın en çok atıfta bulunulan, 2018 ACM A.M. Turing Ödülü sahibi bilgisayar bilimci ve yapay zekâ uzmanı Yoshua Bengio, bu konuda şöyle söylüyor:
Yapay zekânın kötüye kullanılması ya da üzerindeki kontrolün yitirilmesi nedeniyle kötü şeyler yaşanabilir.
Son birkaç yılda büyük dil modellerinde yaşanan devrim, yapay genel zekânın çok yakın bir gelecekte ortaya çıkabileceğine dair spekülasyonları da güçlendirmiştir. Fakat bazı yapay zekâ araştırmacılarına göre büyük dil modellerinin inşa edilme ve eğitilme şekilleri, tek başlarına yapay genel zekâya ulaşılması için yeterli görülmemektedir. Bengio, hâlâ "eksik parçaların" olduğunu söylemektedir.
Bugün, yapay genel zekâ hakkındaki sorular her zamankinden daha çok ilgi görmektedir. Arizona Eyalet Üniversitesi'nden bilgisayar bilimci Subbarao Kambhampati, şöyle söylüyor:
Hayatımın büyük bir bölümünde, yapay genel zekâdan bahsedenlerin çılgın olduklarını düşünürdüm. Şimdi ise herkes yapay genel zekâyı konuşuyor. Herkesin çılgın olduğunu söyleyemezsiniz.
Yapay Genel Zekâ Tartışmalarının Dönüşümü
"Yapay genel zekâ" ifadesi, ilk kez 2007 yılında yapay zekâ araştırmacıları Ben Goertzel ve Cassio Pennachin'in editörlüğünü üstlendiği aynı isimli kitabın yayınlanmasıyla popüler kültüre girdi. Bu kavramın tam anlamı belirsizliğini korusa da kabaca, insan benzeri akıl yürütme ve genelleme becerilerine sahip bir yapay zekâ sistemine işaret etmektedir. Tanımdaki muğlaklıklara rağmen, yapay genel zekâya henüz ulaşılmadığı açıktır. Örneğin, Google DeepMind'ın masa oyunu Go oynamak üzere geliştirdiği yapay zekâ modeli AlphaGo, dünyadaki en iyi insan oyuncuları yenmektedir.[3] Ancak bu insanüstü yetenekler son derece dar kapsamlıdır, çünkü modelin yapabildiği tek şey Go oynamaktır.
Ne var ki, büyük dil modellerinin yeni yetenekleri bu durumu kökten değiştirebilir. Büyük dil modellerinin insan beyni gibi geniş bir beceri yelpazesini başarabildiği, bazı araştırmacıları bu modellerin bir tür yapay genel zekâ formuna yakın olduğuna, hatta belki de şimdiden bu forma ulaşıldığına inanmaya sevk etti.[4], [5]
Büyük Dil Modellerinin Temel Yapısı ve Eğitimi
Büyük dil modellerinin bu yeteneklerinin genişliği özellikle şaşırtıcıdır, çünkü araştırmacılar büyük dil modellerinin bunu nasıl başardığını sadece kısmen anlayabilmektedir. Büyük dil modeli, beyinden esinlenen ve yapay nöron katmanlarından oluşan bir sinir ağını ifade etmektedir; bu yapay nöronlar arasındaki bağlantıların gücünü gösteren ayarlanabilir parametreler bulunmaktadır.
OpenAI'nin o1 modeli, Anthropic'in Claude modeli ve Google'ın Gemini'si gibi mevcut en güçlü büyük dil modelleri, eğitimleri esnasında sonraki belirteci (İng: "token") tahmin etme yöntemine dayanmaktadır. Burada model, metin örneklerini tekrar ve tekrar alır. Bu metinler, sözcük veya karakter kümelerini temsil eden belirteçlere bölünür. Bir dizinin son belirteci gizlenir veya "maskelenir" ve modelden bu belirteci tahmin etmesi istenir. Eğitim algoritması daha sonra tahmini gerçek değerle karşılaştırır ve bir sonraki sefer daha iyi bir tahminde bulunmasını sağlamak için modelin parametrelerinde ayarlama yapar.
Bu süreç; genellikle milyarlarca dil verisi örneği, bilimsel metin ve kod kullanılarak sürdürülür. Model, maskelenen belirteçleri güvenilir şekilde tahmin edebilir hâle gelene kadar bu süreç devam eder. Güvenilir tahminler yapabilme aşamasına gelindiğinde ise modelin parametreleri, eğitildiği veri setinin istatistiksel yapısını ve içindeki bilgiyi "yakalamış" olur. Bu şekilde parametreler sabitlenir ve birçok model, yeni verilerle veya "istem/komutlarla" karşılaştığında, daha önce eğitim verilerinde verilmemiş olsa bile yeni belirteçleri tahmin edebilir. Bu aşamaya "çıkarım" (İng: "Inference") adı verilir.
"Transformer" (Tr: "Dönüştürücü") adı verilen sinir ağı mimarisinin kullanılması büyük dil modelllerini önceki başarıların ötesine taşımıştır. Transformer, modelin bir örnek metin içinde birbirinden çok uzakta bulunan belirteçlerin birbirini güçlü şekilde etkilediğini öğrenmesini sağlar. Bu büyük dil modellerine, insanlarda olduğu gibi dildeki bağlamı yakalama imkânı sağlar. Bu yaklaşım, doğal dilde anlatılan problemleri çözebilecek bilgisayar programları üretmekten akademik makaleleri özetlemeye ve matematik sorularına cevap vermeye kadar geniş bir bağlamda son derece başarılı olmuştur.
Aslında maddi destek istememizin nedeni çok basit: Çünkü Evrim Ağacı, bizim tek mesleğimiz, tek gelir kaynağımız. Birçoklarının aksine bizler, sosyal medyada gördüğünüz makale ve videolarımızı hobi olarak, mesleğimizden arta kalan zamanlarda yapmıyoruz. Dolayısıyla bu işi sürdürebilmek için gelir elde etmemiz gerekiyor.
Bunda elbette ki hiçbir sakınca yok; kimin, ne şartlar altında yayın yapmayı seçtiği büyük oranda bir tercih meselesi. Ne var ki biz, eğer ana mesleklerimizi icra edecek olursak (yani kendi mesleğimiz doğrultusunda bir iş sahibi olursak) Evrim Ağacı'na zaman ayıramayacağımızı, ayakta tutamayacağımızı biliyoruz. Çünkü az sonra detaylarını vereceğimiz üzere, Evrim Ağacı sosyal medyada denk geldiğiniz makale ve videolardan çok daha büyük, kapsamlı ve aşırı zaman alan bir bilim platformu projesi. Bu nedenle bizler, meslek olarak Evrim Ağacı'nı seçtik.
Eğer hem Evrim Ağacı'ndan hayatımızı idame ettirecek, mesleklerimizi bırakmayı en azından kısmen meşrulaştıracak ve mantıklı kılacak kadar bir gelir kaynağı elde edemezsek, mecburen Evrim Ağacı'nı bırakıp, kendi mesleklerimize döneceğiz. Ama bunu istemiyoruz ve bu nedenle didiniyoruz.
Düşünce Zinciri Yönlendirmesi
Ayrıca, model boyutları büyüdükçe yeni yetenekler de ortaya çıkmıştır. Bu da yapay genel zekânın, büyük dil modellerinin yalnızca daha da fazla büyütülmesiyle kendiliğinden belirebileceği ihtimalini gündeme getirdi. Bu yeni yeteneklerden biri de "düşünce zinciri" (İng: "Chain-of-Thought / CoT") yönlendirmesidir. Bu yaklaşım, büyük dil modellerine bir sorunu nasıl adım adım küçük parçalara bölerek çözeceğinin bir örneğini göstermek veya modeli adım adım "düşünerek" problemi çözmeye yönlendirmek anlamına gelir. Düşünce zinciri yönlendirmesi, büyük dil modellerinin daha önce çözemediği sorunları çözebilmesini sağlayabilir. Ancak bu yöntem görece küçük olan büyük dil modellerinde pek iyi çalışmamaktadır.
OpenAI'a göre düşünce zinciri yönlendirmesi, o1'in çalışma prensiplerine dâhil edilmiştir ve bu, modelin üstün başarısının ardındaki etmenlerden biridir. Eski bir Google yapay zekâ araştırmacısı olan ve kendi şirketini kurmak için Google'dan ayrılan Francois Chollet, o1 modelinin bir düşünce zinciri üreticisini barındırdığını düşünmektedir. Bu üretici, kullanıcı sorgusuna ilişkin birçok düşünce zinciri yönlendirmesi üretir ve içlerinden en iyisini ayırt eden bir mekanizma kullanır. Eğitim sürecinde o1, sadece sonraki belirteci tahmin etmek için değil; aynı zamanda belirli bir sorgu için en iyi düşünce zinciri yönlendirmesini seçmek üzere de eğitilmiştir. OpenAI'ın iddiasına göre bu düşünce zincirine dayalı akıl yürütme yeteneği, o1'in gelişmiş sürümü olan o1-preview'in, Uluslararası Matematik Olimpiyatları'nın eleme sınavındaki soruları %83'lük bir doğruluk oranı ile cevaplayabilmesini açıklamaktadır.[6] Karşılaştırmak gerekirse, şirketin bir önceki en güçlü büyük dil modeli olan GPT-4o aynı sınavda sadece %13 başarı oranı göstermişti.
Büyük Dil Modellerinin Sınırları ve Eksik Parçalar
Ancak Kambhampati ve Chollet'e göre o1, tüm bu karmaşıklığına rağmen bir yapay genel zekâ değildir. Örneğin Kambhampati'nin araştırma ekibi, planlama gerektiren görevlerde o1'in 16 adım gerektiren işlerde övgüye değer performans sergilediğini; ancak adım sayısı 20 ile 40 arasına çıktığında performansının hızla düştüğünü göstermiştir.[7]
Chollet de benzer sınırlamalarla karşılaşmıştır. Yapay genel zekâya giden yoldaki ilerlemeyi ölçmek için o1-preview'i tasarladığı bir soyut akıl yürütme ve genelleme testine tâbi tutmuştur ve model başarılı bir sonuç gösterememiştir.[8] Bu test, bazı görsel yapbozları içermekteydi. Testteki soruların çözümü, insanlar için kolay olan bir şeyi gerektirmekteydi: Örnekleri inceleyerek soyut bir kural çıkarmak ve benzer bir yapbozun yeni örneklerini bu kural ile çözmek.
Chollet, ne kadar büyük olursa olsun büyük dil modellerinin, öğrendikleri bilgileri yeni görevlere uyarlamak için gerekli olarak görülen "öğrenilenleri karmaşık biçimlerde yeniden birleştirme" yeteneğinden yoksun olduklarını belirtmektedir. Chollet, şöyle söylüyor:
Büyük dil modelleri, gerçek anlamda yeniliklere uyum sağlayamaz; çünkü bilgilerini alıp yeni bir bağlama uygun biçimde oldukça karmaşık bir yeniden kombinasyona tabi tutma becerisine sahip değillerdir.
Büyük Dil Modelleri Yapay Genel Zekâyı Sağlayabilir mi?
Büyük dil modellerinin lehine olan bir nokta, bu modellerin temelinde yatan transformer mimarisinin metin dışında görüntü ve ses gibi başka tür verileri de işleyip istatistiksel kalıplarını bulabilmesidir. Burada tek koşul, bu verilerin uygun şekilde belirteçlenebilmesidir (İng: "tokenization"). New York Üniversitesi'nden Andrew Wilson ve araştırma ekibi, bunun nedeninin farklı veri türlerinin ortak bir özelliği paylaşması olabileceğini göstermiştir: Bu veri setlerinin "Kolmogorov karmaşıklığı" düşüktür; yani onları üretmek için gereken en kısa bilgisayar programının uzunluğu kısadır.[9]
Araştırmacılar; ayrıca transformerların, Kolmogorov karmaşıklığı düşük olan verilerdeki kalıpları öğrenmeye çok uygun olduğunu ve modelin boyutu arttıkça bu uygunluğun da arttığını göstermişlerdir. Transformerlar geniş bir olasılıklar alanını modelleyebilir; bu da eğitimde doğru çözümleri keşfetme şansını artırır. Bu "ifade gücü", model boyutuyla birlikte artar. Wilson'a göre bunlar "evrensel öğrenme" için gerekli bazı bileşenlerdir. Wilson, her ne kadar yapay genel zekânın şu anda erişilebilir olmadığını düşünse de, büyük dil modellerinin ve diğer transformer tabanlı yapay zekâ sistemlerinin yapay genel zekâ benzeri bir davranışın bazı temel özelliklerine sahip olduğunu söylemektedir.
Buna karşın, transformer tabanlı büyük dil modellerinin sınırları olduğuna dair de işaretler mevcuttur. Başlangıç olarak, modelleri eğitmek için gerekli olan veri tükenmektedir. ABD merkezli Epoch AI enstitüsündeki araştırmacılar, halka açık olan mevcut metin verilerinin 2026 ile 2032 arasında tükeneceğini tahmin etmektedir.[10] Ayrıca, büyük dil modelleri daha da büyüdükçe elde edilen kazançların eskisi kadar büyük olmadığına dair göstergeler bulunmaktadır. Bu, verilerdeki yeniliğin azalmasından ya da başka bir sebepten kaynaklanıyor olabilir. Eğer ki sebep, veri yeniliğinin azalması dışında bir şeyse bu büyük dil modellerinin geleceği için kötüye işaret olabilir.
Google DeepMind'dan araştırma başkan yardımcısı Raia Hadsell başka bir soruna dikkat çekmektedir: Güçlü transformer tabanlı büyük dil modelleri, sonraki belirteci tahmin etmek üzere eğitilir ancak Hadsell bu tek odak noktasının yapay genel zekâya ulaşmak için yeterli olmayacağını savunmaktadır. Hadshell, bunun yerine, modellerin çözümleri anında veya büyük parçalar hâlinde üretmesini sağlamanın bizi yapay genel zekâya daha çok yakınlaştırabileceğini düşünmektedir. Bu tür modelleri inşa etmeye yarayacak algoritmalar, OpenAI'nin DALL-E'si gibi büyük dil modeli olmayan sistemlerde zaten çalışmaktadır. DALL-E, doğal dil betimlemelerine yanıt olarak gerçekçi ve bazen de tuhaf görüntüler üretebilmektedir. Ancak DALL-E, büyük dil modellerinin geniş yetenek yelpazesine sahip değildir.
Dünya Modelleri ve İçsel Temsillerin Önemi
Sinirbilimciler, yapay genel zekâya ulaşmak için ne tür atılımlara ihtiyaç olduğuna dair sezgisel bir fikir sunmaktadır. Sinirbilimciler, insan zekâsının temelinde beynin bir "dünya modeli" inşa edebilme becerisinin yattığını savunmaktadır. Bu dünya modeli, çevremizi temsil eder ve farklı eylem yollarını hayal etmeye, sonuçlarını tahmin etmeye; dolayısıyla planlama ve akıl yürütmeye olanak tanır. Aynı zamanda, bir alanda öğrenilen becerilerin yeni görevlere genelleştirilmesine de imkân verir; çünkü beyin farklı senaryoları simüle edebilir.
Bazı raporlar, büyük dil modellerinde ilkel dünya modellerinin ortaya çıktığına dair bulgular sunmaktadır. Örneğin; MIT'den Wes Gurnee ve Cambridge'den Max Tegmark tarafından yapılan bir çalışmada, yaygın olarak kullanılan açık kaynaklı bir büyük dil modeli ailesinin, içine ABD ve New York ile ilgili bilgiler konulduğunda, sistemin içsel olarak bu yerlerin bir temsilini öğrendiği öne sürülmüştür.[11] Ancak diğer araştırmacılar, X (eski adıyla Twitter) üzerinden, modelin bu dünya modelini simülasyon yapmak veya nedensel ilişkiler öğrenmek için kullandığına dair bir kanıt olmadığını söylemişlerdir.
Başka bir çalışmada ise Harvard Üniversitesi'nden Kenneth Li ve meslektaşları, Othello adlı masa oyununun oyuncu hamleleri ile eğitilen görece küçük bir büyük dil modelinin, tahtanın durumunun içsel bir temsiline sahip olduğunu ve bu sayede bir sonraki doğru hamleyi başarılı bir şekilde tahmin ettiği sonucuna ulaşmışlardır.[12]
Bununla birlikte, günümüz yapay zekâ sistemlerinin öğrendiği dünya modellerinin güvenilmez olabileceğini gösteren bulgular da bulunmaktadır. Bir çalışmada, Harvard Üniversitesi'nden bilgisayar bilimci Keyon Vafa ve meslektaşları, New York Manhattan'daki taksi yolculuklarındaki dönüşlerin devasa bir veri setini kullanarak, transformer mimarisindeki bir modeli bir sonraki dönüşü tahmin etmesi için eğitti ve model, neredeyse %100 doğruluk oranında tahminde bulunabilmiştir.[13]
Araştırmacılar, modelin ürettiği dönüşleri incelediğinde modelin, kendi içsel haritasını oluşturduğunu gördüler. Ancak bu harita Manhattan'a pek benzemiyordu! Model, "imkânsız fiziksel yönelimler ve bazı sokakların üstünden geçen üstgeçitler" içeren bir temsil oluşturmuştu. Araştırmacılar, modelin oluşturduğu harita temsilinin tutarsız bir yapıya sahip olduğunu belirtmektedir. Model, her ne kadar bazı navigasyon görevlerinde iyi performans gösterse de; araştırmacılar veri setini, eğitim verilerinde olmayan beklenmedik sapmalarla değiştirdiğinde model bir sonraki dönüşü tahmin edememiştir. Bu, modelin yeni durumlara uyum sağlayamadığını göstermektedir.
İçsel Geri Bildirim Mekanizmaları
Google DeepMind'da yapay genel zekâ araştırma ekibinden Dileep George, şöyle söylüyor:
Günümüzdeki büyük dil modellerinin eksik kaldığı önemli bir özellik, içsel geri bildirim mekanizmalarıdır.
İnsan beyni, nöron katmanları arasında çift yönlü bilgi akışına izin veren çok sayıda geri besleme bağlantısına sahiptir. Bu sayede bilgi, duyusal sistemden beynin üst katmanlarına doğru akarak çevreye dair dünya modelleri oluşturulur. Aynı zamanda, dünya modellerinden elde edilen bilgi de aşağı doğru akarak ek duyusal bilgilerin toplanmasını yönlendirir. Bu çift yönlü süreçler beynin algı oluşturmasına, olası eylem yollarını simüle etmesine ve planlama yapmasına imkân tanır.
Güncel büyük dil modellerinde ise geri bildirim, sadece sonradan eklenmiş bir niteliktir. Örneğin o1 modelindeki içsel düşünce zinciri yönlendirmesi, bir tür geri bildirim bağlantısıdır. Ancak Chollet'in o1 üzerinde yaptığı testte görüldüğü üzere, bu yaklaşım kusursuz bir soyut akıl yürütmeyi garanti etmemektedir.
Kambhampati ve diğer araştırmacılar, büyük dil modellerine harici modüller eklemeyi de denemektedir. Ekledikleri "doğrulayıcı" modüller, büyük dil modelinin belirli bir bağlamdaki yanıtlarını kontrol etmektedir (örneğin, uygulanabilir seyahat planları oluşturma) ve eğer yanıt yeterince iyi değilse, büyük dil modeline sorguyu tekrar işleme talimatı vermektedir. Kambhampati'nin ekibi, doğrulayıcı modüllerle desteklenen büyük dil modellerinin, temel büyük dil modellerine göre çok daha iyi seyahat planları ürettiğini göstermiştir.[14] Ancak sorun şudur ki, her görev için özel bir doğrulayıcı tasarlamak gerekmektedir. Kambhampati, evrensel bir doğrulayıcı olmadığını söylemektedir. Eğer yapay genel zekâ bu yaklaşımı kullanacaksa, insanların soyut kuralları kullanarak yeni görevlerde bile mantıklı düşünmesinde olduğu gibi, kendi doğrulayıcılarını yeni durumlara göre inşa edebilmelidir.
Farklı Mimari ve Yeni Yaklaşım Arayışı
Modern yapay zekânın önde gelen önemli isimlerinden Bengio gibi araştırmacılar, günümüzün transformer tabanlı büyük dil modellerinden farklı mimarilere sahip yapay zekâ sistemleri geliştirmeye çalışmaktadır. Örneğin; "üretici akış ağları" adını verdiği bir yaklaşım üzerinde çalışmakta olan Bengio, dünya modelleri oluşturarak bu modelleri akıl yürütme ve planlama için kullanacak modülleri eşzamanlı olarak öğrenebilecek tek bir yapay zekâ sistemi yaratmayı hedeflemektedir.[15]
Büyük dil modellerinin karşılaştığı diğer büyük bir engel de devasa miktarda veriye ihtiyaç duymalarıdır. University College London'dan teorik sinirbilimci Karl Friston, gelecekteki yapay zekâ sistemlerinin, dünya modelleri inşa etmek ve mantıklı tahminler üretmek için ne kadar veriye ihtiyaç duyduklarına kendilerinin karar vermesini sağlayarak sürecin daha verimli hâle getirilebileceğini öne sürmektedir. Böyle bir sistem, kendisine verilen tüm verileri tüketmek yerine çevreden alınan verileri seçici bir şekilde edinmeyi içermektedir. Friston, bunun bir tür "yapay zekâ ajanı" (İng: "AI Agent") veya özerkliğin bir işareti olduğunu ve yapay genel zekâ için gerekebileceğini söylemektedir. Friston, şöyle açıklıyor:
Bu tür özgün bir varlığı, büyük dil modellerinde veya üretken yapay zekâ sistemlerinde göremezsiniz. Herhangi bir düzeyde seçim yapabilen akıllı bir yapay varlık, bana kalırsa yapay genel zekâya giden yolda önemli bir adımdır.
Etkili dünya modelleri ve bütünleşik geri bildirim döngülerine sahip yapay zekâ sistemleri, aynı zamanda dış veriye de daha az bağımlı olabilir; çünkü kendi iç simülasyonlarını çalıştırarak veriler üretebilir, böylece varsayımsal senaryolar üretebilir ve bunları anlamak, akıl yürütmek ve planlamak için kullanabilir. Nitekim 2018'de, Google Brain'den David Ha ve Dalle Molle Yapay Zekâ Araştırma Enstitüsü'nden Jürgen Schmidhuber; yapay bir ortamın dünya modelini verimli bir şekilde inşa edebilen ve ardından bu modeli sanal arabaları yarıştırmayı öğrenmek için kullanabilen yapay bir sinir ağı geliştirdiklerini rapor etmişlerdir.[16]
Güvenli Yapay Genel Zekâ İhtiyacı
Bu düzeyde özerkliğe sahip yapay zekâ sistemleri size ürkütücü geliyorsa, korkunuzda yalnız değilsiniz. Bengio, yapay genel zekâ inşa etme araştırmalarının yanı sıra, yapay zekâ sistemlerinin tasarım ve düzenleme aşamasında güvenlik unsurlarının entegrasyonunu da büyük önem vermektedir. Bengio, modellerin kendi davranışlarının güvenliğini garanti edebilmelerini sağlayacak eğitim yöntemlerine odaklanılması gerektiğini öne sürmektedir. Buna modelin belirlenmiş bir güvenlik sınırını ihlal etme olasılığını hesaplayacak ve eğer bu olasılık çok yüksekse eylemi reddederek durduracak mekanizmalar örnek verilebilir. Bengio; dünya devletlerinin ve Birleşmiş Milletler gibi uluslararası otoritelerin yapay zekâ güvenliğini sağlama konusunda yasal düzenlemeler getirmeleri; sektörü ve yapay zekâ araştırmalarını denetlemeleri konusunda aktif olarak çağrılarda bulunmaktadır. Bengio, şöyle söylüyor:
Bireylerin, şirketlerin, hatta ordunun yapay zekâyı toplum için güvenli olacak şekilde kullanmasını ve geliştirmesini sağlayacak demokratik bir sürece ihtiyacımız var.
Sonuç
Peki yapay genel zekâya ulaşmak mümkün mü? Bilgisayar bilimciler, aksi yönde düşünecek bir neden olmadığını; teorik bir engelin bulunmadığını belirtiyor. ABD New Mexico'daki Santa Fe Enstitüsü'nden bilgisayar bilimci Melanie Mitchell, şöyle söylüyor:
İnsanlar ve bazı diğer hayvanlar, oraya [zekâya] ulaşılabileceğinin bir kanıtıdır. Biyolojik sistemlerle yapay materyallerden oluşan sistemler arasında, ilke olarak yapay sistemlerin zeki olmasını engelleyecek bir fark bulunduğunu düşünmüyorum.
Yapay genel zekânın ulaşılabilir olduğu konusunda bir uzlaşma var gibi görünse de ne zaman ulaşılabileceği konusunda bir fikir birliği bulunmamaktadır. Kimi uzmanlar yapay genel zekânın sadece birkaç yıl uzakta olabileceğini, kimileri ise en az on yıl ve daha fazla uzakta olduğunu düşünmektedir. Çoğu uzman, yapay genel zekâya ulaşıldığında bunun tartışmaya yer kalmaksızın anlaşılacağını; çünkü dünyada büyük etkilerinin olacağını belirtmektedir. Chollet ise yapay genel zekânın bir "uyanma anından" ziyade kademeli bir şekilde gerçekleşeceğini tahmin etmektedir. Chollet, şöyle söylüyor:
Bana kalırsa yapay genel zekâ geldiğinde, [etkileri] düşünüldüğü kadar çarpıcı veya sarsıcı olmayacak. Tam potansiyeline ulaşması zaman alacak. Önce icat edilecek. Sonra ölçeklenecek ve uygulanacak. Dünyayı gerçekten değiştirmeye başlaması da ancak bu sayede olacak.
İçeriklerimizin bilimsel gerçekleri doğru bir şekilde yansıtması için en üst düzey çabayı gösteriyoruz. Gözünüze doğru gelmeyen bir şey varsa, mümkünse güvenilir kaynaklarınızla birlikte bize ulaşın!
Bu içeriğimizle ilgili bir sorunuz mu var? Buraya tıklayarak sorabilirsiniz.
Soru & Cevap Platformuna Git- 1
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- Türev İçerik Kaynağı: Nature | Arşiv Bağlantısı
- ^ OpenAI. Introducing Openai O1-Preview. (12 Eylül 2024). Alındığı Tarih: 11 Aralık 2024. Alındığı Yer: OpenAI | Arşiv Bağlantısı
- N. Jones. (2024). ‘In Awe’: Scientists Impressed By Latest Chatgpt Model O1. Springer Science and Business Media LLC, sf: 275-276. doi: 10.1038/d41586-024-03169-9. | Arşiv Bağlantısı
- ^ T. Chouard. (2016). The Go Files: Ai Computer Wraps Up 4-1 Victory Against Human Champion. Springer Science and Business Media LLC. doi: 10.1038/nature.2016.19575. | Arşiv Bağlantısı
- ^ S. Bubeck, et al. (2023). Sparks Of Artificial General Intelligence: Early Experiments With Gpt-4. ArXiV. | Arşiv Bağlantısı
- ^ B. A. Y. Arcas. Artificial General Intelligence Is Already Here. (10 Ekim 2023). Alındığı Tarih: 11 Aralık 2024. Alındığı Yer: Noema | Arşiv Bağlantısı
- ^ OpenAI. Learning To Reason With Llms. (12 Eylül 2024). Alındığı Tarih: 11 Aralık 2024. Alındığı Yer: OpenAI | Arşiv Bağlantısı
- ^ K. Valmeekam, et al. (2024). Llms Still Can't Plan; Can Lrms? A Preliminary Evaluation Of Openai's O1 On Planbench. ArXiV. | Arşiv Bağlantısı
- ^ ARC Prize. Openai O1 Results On Arc-Agi-Pub. Alındığı Tarih: 11 Aralık 2024. Alındığı Yer: ARC Prize | Arşiv Bağlantısı
- ^ M. Goldblum, et al. (2023). The No Free Lunch Theorem, Kolmogorov Complexity, And The Role Of Inductive Biases In Machine Learning. ArXiV. | Arşiv Bağlantısı
- ^ P. Villalobos, et al. (2022). Will We Run Out Of Data? Limits Of Llm Scaling Based On Human-Generated Data. ArXiV. | Arşiv Bağlantısı
- ^ W. Gurnee, et al. (2023). Language Models Represent Space And Time. ArXiV. | Arşiv Bağlantısı
- ^ Google Scholar. Proc. Eleventh International Conference On Learning Representations (Iclr, 2023).. (1 Ocak 2023). Alındığı Tarih: 11 Aralık 2024. Alındığı Yer: Google Scholar | Arşiv Bağlantısı
- ^ K. Vafa, et al. (2024). Evaluating The World Model Implicit In A Generative Model. ArXiV. | Arşiv Bağlantısı
- ^ A. Gundawar, et al. (2024). Robust Planning With Llm-Modulo Framework: Case Study In Travel Planning. ArXiV. | Arşiv Bağlantısı
- ^ Y. Bengio. Scaling In The Service Of Reasoning & Model-Based Ml - Yoshua Bengio. (21 Mart 2023). Alındığı Tarih: 11 Aralık 2024. Alındığı Yer: Yoshua Bengio | Arşiv Bağlantısı
- ^ D. Ha, et al. (2018). World Models. ArXiV. doi: 10.5281/zenodo.1207631. | Arşiv Bağlantısı
- C. Biever. (2023). Chatgpt Broke The Turing Test — The Race Is On For New Ways To Assess Ai. Springer Science and Business Media LLC, sf: 686-689. doi: 10.1038/d41586-023-02361-7. | Arşiv Bağlantısı
- C. Stokel-Walker, et al. (2023). What Chatgpt And Generative Ai Mean For Science. Springer Science and Business Media LLC, sf: 214-216. doi: 10.1038/d41586-023-00340-6. | Arşiv Bağlantısı
- H. Pearson. (2024). Can Ai Review The Scientific Literature — And Figure Out What It All Means?. Springer Science and Business Media LLC, sf: 276-278. doi: 10.1038/d41586-024-03676-9. | Arşiv Bağlantısı
Evrim Ağacı'na her ay sadece 1 kahve ısmarlayarak destek olmak ister misiniz?
Şu iki siteden birini kullanarak şimdi destek olabilirsiniz:
kreosus.com/evrimagaci | patreon.com/evrimagaci
Çıktı Bilgisi: Bu sayfa, Evrim Ağacı yazdırma aracı kullanılarak 15/01/2025 12:18:53 tarihinde oluşturulmuştur. Evrim Ağacı'ndaki içeriklerin tamamı, birden fazla editör tarafından, durmaksızın elden geçirilmekte, güncellenmekte ve geliştirilmektedir. Dolayısıyla bu çıktının alındığı tarihten sonra yapılan güncellemeleri görmek ve bu içeriğin en güncel halini okumak için lütfen şu adrese gidiniz: https://evrimagaci.org/s/19236
İçerik Kullanım İzinleri: Evrim Ağacı'ndaki yazılı içerikler orijinallerine hiçbir şekilde dokunulmadığı müddetçe izin alınmaksızın paylaşılabilir, kopyalanabilir, yapıştırılabilir, çoğaltılabilir, basılabilir, dağıtılabilir, yayılabilir, alıntılanabilir. Ancak bu içeriklerin hiçbiri izin alınmaksızın değiştirilemez ve değiştirilmiş halleri Evrim Ağacı'na aitmiş gibi sunulamaz. Benzer şekilde, içeriklerin hiçbiri, söz konusu içeriğin açıkça belirtilmiş yazarlarından ve Evrim Ağacı'ndan başkasına aitmiş gibi sunulamaz. Bu sayfa izin alınmaksızın düzenlenemez, Evrim Ağacı logosu, yazar/editör bilgileri ve içeriğin diğer kısımları izin alınmaksızın değiştirilemez veya kaldırılamaz.