Keşfedin, Öğrenin ve Paylaşın
Evrim Ağacı'nda Aradığın Her Şeye Ulaşabilirsin!
Paylaşım Yap
Tüm Reklamları Kapat
Tüm Reklamları Kapat

Yoshua Bengio: Yapay Zekâ Regüle Edilmezse Gelecek En Büyük Felaketimiz Olabilir!

Modern Yapay Zekânın Babası, Regüle Edilmemesi Halinde Yapay Zekânın İnsanlık İçin Varoluşsal Risk Doğuracağını Söylüyor!

12 dakika
687
Yoshua Bengio: Yapay Zekâ Regüle Edilmezse Gelecek En Büyük Felaketimiz Olabilir! MIT Technology Review
Tüm Reklamları Kapat

Yoshua Bengio, Kanadalı bilgisayar bilimci ve yapay zekâ uzmanıdır. Derin öğrenme ve yapay sinir ağları üzerine yaptığı öncü çalışmalarla bilinmektedir. Université de Montréal Bilgisayar Bilimi ve Operasyon Araştırmaları Bölümü'nde profesör olarak görev almaktadır. Ayrıca Montreal Öğrenme Algoritmaları Enstitüsü'nün (İng: "MILA") bilimsel direktörlüğünü yürütmektedir. Bengio, derin öğrenme sahasındaki çalışmalarından dolayı, diğer iki öncü bilgisayar bilimci ile birlikte "bilgisayar biliminin nobel ödülü" olarak da anılan prestijli 2018 ACM A.M. Turing Ödülü'nü almaya hak kazanmıştır.[1]

Bengio ve ödülü paylaştığı diğer iki isim (Geoffrey Hinton ve Yann LeCun), "Modern Yapay Zekânın Babaları" ve "Derin Öğrenmenin Babaları" olarak anılmaktadır. Bengio, 2018 Turing Ödülü'nün yanı sıra 2024 Nobel Fizik Ödülü'nü de almaya hak kazanan bilişsel bilimci Geoffrey Hinton'ın önermesiyle TIME Dergisi'nin Dünyanın En Etkili 100 Kişisi 2024 listesine dahil edilmiştir.[2] Bengio, Hinton ile birlikte Aralık 2024 itibarıyla bilgisayar bilimlerinde dünyanın en çok atıfta bulunulan bilim insanıdır.[3], [4], [5]

Bengio, özellikle GPT-3 gibi dönüştürücü yapay zekâ modellerinin çıkışının ardından yapay zekâdaki hızlı ilerlemelere yönelik olarak "yapay genel zekâ" (insan seviyesinde yapay zekâ) hakkında önemli güvenlik riskleri uyarılarında bulunmaya başlamıştır. Öyle ki, Temmuz 2023'de, GPT 4'ün piyasaya sürülmesinden yalnızca birkaç ay sonra, alanın önde gelen bir diğer önemli ismi olan Stuart Russell ile birlikte ABD Senatosu'nda yeminli resmi bir ifade vermiştir ve yapay zekâ güvenliğinin sağlanmasının önemini vurgulamıştır.[6], [7] Halen resmi kurum ve yetkililere yapay zekâ güvenliği konusunda uyarılarda bulunmaya devam etmektedir. Bununla birlikte Bengio, yapay zekâ güvenliğinin yasalarca düzenlenmesi ve teknoloji şirketlerinin yaptığı yapay zekâ araştırmalarının güvenliğinin devletler tarafından denetlenmesinin önemi konusunda basına demeçler vermekte ve bildiriler hazırlayıp imzalamaktadır.

Tüm Reklamları Kapat

Yoshua Bengio'ya göre yapay zekâ, insanlık için öngörülemeyen bazı riskler barındırmaktadır. Bengio, şu anda 30 ülkenin yanı sıra Avrupa Birliği ve Birleşmiş Milletler tarafından desteklenen Gelişmiş Yapay Zeka Güvenliğine Dair Uluslararası Bilimsel Rapor (İng: "International Scientific Report on the Safety of Advanced AI") Konseyi'nin başkanlık görevini yürütmektedir.[8] Bu konsey, gelişmiş yapay zekânın güvenliği hususunda danışmanlık vermeyi amaçlayan bir oluşumdur.

Yoshua Bengio ile Yapay Zekânın Geleceği Üzerine Röportaj

Aralık 2024'te yabancı popüler bilim platformu LiveScience, Londra'da düzenlenen "HowTheLightGetsIn" adlı bir bilim festivali etkinliğinde Yoshua Bengio ile bir video görüşme yapma fırsatı yakalamıştır. Bu görüşmede Bengio, makine zekâsının olasılığını ve gelişmekte olan yapay zekâ teknolojilerinin risklerini ve bunları düzenlemenin önemini tartışmaktadır. Röportajın metni aşağıdaki gibidir:

Soru: Yapay sinir ağlarının geliştirilmesinde olağanüstü bir rol oynadınız ancak şimdi bu teknolojilerin geliştirilmesine bir ara verilmesi çağrısında bulunuyorsunuz ve onları düzenlemenin yollarını araştırıyorsunuz. Hayatınızın eserine bir ara verilmesini gerektiren etken nedir?

Bengio: Kendi kilisenize (yani kendi araştırma alanınıza ve akademik komünitenize) karşı çıkmak zordur ancak eğer olaylara rasyonel olarak bakarsanız belli bir yapay zekâ seviyesine ulaştığımızda felaket sonuçlarının ortaya çıkma olasılığını inkâr etmenin bir yolu yoktur. Yapay zekâ bu noktaya varmadan önce, kötü senaryoların mümkün olduğunu biliyordum fakat sorunu çözeceğimizi düşünüyordum. Ancak çocuklarımı ve onların geleceğini düşünmek beni farklı yönde davranmaya itti. Yapay zekânın risklerini azaltmak için elimden geleni yapmak zorundaydım.

Tüm Reklamları Kapat

Soru: Yapay zekânın en kötü etkilerini azaltma konusunda bir sorumluluk hissettiğinizi söyleyebilir misiniz? Bu mesele omuzlarınızda bir yük oluşturuyor mu?

Bengio: Evet, bir sorumluluk hissediyorum. Bilimsel çalışmalarımdan dolayı kazandığım tanınırlığın sesime bir ağırlık kattığına inanıyorum ve bu nedenle konuşmam gerektiğini düşünüyorum. Bu konuya dahil olmamın bir diğer nedeni de eğer insanlara zarar vermeyecek bir yapay zekâ inşa edeceksek teknik çözümün daha büyük bir politik çözümün parçası olması gerekmesidir.

Bu sistemleri dilediği gibi kontrol edebilmek için şirketler de teknik çözümler uygulamak isteyecektir, ancak şu anda bu teknik çözümün (yapay genel zekânın hizalanması ve kontrolünün) nasıl geliştirileceğini bilmiyoruz. Şu anda, yapay zekâ insan seviyesine ulaştığında getireceği kâr için sektörde çok büyük bir beklenti var. Bu durum, çok zorlu bir pozisyonda olduğumuzu gösteriyor ve bunlara bir an önce bilimsel cevaplar bulmamız gerekiyor.

Sürekli kullandığım bir metafor var: İnsanlık olarak bir arabaya binmiş ve sisle kaplı bilmediğimiz bir yolda gidiyoruz. Dağlık bir yolda ilerliyor olabiliriz, sisin ardında çok tehlikeli bir patika olabilir fakat biz bunu yeterince açık göremiyoruz.

Evrim Ağacı'ndan Mesaj

Evrim Ağacı'nın çalışmalarına Kreosus, Patreon veya YouTube üzerinden maddi destekte bulunarak hem Türkiye'de bilim anlatıcılığının gelişmesine katkı sağlayabilirsiniz, hem de site ve uygulamamızı reklamsız olarak deneyimleyebilirsiniz. Reklamsız deneyim, sitemizin/uygulamamızın çeşitli kısımlarda gösterilen Google reklamlarını ve destek çağrılarını görmediğiniz, %100 reklamsız ve çok daha temiz bir site deneyimi sunmaktadır.

Kreosus

Kreosus'ta her 10₺'lik destek, 1 aylık reklamsız deneyime karşılık geliyor. Bu sayede, tek seferlik destekçilerimiz de, aylık destekçilerimiz de toplam destekleriyle doğru orantılı bir süre boyunca reklamsız deneyim elde edebiliyorlar.

Kreosus destekçilerimizin reklamsız deneyimi, destek olmaya başladıkları anda devreye girmektedir ve ek bir işleme gerek yoktur.

Patreon

Patreon destekçilerimiz, destek miktarından bağımsız olarak, Evrim Ağacı'na destek oldukları süre boyunca reklamsız deneyime erişmeyi sürdürebiliyorlar.

Patreon destekçilerimizin Patreon ile ilişkili e-posta hesapları, Evrim Ağacı'ndaki üyelik e-postaları ile birebir aynı olmalıdır. Patreon destekçilerimizin reklamsız deneyiminin devreye girmesi 24 saat alabilmektedir.

YouTube

YouTube destekçilerimizin hepsi otomatik olarak reklamsız deneyime şimdilik erişemiyorlar ve şu anda, YouTube üzerinden her destek seviyesine reklamsız deneyim ayrıcalığını sunamamaktayız. YouTube Destek Sistemi üzerinde sunulan farklı seviyelerin açıklamalarını okuyarak, hangi ayrıcalıklara erişebileceğinizi öğrenebilirsiniz.

Eğer seçtiğiniz seviye reklamsız deneyim ayrıcalığı sunuyorsa, destek olduktan sonra YouTube tarafından gösterilecek olan bağlantıdaki formu doldurarak reklamsız deneyime erişebilirsiniz. YouTube destekçilerimizin reklamsız deneyiminin devreye girmesi, formu doldurduktan sonra 24-72 saat alabilmektedir.

Diğer Platformlar

Bu 3 platform haricinde destek olan destekçilerimize ne yazık ki reklamsız deneyim ayrıcalığını sunamamaktayız. Destekleriniz sayesinde sistemlerimizi geliştirmeyi sürdürüyoruz ve umuyoruz bu ayrıcalıkları zamanla genişletebileceğiz.

Giriş yapmayı unutmayın!

Reklamsız deneyim için, maddi desteğiniz ile ilişkilendirilmiş olan Evrim Ağacı hesabınıza yapmanız gerekmektedir. Giriş yapmadığınız takdirde reklamları görmeye devam edeceksinizdir.

Peki ne yapacağız? Her şeyin bir şekilde yolunda gideceğini umarak tam hız ilerlemeye devam mı edeceğiz? Yoksa teknolojik çözümler mi arayacağız? Politik çözüm, ihtiyat ilkesini hayata geçirmektir: "Emin değilsen yavaşla." Burada teknik çözüm, sisin ötesini görmek için yöntemler geliştirmek ve arabamıza güvenlik önlemleri eklemektir.

Soru: Kısa ve uzun vadede makine öğreniminin insanlık için en büyük riskleri nelerdir?

Bengio: İnsanlar, yapay zekâya yönelik büyük risklerin hep bir bilimkurgu olduğunu zannederler ancak değiller. Kısa vadede, yapay zekânın ülkelerin seçim kampanyalarında kullanılmakta olduğunu görüyoruz.[9] Bu durum çok daha kötüleşecek. Yakın zamanda yapılan bir çalışma, ChatGPT-4'ün insanlardan çok daha iyi bir ikna kabiliyetine sahip olduğunu gösterdi.[10] Ki bu sadece ChatGPT-4, daha yeni sürümler daha da endişe verici olabilir. Ayrıca, bu sistemlerin terör gruplarına yardımcı olabileceği de görülmüştür. Yakın dönemde ChatGPT'nin o1 sürümünde, risk seviyesi düşükten orta seviyeye çıkarılmıştır.[11]

Daha ileri vadede, süper zekâ seviyesine ulaştığımızda iki büyük risk vardır. Birincisi, insan kontrolünün kaybıdır. Eğer genel zekâya sahip makinelerin doğası, bir tür kendini müdafaa hedefi içeriyorsa onları kapatmamızı engellemek için insanlığı yok etmeye çalışabilirler.

İkinci tehlike, eğer ilk senaryo gerçekleşmezse kişi ya da kurumların yapay genel zekânın gücünü kullanarak dünya çapında bir diktatörlük kurabilecek olmasıdır. Bu durum daha hafif ölçekte de yaşanabilir; bu bir spektrumdur. Ancak her durumda yapay genel zekâ, onu elinde bulunduracak olanlara muazzam nitelikte bir güç verecektir.

Soru: Avrupa Birliği bir yapay zekâ yasası çıkardı, ABD Başkanı Biden ise bir başkanlık kararnamesi yayımladı. Hükümetler bu risklere ne ölçüde doğru yanıt veriyor? Atılan adımlar doğru mu yoksa yanlış yönde midir?

Tüm Reklamları Kapat

Bengio: Bunlar doğru yönde atılan adımlar. Örneğin Biden'ın başkanlık kararnamesi, o aşamada Beyaz Saray'ın yapabileceği kadarıydı fakat şirketleri sistemlerinin test sonuçlarını paylaşmaya veya bu testleri yapmaya zorlamıyor. Bu, tamamen şirketlerin gönüllülüğüne kalmış bir durum. Bu gönüllülük unsurunu ortadan kaldırmamız gerekiyor. Şirketler gerçekten güvenlik planlarına sahip olmalı, test sonuçlarını açıklamalı ve toplumu koruma konusunda en ileri uygulama çerçevelerini takip etmiyorlarsa hesap vermeliler. Böyle bir yasal düzenleme önerisi, şu anda mevcut olanlar arasında en iyisi gibi görünüyor.

Soru: Şu anda yapay sinir ağları etkileyici uygulamalara sahip. Ancak gözetimsiz öğrenmede sorunlar yaşayabiliyorlar, eğitim verilerinde ender ortaya çıkan durumlara uyum sağlamada güçlük çekiyorlar ve muazzam miktarda veri tüketmeleri gerekiyor. Örneğin, sürücüsüz otomobillerde de gördüğümüz üzere bu kusurlar da kendi risklerini doğurmuyor mu?

Bengio: Öncelikle, sorunuzda düzeltilmesi gereken bir husus var: Bu sistemler gözetimsiz öğrenmede çok iyidir. Esas olarak onların eğitilme şekli budur. Onlara verilen tüm verileri işleyip anlamlandırarak asli görev verilmeden önce bir eğitime tabi tutulular. Bu gözetimsiz öğrenmedir.

Tüm Reklamları Kapat

Ne kadar veriye ihtiyaçları olduğuna gelince; evet, insanlardan daha fazla veriye ihtiyaçları var. Fakat evrimin, beyinlerimizde var olan bilişsel becerileri oluşturmak için çok daha fazla veri kullandığı konusunda da argümanlar var. Bu nedenle bir karşılaştırma yapmak zor.

Veri ihtiyacı konusunda iyileştirmeler yapılabileceğini düşünüyorum. Burada politika perspektifinden önemli olan nokta, büyük bir ilerleme kaydetmiş olmamızdır. İnsan zekâsıyla mevcut yapay zekâ yetenekleri arasında hâlâ büyük bir fark olduğu doğrudur fakat bu farkın kapanmasının ne kadar süreceği oldukça belirsizdir. Politika, yapay genel zekâya hızlı bir şekilde ulaşılabileceği ihtimaline, örneğin önümüzdeki 5 yıl içinde, hazırlıklı olmalıdır.

Soru: Veri konusuyla ilgili olarak GPT modellerinin kendi ürettikleri içerikleri tüketmeleri sonucunda "model çökmesi" yaşadıkları gösterildi. Siz süper zekâ seviyesine ulaşılması ve kontrolün kaybedilmesi tehlikesinden söz ettiniz ancak gülünç olabilecek bir distopik olasılık daha var: Biz yapay zekâya bağımlı hâle geliyoruz. Yapay zekâ; endüstrilerden işleri çekip alıyor, ardından kendisi geriliyor ve çöküyor, biz de geride kalan hasarı toparlamakla uğraşıyoruz. Bu konuda ne düşünüyorsunuz?

Bengio: Bu sistemlerin kendi ürettikleri verilerle eğitilmeleri nedeniyle çökmeleri konusunun önemli bir sorun olduğunu düşünmüyorum. Eğer sentetik veriyi akıllıca kullanacak olursanız, sistemlere sadece "veri üretin ve bununla kendinizi eğitin" demezsiniz. Bu, makine öğrenimi açısından anlamsız bir çaba olur.

Tüm Reklamları Kapat

Agora Bilim Pazarı
Sihirci Çırağı

** 2016 Blue Peter Kitap Ödülü ** 2015 İskoç Çocuk Kitabı Ödülü

Hiçbir Yer Dükkânı her an, her yerde karşınıza çıkabilir!

Labirenti andıran odalarıyla burası en uçuk hayallerinizi bile gerçeğe dönüştüren bir harikalar diyarı.
Bir odada kendinizi yıldızların arasında uçarken bulabilir, diğerinde yaşamış tüm insanların hayat hikâyeleriyle dolu Ruhlar Kütüphanesi’nde kaybolabilirsiniz.
Ancak tüm bunların elbette bir bedeli var.

Devamını Göster
₺224.00
Sihirci Çırağı

Sentetik veri kullanarak sistemler kendileriyle rekabet edebilecek hale getirilebilir ve bu sayede daha iyi kararlar almak için sentetik veri oluşturabilir. Bu sebeple bu konuda önemli bir sorun görmüyorum.

Bununla birlikte, makinelerin öngöremediğimiz yan etkilerinin olması mümkündür. Onlara bağımlı hâle gelirsek fişi çekmek zorlaşabilir veya kontrolü kaybedebiliriz. Eğer bu makineler her yerdeyse, toplumun birçok katmanını kontrol ediyorsa ve art niyetli hale gelirlerse...

Bu sistemlerde insanları aldatmaya yönelik yetenekler şu anda zaten var. Ayrıca, bilmediğimiz çok sayıda bilinmeyen bilinmeyen var ve bunlar çok ama çok kötü şeyler olabilir. Bu yüzden çok dikkatli olmamız gerekiyor.

Soru: The Guardian; Google, Apple, Meta ve Microsoft'un veri merkezlerinden kaynaklı emisyonlarının, iddia ettiklerinden %662 daha yüksek olabileceğini bildirdi.[12] Bloomberg de yapay zekâ veri merkezlerinin ABD'de fosil yakıt altyapısının yeniden canlanmasını tetiklediğini aktardı.[13] Bu durumda yapay zekânın yakın vadedeki gerçek tehlikesi, iklim üzerindeki geri döndürülemez etkileri olabilir mi?

Bengio: Evet, kesinlikle bu büyük bir sorun. Bu sorunu, yapay zekânın insan türünün sonunu getirme riski açısından büyük politik sorunlar ile eşdeğer tutmazdım ancak yine de son derece ciddiye alınması gereken bir mesele.

Verilere bakarsanız, en büyük modelleri eğitmek için gereken elektrik miktarı her yıl katlanarak artmaktadır.[14] Şirketler, modellerini büyüttükçe daha zeki hale geldiklerini ve bundan daha çok para kazandıklarını görüyorlar. Ekonomik getirisi çok büyük olabilecek bir zekâ elde etmek için elektrik faturasının 10 katına çıkması, yarış halinde olan bu şirketler için bir sorun olmayacaktır. Bu açgözlülük, hepimizin büyük bedeller ödemeye mahkûm olacağı anlamına gelir.

Eğer mevcut gidişat durdurulmazsa gezegende üretilen elektriğin büyük bir kısmı, bu modellerin eğitilmesine harcanacak. Kaldı ki bu elektriğin hepsi yenilenebilir enerjiden sağlanamaz. Yere gömülü olan fosil yakıtlar daha da fazla çıkarılacak. Bu da kötü bir durumdur. Bu, yavaşlamamız gerektiğine dair bir başka neden ama tek neden değil.

Soru: Bazı yapay zekâ araştırmacıları, yapay genel zekânın (AGI) tehlikesine dikkat çekiyor ancak bu terim alan içinde tartışmalı. Thomas Dietterich gibi bazı isimler; bu kavramın bilimsel olmadığını, kullanmaktan "utanılması" gerektiğini söylüyor. Bu tartışmada sizin duruşunuz nedir?

Bengio: Belirli alanlarda yeterlik hakkında konuşmak gayet bilimseldir. Sürekli testler yapıyor ve belirli kabiliyetleri değerlendiriyoruz. Sorun, "genel zekâ" kavramının ne anlama geldiğini sorduğumuzda ortaya çıkıyor. Ancak bence bu yanlış bir soru. Benim sorum şu: Belirli yeteneklere yeterince sahip olan makineler, bize ne ölçüde zarar verebilir? Siber saldırıda bulunabilirler mi? Biyolojik silah tasarlayabilirler mi? İnsanları manipüle ederek istediklerini yaptırabilirler mi? Geliştiricilerinin isteğine aykırı olarak kendilerini başka cihazlarda veya internette kopyalayabilirler mi?

Bu kabiliyetlerden sadece bir kısmına bile sahip olmaları onları son derece tehlikeli kılar. Bu konuda belirsiz bir şey yok. Bu yeteneklerin test edilmesi için değerlendirme araçları oluşturulmaya başlandı bile, çünkü makinelerin bu yeteneklere sahip olmasını istemiyoruz. Bunun için İngiltere ve ABD'deki yapay zekâ güvenlik enstitüleri, bu konular üzerinde çalışıyor ve modelleri test ediyorlar.[15], [16]

Tüm Reklamları Kapat

Soru: Daha önce bu konuya değindik ancak bilim insanları ve politikacıların riskleri ele alma biçiminden ne derece memnunsunuz? Kendi çabalarınızdan ve diğerlerinin çabalarından tatminkâr mısınız? Yoksa hâlâ çok tehlikeli bir yolda mı gidiyoruz?

Bengio: Riskleri azaltma konusunda henüz gerekeni yapmadığımızı düşünüyorum. Küresel bir tartışma yaşandı, birçok yasal düzenleme önerisi ortaya atıldı, Birleşmiş Milletler uluslararası anlaşmalar düşünmeye başladı. Ancak daha çok yol gitmemiz gerekiyor.

Farkındalığı artırma, riskleri daha iyi anlama ve politikacıların mevzuatı düşünmesi açısından büyük ilerleme kaydettik. Ancak hâlâ kendimizi felaket risklerinden koruyabileceğimiz seviyede değiliz.

Öte yandan, son aylarda regülasyonlara karşı çıkan çok güçlü lobilerin de oluştuğunu görüyoruz. Az sayıda ama çok zengin ve güçlü insanlar, yapay zekâ ile ne yaptıkları konusunda toplumun söz hakkı olmamasını istiyorlar ve dolayısıyla denetime ayak diriyorlar.

Tüm Reklamları Kapat

Yapay zekâyı inşa edenler arasında tonlarca para kazanmayı öncelik edinen ve bunun için birbirleriyle son hız yarışan bir azınlık ve halk arasında büyük bir çıkar çatışması var. Bunu tıpkı tütün konusunda yaptığımız ancak fosil yakıtlarda yapamadığımız gibi yönetmemiz gerekiyor. Yapay zekânın nasıl geliştirildiğine tek başına piyasa güçlerinin yön vermesine izin veremeyiz.

Soru: Eğer sadece piyasa güçlerine bırakılacak olursa geleceğimizi zaten oldukça yıkıcı olan bir algoritmaya bağlamış oluruz, ki bu biraz ironik. Yapay zekânın düzenlenmemesi için lobi yapan gruplardan bahsettiniz. Onların temel argümanları nelerdir?

Bengio: Evet, tam olarak öyle yapmış oluruz. En çok öne sürdükleri argümanları, bunun inovasyonu yavaşlatacağıdır. Fakat dünyayı olabildiğince hızlı dönüştürmek gibi bir yarış mı var? Hayır, amacımız dünyayı daha iyi hâle getirmek. Bu da toplumu korumak için adımlar atmayı gerektiriyorsa bunu yapmalıyız. Diğer sektörlerde yaptığımız üzere burada da doğru adımlar atarak yasal düzenlemeler getirmemiz mümkündür. Bu, inovasyonu durdurmaz. Sadece doğru yönde şekillendirir.

Neredeyse her şeyde düzenleme var: Yediğiniz sandviçten tutun, bindiğiniz arabaya ve uçaklara kadar. Yasal düzenlemelerin olmadığı zamanlar çok daha fazla istenmeyen sonuç meydana gelirdi. İlaç sektöründe de böyle. Hem yararlı hem de yasal olarak düzenlenmiş teknolojiye sahip olabiliriz. Yasal düzenlemeler ve denetlemeler, şimdiye kadar işe yaradığını bildiğimiz bir yöntem.

Tüm Reklamları Kapat

İkinci argüman ise Batının yavaşlayacak olması durumunda Çin'in ilerleyerek teknolojiyi Batıya karşı kullanacağı endişesidir. Bu gerçeklik payı olabilecek bir kaygıdır ancak çözüm, tedbiri elden bırakarak hızlanmak olamaz. Bu, bir silahlanma yarışına yol açar.

Çözüm, bir orta yolda buluşmaktır: Çin ile konuşup karşılıklı güvensizlik ve büyük felaketleri önlemek için anlaşmalar imzalanmalı. Uluslararası antlaşmalar yapılmalı, doğrulama teknolojileri geliştirilmeli ve tarafların tehlikeli olabilecek bir şey yapmadığı kanıtlanmalı. Böylece yapay zekâ konusunda temkinli davranılabilir ve gezegenin iyiliği için birlikte hareket edilebilir..

Evrim Ağacı, sizlerin sayesinde bağımsız bir bilim iletişi platformu olmaya devam edecek!

Evrim Ağacı'nda tek bir hedefimiz var: Bilimsel gerçekleri en doğru, tarafsız ve kolay anlaşılır şekilde Türkiye'ye ulaştırmak. Ancak tahmin edebileceğiniz Türkiye'de bilim anlatmak hiç kolay bir iş değil; hele ki bir yandan ekonomik bir hayatta kalma mücadelesi verirken...

O nedenle sizin desteklerinize ihtiyacımız var. Eğer yazılarımızı okuyanların %1'i bize bütçesinin elverdiği kadar destek olmayı seçseydi, bir daha tek bir reklam göstermeden Evrim Ağacı'nın bütün bilim iletişimi faaliyetlerini sürdürebilirdik. Bir düşünün: sadece %1'i...

O %1'i inşa etmemize yardım eder misiniz? Evrim Ağacı Premium üyesi olarak, ekibimizin size ve Türkiye'ye bilimi daha etkili ve profesyonel bir şekilde ulaştırmamızı mümkün kılmış olacaksınız. Ayrıca size olan minnetimizin bir ifadesi olarak, çok sayıda ayrıcalığa erişim sağlayacaksınız.

Avantajlarımız
"Maddi Destekçi" Rozeti
Reklamsız Deneyim
%10 Daha Fazla UP Kazanımı
Özel İçeriklere Erişim
+5 Quiz Oluşturma Hakkı
Özel Profil Görünümü
+1 İçerik Boostlama Hakkı
ve Daha Fazlası İçin Evrim Ağacı'nda..
Aylık
Tek Sefer
Destek Ol
₺30/Aylık
Bu Makaleyi Alıntıla
Okundu Olarak İşaretle
24
1
  • Paylaş
  • Alıntıla
  • Alıntıları Göster
Paylaş
Sonra Oku
Notlarım
Yazdır / PDF Olarak Kaydet
Bize Ulaş
Yukarı Zıpla

Makalelerimizin bilimsel gerçekleri doğru bir şekilde yansıtması için en üst düzey çabayı gösteriyoruz. Gözünüze doğru gelmeyen bir şey varsa, mümkünse güvenilir kaynaklarınızla birlikte bize ulaşın!

Bu makalemizle ilgili merak ettiğin bir şey mi var? Buraya tıklayarak sorabilirsin.

Soru & Cevap Platformuna Git
Bu Makale Sana Ne Hissettirdi?
  • Tebrikler! 7
  • İnanılmaz 1
  • Korkutucu! 1
  • Muhteşem! 0
  • Bilim Budur! 0
  • Mmm... Çok sapyoseksüel! 0
  • Güldürdü 0
  • Umut Verici! 0
  • Merak Uyandırıcı! 0
  • Üzücü! 0
  • Grrr... *@$# 0
  • İğrenç! 0
Kaynaklar ve İleri Okuma
  1. Çeviri Kaynağı: LiveScience | Arşiv Bağlantısı
  • ^ A.M. Turing Award. Yoshua Bengio - A.m. Turing Award Laureate. Alındığı Tarih: 7 Aralık 2024. Alındığı Yer: A.M. Turing Award | Arşiv Bağlantısı
  • ^ G. Hinton. Yoshua Bengio. (17 Nisan 2024). Alındığı Tarih: 8 Aralık 2024. Alındığı Yer: Time | Arşiv Bağlantısı
  • ^ A. S. Index. Engineering Highly Cited Researchers Citation Rankings 2025. Alındığı Tarih: 8 Aralık 2024. Alındığı Yer: ADScientific Index | Arşiv Bağlantısı
  • ^ A. S. Index. Geoffrey Hinton - Ad Scientific Index 2025. Alındığı Tarih: 16 Aralık 2024. Alındığı Yer: ADScientific Index | Arşiv Bağlantısı
  • ^ A. S. Index. Yoshua Bengio - Ad Scientific Index 2025. Alındığı Tarih: 16 Aralık 2024. Alındığı Yer: ADScientific Index | Arşiv Bağlantısı
  • ^ United States Senate Committee on the Judiciary. Oversight Of A.i.: Principles For Regulation | United States Senate Committee On The Judiciary. (25 Temmuz 2023). Alındığı Tarih: 8 Aralık 2024. Alındığı Yer: United States Senate Committee on the Judiciary | Arşiv Bağlantısı
  • ^ Yoshua Bengio. (Resmi Belge, 2023). Written Testimony Of Professor Yoshua Bengio.
  • ^ Yoshua Bengio. The International Scientific Report On The Safety Of Advanced Ai - Yoshua Bengio. (19 Haziran 2024). Alındığı Tarih: 8 Aralık 2024. Alındığı Yer: Yoshua Bengio | Arşiv Bağlantısı
  • ^ D. Kent. Americans In Both Parties Are Concerned Over The Impact Of Ai On The 2024 Presidential Campaign. (19 Eylül 2024). Alındığı Tarih: 16 Aralık 2024. Alındığı Yer: Pew Research Center | Arşiv Bağlantısı
  • ^ F. Salvi, et al. (2024). On The Conversational Persuasiveness Of Large Language Models: A Randomized Controlled Trial. ArXiV. doi: 10.48550/arXiv.2403.14380. | Arşiv Bağlantısı
  • ^ OpenAI. O1 Sysyem Card. (5 Aralık 2024). Alındığı Tarih: 16 Aralık 2024. Alındığı Yer: OpenAI | Arşiv Bağlantısı
  • ^ G. S. Reporter. Data Center Emissions Probably 662% Higher Than Big Tech Claims. Can It Keep Up The Ruse?. (15 Eylül 2024). Alındığı Tarih: 8 Aralık 2024. Alındığı Yer: The Guardian | Arşiv Bağlantısı
  • ^ J. Saul, et al. Us Natural Gas Power Plants Just Keep Coming To Meet Ai, Ev Electricity Demand. (16 Eylül 2024). Alındığı Tarih: 8 Aralık 2024. Alındığı Yer: Bloomberg | Arşiv Bağlantısı
  • ^ B. Kindig. Ai Power Consumption: Rapidly Becoming Mission-Critical. (20 Haziran 2024). Alındığı Tarih: 8 Aralık 2024. Alındığı Yer: Forbes | Arşiv Bağlantısı
  • ^ AISI Gov UK. The Ai Safety Institute (Aisi). Alındığı Tarih: 16 Aralık 2024. Alındığı Yer: AISI Gov UK | Arşiv Bağlantısı
  • ^ AISI Gov US. U.s. Artificial Intelligence Safety Institute | Nist. (26 Ekim 2023). Alındığı Tarih: 16 Aralık 2024. Alındığı Yer: AISI Gov US | Arşiv Bağlantısı
Tüm Reklamları Kapat

Evrim Ağacı'na her ay sadece 1 kahve ısmarlayarak destek olmak ister misiniz?

Şu iki siteden birini kullanarak şimdi destek olabilirsiniz:

kreosus.com/evrimagaci | patreon.com/evrimagaci

Çıktı Bilgisi: Bu sayfa, Evrim Ağacı yazdırma aracı kullanılarak 21/02/2025 21:21:24 tarihinde oluşturulmuştur. Evrim Ağacı'ndaki içeriklerin tamamı, birden fazla editör tarafından, durmaksızın elden geçirilmekte, güncellenmekte ve geliştirilmektedir. Dolayısıyla bu çıktının alındığı tarihten sonra yapılan güncellemeleri görmek ve bu içeriğin en güncel halini okumak için lütfen şu adrese gidiniz: https://evrimagaci.org/s/19210

İçerik Kullanım İzinleri: Evrim Ağacı'ndaki yazılı içerikler orijinallerine hiçbir şekilde dokunulmadığı müddetçe izin alınmaksızın paylaşılabilir, kopyalanabilir, yapıştırılabilir, çoğaltılabilir, basılabilir, dağıtılabilir, yayılabilir, alıntılanabilir. Ancak bu içeriklerin hiçbiri izin alınmaksızın değiştirilemez ve değiştirilmiş halleri Evrim Ağacı'na aitmiş gibi sunulamaz. Benzer şekilde, içeriklerin hiçbiri, söz konusu içeriğin açıkça belirtilmiş yazarlarından ve Evrim Ağacı'ndan başkasına aitmiş gibi sunulamaz. Bu sayfa izin alınmaksızın düzenlenemez, Evrim Ağacı logosu, yazar/editör bilgileri ve içeriğin diğer kısımları izin alınmaksızın değiştirilemez veya kaldırılamaz.

Tüm Reklamları Kapat
Aklımdan Geçen
Komünite Seç
Aklımdan Geçen
Fark Ettim ki...
Bugün Öğrendim ki...
İşe Yarar İpucu
Bilim Haberleri
Hikaye Fikri
Video Konu Önerisi
Başlık
Bugün bilimseverlerle ne paylaşmak istersin?
Gündem
Bağlantı
Ekle
Soru Sor
Stiller
Kurallar
Komünite Kuralları
Bu komünite, aklınızdan geçen düşünceleri Evrim Ağacı ailesiyle paylaşabilmeniz içindir. Yapacağınız paylaşımlar Evrim Ağacı'nın kurallarına tabidir. Ayrıca bu komünitenin ek kurallarına da uymanız gerekmektedir.
1
Bilim kimliğinizi önceleyin.
Evrim Ağacı bir bilim platformudur. Dolayısıyla aklınızdan geçen her şeyden ziyade, bilim veya yaşamla ilgili olabilecek düşüncelerinizle ilgileniyoruz.
2
Propaganda ve baskı amaçlı kullanmayın.
Herkesin aklından her şey geçebilir; fakat bu platformun amacı, insanların belli ideolojiler için propaganda yapmaları veya başkaları üzerinde baskı kurma amacıyla geliştirilmemiştir. Paylaştığınız fikirlerin değer kattığından emin olun.
3
Gerilim yaratmayın.
Gerilim, tersleme, tahrik, taciz, alay, dedikodu, trollük, vurdumduymazlık, duyarsızlık, ırkçılık, bağnazlık, nefret söylemi, azınlıklara saldırı, fanatizm, holiganlık, sloganlar yasaktır.
4
Değer katın; hassas konulardan ve öznel yoruma açık alanlardan uzak durun.
Bu komünitenin amacı okurlara hayatla ilgili keyifli farkındalıklar yaşatabilmektir. Din, politika, spor, aktüel konular gibi anlık tepkilere neden olabilecek konulardaki tespitlerden kaçının. Ayrıca aklınızdan geçenlerin Türkiye’deki bilim komünitesine değer katması beklenmektedir.
5
Cevap hakkı doğurmayın.
Aklınızdan geçenlerin bu platformda bulunmuyor olabilecek kişilere cevap hakkı doğurmadığından emin olun.
Sosyal
Makaleler
Daha Fazla İçerik Göster
Popüler Yazılar
30 gün
90 gün
1 yıl
Evrim Ağacı'na Destek Ol

Evrim Ağacı'nın %100 okur destekli bir bilim platformu olduğunu biliyor muydunuz? Evrim Ağacı'nın maddi destekçileri arasına katılarak Türkiye'de bilimin yayılmasına güç katın.

Evrim Ağacı'nı Takip Et!
Yazı Geçmişi
Okuma Geçmişi
Notlarım
İlerleme Durumunu Güncelle
Okudum
Sonra Oku
Not Ekle
Kaldığım Yeri İşaretle
Göz Attım

Evrim Ağacı tarafından otomatik olarak takip edilen işlemleri istediğin zaman durdurabilirsin.
[Site ayalarına git...]

Filtrele
Listele
Bu yazıdaki hareketlerin
Devamını Göster
Filtrele
Listele
Tüm Okuma Geçmişin
Devamını Göster
0/10000
Bu Makaleyi Alıntıla
Evrim Ağacı Formatı
APA7
MLA9
Chicago
B. Turner, et al. Yoshua Bengio: Yapay Zekâ Regüle Edilmezse Gelecek En Büyük Felaketimiz Olabilir!. (27 Ocak 2025). Alındığı Tarih: 21 Şubat 2025. Alındığı Yer: https://evrimagaci.org/s/19210
Turner, B., Köse, M., Alparslan, E. (2025, January 27). Yoshua Bengio: Yapay Zekâ Regüle Edilmezse Gelecek En Büyük Felaketimiz Olabilir!. Evrim Ağacı. Retrieved February 21, 2025. from https://evrimagaci.org/s/19210
B. Turner, et al. “Yoshua Bengio: Yapay Zekâ Regüle Edilmezse Gelecek En Büyük Felaketimiz Olabilir!.” Edited by Eda Alparslan. Translated by Mücahid Köse, Evrim Ağacı, 27 Jan. 2025, https://evrimagaci.org/s/19210.
Turner, Ben. Köse, Mücahid. Alparslan, Eda. “Yoshua Bengio: Yapay Zekâ Regüle Edilmezse Gelecek En Büyük Felaketimiz Olabilir!.” Edited by Eda Alparslan. Translated by Mücahid Köse. Evrim Ağacı, January 27, 2025. https://evrimagaci.org/s/19210.
ve seni takip ediyor

Göster

Şifremi unuttum Üyelik Aktivasyonu

Göster

Şifrenizi mi unuttunuz? Lütfen e-posta adresinizi giriniz. E-posta adresinize şifrenizi sıfırlamak için bir bağlantı gönderilecektir.

Geri dön

Eğer aktivasyon kodunu almadıysanız lütfen e-posta adresinizi giriniz. Üyeliğinizi aktive etmek için e-posta adresinize bir bağlantı gönderilecektir.

Geri dön

Close