Keşfedin, Öğrenin ve Paylaşın
Evrim Ağacı'nda Aradığın Her Şeye Ulaşabilirsin!
Paylaşım Yap
Tüm Reklamları Kapat

Yapay Zeka Regüle Edilmezse Gelecekte Nasıl En Büyük Felaketimiz Olabilir?

Modern Yapay Zekanın Babalarından Yoshua Bengio, Regüle Edilmemesi Halinde Yapay Zekanın İnsanlık İçin Varoluşsal Risk Doğuracağını Söylüyor!

12 dakika
963
Yapay Zeka Regüle Edilmezse Gelecekte Nasıl En Büyük Felaketimiz Olabilir? MIT Technology Review
Tüm Reklamları Kapat

Yoshua Bengio, Kanadalı bilgisayar bilimci ve yapay zeka uzmanıdır. Derin öğrenme ve yapay sinir ağları üzerine yaptığı öncü çalışmalarla bilinmektedir. Université de Montréal Bilgisayar Bilimi ve Operasyon Araştırmaları Bölümü'nde profesör olarak görev almaktadır. Ayrıca Montreal Öğrenme Algoritmaları Enstitüsü'nün (İng: "MILA") bilimsel direktörlüğünü yürütmektedir. Bengio, derin öğrenme sahasındaki çalışmalarından dolayı, diğer iki öncü bilgisayar bilimci ile birlikte "bilgisayar biliminin nobel ödülü" olarak da anılan prestijli 2018 ACM A.M. Turing Ödülü'nü almaya hak kazanmıştır.[1]

Bengio ve ödülü paylaştığı diğer iki isim (Geoffrey Hinton ve Yann LeCun), "Modern Yapay Zekanın Babaları" ve "Derin Öğrenmenin Babaları" olarak anılmaktadır. Bengio, 2018 Turing Ödülü'nün yanı sıra 2024 Nobel Fizik Ödülü'nü de almaya hak kazanan bilişsel bilimci Geoffrey Hinton'ın önermesiyle TIME Dergisi'nin Dünyanın En Etkili 100 Kişisi 2024 listesine dahil edilmiştir.[2] Bengio, Hinton ile birlikte Aralık 2024 itibarıyla bilgisayar bilimlerinde dünyanın en çok atıfta bulunulan bilim insanıdır.[3], [4], [5]

Bengio, özellikle GPT-3 gibi dönüştürücü yapay zeka modellerinin çıkışının ardından yapay zekadaki hızlı ilerlemelere yönelik olarak "yapay genel zeka" (insan seviyesinde yapay zeka) hakkında önemli güvenlik riskleri uyarılarında bulunmaya başlamıştır. Öyle ki, Temmuz 2023'de, GPT 4'ün piyasaya sürülmesinden yalnızca birkaç ay sonra, alanın önde gelen bir diğer önemli ismi olan Stuart Russell ile birlikte ABD Senatosu'nda yeminli resmi bir ifade vermiş ve yapay zeka güvenliğinin sağlanmasının önemini vurgulamıştır.[6], [7] Halen resmi kurum ve yetkililere yapay zeka güvenliği konusunda uyarılarda bulunmaya devam etmektedir. Bununla birlikte Bengio, yapay zeka güvenliğinin yasalarca düzenlenmesi ve teknoloji şirketlerinin yaptığı yapay zeka araştırmalarının güvenliğinin devletler tarafından denetlenmesinin önemi konusunda basına demeçler vermekte ve bildiriler hazırlayıp imzalamaktadır.

Tüm Reklamları Kapat

Yoshua Bengio'ya göre yapay zeka, insanlık için öngörülemeyen bazı riskler barındırmaktadır. Bengio, şu anda 30 ülkenin yanı sıra Avrupa Birliği ve Birleşmiş Milletler tarafından desteklenen Gelişmiş Yapay Zeka Güvenliğine Dair Uluslararası Bilimsel Rapor (İng: "International Scientific Report on the Safety of Advanced AI") Konseyi'nin başkanlık görevini yürütmektedir.[8] Bu konsey, gelişmiş yapay zekanın güvenliği hususunda danışmanlık vermeyi amaçlayan bir oluşumdur.

Yoshua Bengio ile Yapay Zekanın Geleceği Üzerine Röportaj

Aralık 2024'te yabancı popüler bilim platformu LiveScience, Londra'da düzenlenen "HowTheLightGetsIn" adlı bir bilim festivali etkinliğinde Yoshua Bengio ile bir video görüşme yapma fırsatı yakalamıştır. Bu görüşmede Bengio, makine zekasının olasılığını ve gelişmekte olan yapay zeka teknolojilerinin risklerini ve bunları düzenlemenin önemini tartışmaktadır. Röportajın metni aşağıdaki gibidir:

Soru: Yapay sinir ağlarının geliştirilmesinde olağanüstü bir rol oynadınız ancak şimdi bu teknolojilerin geliştirilmesine bir ara verilmesi çağrısında bulunuyorsunuz ve onları düzenlemenin yollarını araştırıyorsunuz. Hayatınızın eserine bir ara verilmesini gerektiren etken nedir?

Bengio: Kendi kilisenize (yani kendi araştırma alanınıza ve akademik komünitenize) karşı çıkmak zordur ancak eğer olaylara rasyonel olarak bakarsanız belli bir yapay zeka seviyesine ulaştığımızda felaket sonuçlarının ortaya çıkma olasılığını inkâr etmenin bir yolu yoktur. Yapay zeka bu noktaya varmadan önce, kötü senaryoların mümkün olduğunu biliyordum fakat sorunu çözeceğimizi düşünüyordum. Ancak çocuklarımı ve onların geleceğini düşünmek beni farklı yönde davranmaya itti. Yapay zekanın risklerini azaltmak için elimden geleni yapmak zorundaydım.

Tüm Reklamları Kapat

Soru: Yapay zekanın en kötü etkilerini azaltma konusunda bir sorumluluk hissettiğinizi söyleyebilir misiniz? Bu mesele omuzlarınızda bir yük oluşturuyor mu?

Bengio: Evet, bir sorumluluk hissediyorum. Bilimsel çalışmalarımdan dolayı kazandığım tanınırlığın sesime bir ağırlık kattığına inanıyorum ve bu nedenle konuşmam gerektiğini düşünüyorum. Bu konuya dahil olmamın bir diğer nedeni de eğer insanlara zarar vermeyecek bir yapay zeka inşa edeceksek teknik çözümün daha büyük bir politik çözümün parçası olması gerekmesidir.

Bu sistemleri dilediği gibi kontrol edebilmek için şirketler de teknik çözümler uygulamak isteyecektir, ancak şu anda bu teknik çözümün (yapay genel zekanın hizalanması ve kontrolünün) nasıl geliştirileceğini bilmiyoruz. Şu anda, yapay zeka insan seviyesine ulaştığında getireceği kâr için sektörde çok büyük bir beklenti var. Bu durum, çok zorlu bir pozisyonda olduğumuzu gösteriyor ve bunlara bir an önce bilimsel cevaplar bulmamız gerekiyor.

Sürekli kullandığım bir metafor var: İnsanlık olarak bir arabaya binmiş ve sisle kaplı bilmediğimiz bir yolda gidiyoruz. Dağlık bir yolda ilerliyor olabiliriz, sisin ardında çok tehlikeli bir patika olabilir fakat biz bunu yeterince açık göremiyoruz.

Evrim Ağacı'ndan Mesaj

Aslında maddi destek istememizin nedeni çok basit: Çünkü Evrim Ağacı, bizim tek mesleğimiz, tek gelir kaynağımız. Birçoklarının aksine bizler, sosyal medyada gördüğünüz makale ve videolarımızı hobi olarak, mesleğimizden arta kalan zamanlarda yapmıyoruz. Dolayısıyla bu işi sürdürebilmek için gelir elde etmemiz gerekiyor.

Bunda elbette ki hiçbir sakınca yok; kimin, ne şartlar altında yayın yapmayı seçtiği büyük oranda bir tercih meselesi. Ne var ki biz, eğer ana mesleklerimizi icra edecek olursak (yani kendi mesleğimiz doğrultusunda bir iş sahibi olursak) Evrim Ağacı'na zaman ayıramayacağımızı, ayakta tutamayacağımızı biliyoruz. Çünkü az sonra detaylarını vereceğimiz üzere, Evrim Ağacı sosyal medyada denk geldiğiniz makale ve videolardan çok daha büyük, kapsamlı ve aşırı zaman alan bir bilim platformu projesi. Bu nedenle bizler, meslek olarak Evrim Ağacı'nı seçtik.

Eğer hem Evrim Ağacı'ndan hayatımızı idame ettirecek, mesleklerimizi bırakmayı en azından kısmen meşrulaştıracak ve mantıklı kılacak kadar bir gelir kaynağı elde edemezsek, mecburen Evrim Ağacı'nı bırakıp, kendi mesleklerimize döneceğiz. Ama bunu istemiyoruz ve bu nedenle didiniyoruz.

Peki ne yapacağız? Her şeyin bir şekilde yolunda gideceğini umarak tam hız ilerlemeye devam mı edeceğiz? Yoksa teknolojik çözümler mi arayacağız? Politik çözüm, ihtiyat ilkesini hayata geçirmektir: "Emin değilsen yavaşla." Burada teknik çözüm, sisin ötesini görmek için yöntemler geliştirmek ve arabamıza güvenlik önlemleri eklemektir.

Soru: Kısa ve uzun vadede makine öğreniminin insanlık için en büyük riskleri nelerdir?

Bengio: İnsanlar, yapay zekaya yönelik büyük risklerin hep bir bilimkurgu olduğunu zannederler ancak değiller. Kısa vadede, yapay zekanın ülkelerin seçim kampanyalarında kullanılmakta olduğunu görüyoruz.[9] Bu durum çok daha kötüleşecek. Yakın zamanda yapılan bir çalışma, ChatGPT-4'ün insanlardan çok daha iyi bir ikna kabiliyetine sahip olduğunu gösterdi.[10] Ki bu sadece ChatGPT-4, daha yeni sürümler daha da endişe verici olabilir. Ayrıca, bu sistemlerin terör gruplarına yardımcı olabileceği de görülmüştür. Yakın dönemde ChatGPT'nin o1 sürümünde, risk seviyesi düşükten orta seviyeye çıkarılmıştır.[11]

Daha ileri vadede, süper zeka seviyesine ulaştığımızda iki büyük risk vardır. Birincisi, insan kontrolünün kaybıdır. Eğer genel zekaya sahip makinelerin doğası, bir tür kendini müdafaa hedefi içeriyorsa onları kapatmamızı engellemek için insanlığı yok etmeye çalışabilirler.

İkinci tehlike, eğer ilk senaryo gerçekleşmezse kişi ya da kurumların yapay genel zekanın gücünü kullanarak dünya çapında bir diktatörlük kurabilecek olmasıdır. Bu durum daha hafif ölçekte de yaşanabilir; bu bir spektrumdur. Ancak her durumda yapay genel zeka, onu elinde bulunduracak olanlara muazzam nitelikte bir güç verecektir.

Soru: Avrupa Birliği bir yapay zeka yasası çıkardı, ABD Başkanı Biden ise bir başkanlık kararnamesi yayımladı. Hükümetler bu risklere ne ölçüde doğru yanıt veriyor? Atılan adımlar doğru mu yoksa yanlış yönde midir?

Tüm Reklamları Kapat

Bengio: Bunlar doğru yönde atılan adımlar. Örneğin Biden'ın başkanlık kararnamesi, o aşamada Beyaz Saray'ın yapabileceği kadarıydı fakat şirketleri sistemlerinin test sonuçlarını paylaşmaya veya bu testleri yapmaya zorlamıyor. Bu, tamamen şirketlerin gönüllülüğüne kalmış bir durum. Bu gönüllülük unsurunu ortadan kaldırmamız gerekiyor. Şirketler gerçekten güvenlik planlarına sahip olmalı, test sonuçlarını açıklamalı ve toplumu koruma konusunda en ileri uygulama çerçevelerini takip etmiyorlarsa hesap vermeliler. Böyle bir yasal düzenleme önerisi, şu anda mevcut olanlar arasında en iyisi gibi görünüyor.

Soru: Şu anda yapay sinir ağları etkileyici uygulamalara sahip. Ancak gözetimsiz öğrenmede sorunlar yaşayabiliyorlar, eğitim verilerinde ender ortaya çıkan durumlara uyum sağlamada güçlük çekiyorlar ve muazzam miktarda veri tüketmeleri gerekiyor. Örneğin, sürücüsüz otomobillerde de gördüğümüz üzere bu kusurlar da kendi risklerini doğurmuyor mu?

Bengio: Öncelikle, sorunuzda düzeltilmesi gereken bir husus var: Bu sistemler gözetimsiz öğrenmede çok iyidir. Esas olarak onların eğitilme şekli budur. Onlara verilen tüm verileri işleyip anlamlandırarak asli görev verilmeden önce bir eğitime tabi tutulular. Bu gözetimsiz öğrenmedir.

Tüm Reklamları Kapat

Ne kadar veriye ihtiyaçları olduğuna gelince; evet, insanlardan daha fazla veriye ihtiyaçları var. Fakat evrimin, beyinlerimizde var olan bilişsel becerileri oluşturmak için çok daha fazla veri kullandığı konusunda da argümanlar var. Bu nedenle bir karşılaştırma yapmak zor.

Veri ihtiyacı konusunda iyileştirmeler yapılabileceğini düşünüyorum. Burada politika perspektifinden önemli olan nokta, büyük bir ilerleme kaydetmiş olmamızdır. İnsan zekasıyla mevcut yapay zeka yetenekleri arasında hâlâ büyük bir fark olduğu doğrudur fakat bu farkın kapanmasının ne kadar süreceği oldukça belirsizdir. Politika, yapay genel zekaya hızlı bir şekilde ulaşılabileceği ihtimaline, örneğin önümüzdeki 5 yıl içinde, hazırlıklı olmalıdır.

Soru: Veri konusuyla ilgili olarak GPT modellerinin kendi ürettikleri içerikleri tüketmeleri sonucunda "model çökmesi" yaşadıkları gösterildi. Siz süper zeka seviyesine ulaşılması ve kontrolün kaybedilmesi tehlikesinden söz ettiniz ancak gülünç olabilecek bir distopik olasılık daha var: Biz yapay zekaya bağımlı hâle geliyoruz. Yapay zeka; endüstrilerden işleri çekip alıyor, ardından kendisi geriliyor ve çöküyor, biz de geride kalan hasarı toparlamakla uğraşıyoruz. Bu konuda ne düşünüyorsunuz?

Bengio: Bu sistemlerin kendi ürettikleri verilerle eğitilmeleri nedeniyle çökmeleri konusunun önemli bir sorun olduğunu düşünmüyorum. Eğer sentetik veriyi akıllıca kullanacak olursanız, sistemlere sadece "veri üretin ve bununla kendinizi eğitin" demezsiniz. Bu, makine öğrenimi açısından anlamsız bir çaba olur.

Tüm Reklamları Kapat

Agora Bilim Pazarı

Sentetik veri kullanarak sistemler kendileriyle rekabet edebilecek hale getirilebilir ve bu sayede daha iyi kararlar almak için sentetik veri oluşturabilir. Bu sebeple bu konuda önemli bir sorun görmüyorum.

Bununla birlikte, makinelerin öngöremediğimiz yan etkilerinin olması mümkündür. Onlara bağımlı hâle gelirsek fişi çekmek zorlaşabilir veya kontrolü kaybedebiliriz. Eğer bu makineler her yerdeyse, toplumun birçok katmanını kontrol ediyorsa ve art niyetli hale gelirlerse...

Bu sistemlerde insanları aldatmaya yönelik yetenekler şu anda zaten var. Ayrıca, bilmediğimiz çok sayıda bilinmeyen bilinmeyen var ve bunlar çok ama çok kötü şeyler olabilir. Bu yüzden çok dikkatli olmamız gerekiyor.

Soru: The Guardian; Google, Apple, Meta ve Microsoft'un veri merkezlerinden kaynaklı emisyonlarının, iddia ettiklerinden %662 daha yüksek olabileceğini bildirdi.[12] Bloomberg de yapay zeka veri merkezlerinin ABD'de fosil yakıt altyapısının yeniden canlanmasını tetiklediğini aktardı.[13] Bu durumda yapay zekanın yakın vadedeki gerçek tehlikesi, iklim üzerindeki geri döndürülemez etkileri olabilir mi?

Bengio: Evet, kesinlikle bu büyük bir sorun. Bu sorunu, yapay zekanın insan türünün sonunu getirme riski açısından büyük politik sorunlar ile eşdeğer tutmazdım ancak yine de son derece ciddiye alınması gereken bir mesele.

Verilere bakarsanız, en büyük modelleri eğitmek için gereken elektrik miktarı her yıl katlanarak artmaktadır.[14] Şirketler, modellerini büyüttükçe daha zeki hale geldiklerini ve bundan daha çok para kazandıklarını görüyorlar. Ekonomik getirisi çok büyük olabilecek bir zeka elde etmek için elektrik faturasının 10 katına çıkması, yarış halinde olan bu şirketler için bir sorun olmayacaktır. Bu açgözlülük, hepimizin büyük bedeller ödemeye mahkûm olacağı anlamına gelir.

Eğer mevcut gidişat durdurulmazsa gezegende üretilen elektriğin büyük bir kısmı, bu modellerin eğitilmesine harcanacak. Kaldı ki bu elektriğin hepsi yenilenebilir enerjiden sağlanamaz. Yere gömülü olan fosil yakıtlar daha da fazla çıkarılacak. Bu da kötü bir durumdur. Bu, yavaşlamamız gerektiğine dair bir başka neden ama tek neden değil.

Soru: Bazı yapay zeka araştırmacıları, yapay genel zekanın (AGI) tehlikesine dikkat çekiyor ancak bu terim alan içinde tartışmalı. Thomas Dietterich gibi bazı isimler; bu kavramın bilimsel olmadığını, kullanmaktan "utanılması" gerektiğini söylüyor. Bu tartışmada sizin duruşunuz nedir?

Bengio: Belirli alanlarda yeterlik hakkında konuşmak gayet bilimseldir. Sürekli testler yapıyor ve belirli kabiliyetleri değerlendiriyoruz. Sorun, "genel zeka" kavramının ne anlama geldiğini sorduğumuzda ortaya çıkıyor. Ancak bence bu yanlış bir soru. Benim sorum şu: Belirli yeteneklere yeterince sahip olan makineler, bize ne ölçüde zarar verebilir? Siber saldırıda bulunabilirler mi? Biyolojik silah tasarlayabilirler mi? İnsanları manipüle ederek istediklerini yaptırabilirler mi? Geliştiricilerinin isteğine aykırı olarak kendilerini başka cihazlarda veya internette kopyalayabilirler mi?

Bu kabiliyetlerden sadece bir kısmına bile sahip olmaları onları son derece tehlikeli kılar. Bu konuda belirsiz bir şey yok. Bu yeteneklerin test edilmesi için değerlendirme araçları oluşturulmaya başlandı bile, çünkü makinelerin bu yeteneklere sahip olmasını istemiyoruz. Bunun için İngiltere ve ABD'deki yapay zeka güvenlik enstitüleri, bu konular üzerinde çalışıyor ve modelleri test ediyorlar.[15], [16]

Tüm Reklamları Kapat

Soru: Daha önce bu konuya değindik ancak bilim insanları ve politikacıların riskleri ele alma biçiminden ne derece memnunsunuz? Kendi çabalarınızdan ve diğerlerinin çabalarından tatminkâr mısınız? Yoksa hâlâ çok tehlikeli bir yolda mı gidiyoruz?

Bengio: Riskleri azaltma konusunda henüz gerekeni yapmadığımızı düşünüyorum. Küresel bir tartışma yaşandı, birçok yasal düzenleme önerisi ortaya atıldı, Birleşmiş Milletler uluslararası anlaşmalar düşünmeye başladı. Ancak daha çok yol gitmemiz gerekiyor.

Farkındalığı artırma, riskleri daha iyi anlama ve politikacıların mevzuatı düşünmesi açısından büyük ilerleme kaydettik. Ancak hâlâ kendimizi felaket risklerinden koruyabileceğimiz seviyede değiliz.

Öte yandan, son aylarda regülasyonlara karşı çıkan çok güçlü lobilerin de oluştuğunu görüyoruz. Az sayıda ama çok zengin ve güçlü insanlar, yapay zeka ile ne yaptıkları konusunda toplumun söz hakkı olmamasını istiyorlar ve dolayısıyla denetime ayak diriyorlar.

Tüm Reklamları Kapat

Yapay zekayı inşa edenler arasında tonlarca para kazanmayı öncelik edinen ve bunun için birbirleriyle son hız yarışan bir azınlık ve halk arasında büyük bir çıkar çatışması var. Bunu tıpkı tütün konusunda yaptığımız ancak fosil yakıtlarda yapamadığımız gibi yönetmemiz gerekiyor. Yapay zekanın nasıl geliştirildiğine tek başına piyasa güçlerinin yön vermesine izin veremeyiz.

Soru: Eğer sadece piyasa güçlerine bırakılacak olursa geleceğimizi zaten oldukça yıkıcı olan bir algoritmaya bağlamış oluruz, ki bu biraz ironik. Yapay zekanın düzenlenmemesi için lobi yapan gruplardan bahsettiniz. Onların temel argümanları nelerdir?

Bengio: Evet, tam olarak öyle yapmış oluruz. En çok öne sürdükleri argümanları, bunun inovasyonu yavaşlatacağıdır. Fakat dünyayı olabildiğince hızlı dönüştürmek gibi bir yarış mı var? Hayır, amacımız dünyayı daha iyi hâle getirmek. Bu da toplumu korumak için adımlar atmayı gerektiriyorsa bunu yapmalıyız. Diğer sektörlerde yaptığımız üzere burada da doğru adımlar atarak yasal düzenlemeler getirmemiz mümkündür. Bu, inovasyonu durdurmaz. Sadece doğru yönde şekillendirir.

Neredeyse her şeyde düzenleme var: Yediğiniz sandviçten tutun, bindiğiniz arabaya ve uçaklara kadar. Yasal düzenlemelerin olmadığı zamanlar çok daha fazla istenmeyen sonuç meydana gelirdi. İlaç sektöründe de böyle. Hem yararlı hem de yasal olarak düzenlenmiş teknolojiye sahip olabiliriz. Yasal düzenlemeler ve denetlemeler, şimdiye kadar işe yaradığını bildiğimiz bir yöntem.

Tüm Reklamları Kapat

İkinci argüman ise Batının yavaşlayacak olması durumunda Çin'in ilerleyerek teknolojiyi Batıya karşı kullanacağı endişesidir. Bu gerçeklik payı olabilecek bir kaygıdır ancak çözüm, tedbiri elden bırakarak hızlanmak olamaz. Bu, bir silahlanma yarışına yol açar.

Çözüm, bir orta yolda buluşmaktır: Çin ile konuşup karşılıklı güvensizlik ve büyük felaketleri önlemek için anlaşmalar imzalanmalı. Uluslararası antlaşmalar yapılmalı, doğrulama teknolojileri geliştirilmeli ve tarafların tehlikeli olabilecek bir şey yapmadığı kanıtlanmalı. Böylece yapay zeka konusunda temkinli davranılabilir ve gezegenin iyiliği için birlikte hareket edilebilir..

Evrim Ağacı, sizlerin sayesinde bağımsız bir bilim iletişim platformu olmaya devam edecek!

Evrim Ağacı'nda tek bir hedefimiz var: Bilimsel gerçekleri en doğru, tarafsız ve kolay anlaşılır şekilde Türkiye'ye ulaştırmak. Ancak tahmin edebileceğiniz gibi Türkiye'de bilim anlatmak hiç kolay bir iş değil; hele ki bir yandan ekonomik bir hayatta kalma mücadelesi verirken...

O nedenle sizin desteklerinize ihtiyacımız var. Eğer yazılarımızı okuyanların %1'i bize bütçesinin elverdiği kadar destek olmayı seçseydi, bir daha tek bir reklam göstermeden Evrim Ağacı'nın bütün bilim iletişimi faaliyetlerini sürdürebilirdik. Bir düşünün: sadece %1'i...

O %1'i inşa etmemize yardım eder misiniz? Evrim Ağacı Premium üyesi olarak, ekibimizin size ve Türkiye'ye bilimi daha etkili ve profesyonel bir şekilde ulaştırmamızı mümkün kılmış olacaksınız. Ayrıca size olan minnetimizin bir ifadesi olarak, çok sayıda ayrıcalığa erişim sağlayacaksınız.

Avantajlarımız
"Maddi Destekçi" Rozeti
Reklamsız Deneyim
%10 Daha Fazla UP Kazanımı
Özel İçeriklere Erişim
+5 Quiz Oluşturma Hakkı
Özel Profil Görünümü
+1 İçerik Boostlama Hakkı
ve Daha Fazlası İçin...
Aylık
Tek Sefer
Destek Ol
₺50/Aylık
Bu Makaleyi Alıntıla
Okundu Olarak İşaretle
31
1
  • Paylaş
  • Alıntıla
  • Alıntıları Göster
Paylaş
Sonra Oku
Notlarım
Yazdır / PDF Olarak Kaydet
Bize Ulaş
Yukarı Zıpla

Makalelerimizin bilimsel gerçekleri doğru bir şekilde yansıtması için en üst düzey çabayı gösteriyoruz. Gözünüze doğru gelmeyen bir şey varsa, mümkünse güvenilir kaynaklarınızla birlikte bize ulaşın!

Bu makalemizle ilgili merak ettiğin bir şey mi var? Buraya tıklayarak sorabilirsin.

Soru & Cevap Platformuna Git
Bu Makale Sana Ne Hissettirdi?
  • Tebrikler! 7
  • İnanılmaz 1
  • Korkutucu! 1
  • Muhteşem! 0
  • Bilim Budur! 0
  • Mmm... Çok sapyoseksüel! 0
  • Güldürdü 0
  • Umut Verici! 0
  • Merak Uyandırıcı! 0
  • Üzücü! 0
  • Grrr... *@$# 0
  • İğrenç! 0
Kaynaklar ve İleri Okuma
  1. Çeviri Kaynağı: LiveScience | Arşiv Bağlantısı
  • ^ A.M. Turing Award. Yoshua Bengio - A.m. Turing Award Laureate. Alındığı Tarih: 7 Aralık 2024. Alındığı Yer: A.M. Turing Award | Arşiv Bağlantısı
  • ^ G. Hinton. Yoshua Bengio. (17 Nisan 2024). Alındığı Tarih: 8 Aralık 2024. Alındığı Yer: Time | Arşiv Bağlantısı
  • ^ A. S. Index. Engineering Highly Cited Researchers Citation Rankings 2025. Alındığı Tarih: 8 Aralık 2024. Alındığı Yer: ADScientific Index | Arşiv Bağlantısı
  • ^ A. S. Index. Geoffrey Hinton - Ad Scientific Index 2025. Alındığı Tarih: 16 Aralık 2024. Alındığı Yer: ADScientific Index | Arşiv Bağlantısı
  • ^ A. S. Index. Yoshua Bengio - Ad Scientific Index 2025. Alındığı Tarih: 16 Aralık 2024. Alındığı Yer: ADScientific Index | Arşiv Bağlantısı
  • ^ United States Senate Committee on the Judiciary. Oversight Of A.i.: Principles For Regulation | United States Senate Committee On The Judiciary. (25 Temmuz 2023). Alındığı Tarih: 8 Aralık 2024. Alındığı Yer: United States Senate Committee on the Judiciary | Arşiv Bağlantısı
  • ^ Yoshua Bengio. (Resmi Belge, 2023). Written Testimony Of Professor Yoshua Bengio.
  • ^ Yoshua Bengio. The International Scientific Report On The Safety Of Advanced Ai - Yoshua Bengio. (19 Haziran 2024). Alındığı Tarih: 8 Aralık 2024. Alındığı Yer: Yoshua Bengio | Arşiv Bağlantısı
  • ^ D. Kent. Americans In Both Parties Are Concerned Over The Impact Of Ai On The 2024 Presidential Campaign. (19 Eylül 2024). Alındığı Tarih: 16 Aralık 2024. Alındığı Yer: Pew Research Center | Arşiv Bağlantısı
  • ^ F. Salvi, et al. (2024). On The Conversational Persuasiveness Of Large Language Models: A Randomized Controlled Trial. ArXiV. doi: 10.48550/arXiv.2403.14380. | Arşiv Bağlantısı
  • ^ OpenAI. O1 Sysyem Card. (5 Aralık 2024). Alındığı Tarih: 16 Aralık 2024. Alındığı Yer: OpenAI | Arşiv Bağlantısı
  • ^ G. S. Reporter. Data Center Emissions Probably 662% Higher Than Big Tech Claims. Can It Keep Up The Ruse?. (15 Eylül 2024). Alındığı Tarih: 8 Aralık 2024. Alındığı Yer: The Guardian | Arşiv Bağlantısı
  • ^ J. Saul, et al. Us Natural Gas Power Plants Just Keep Coming To Meet Ai, Ev Electricity Demand. (16 Eylül 2024). Alındığı Tarih: 8 Aralık 2024. Alındığı Yer: Bloomberg | Arşiv Bağlantısı
  • ^ B. Kindig. Ai Power Consumption: Rapidly Becoming Mission-Critical. (20 Haziran 2024). Alındığı Tarih: 8 Aralık 2024. Alındığı Yer: Forbes | Arşiv Bağlantısı
  • ^ AISI Gov UK. The Ai Safety Institute (Aisi). Alındığı Tarih: 16 Aralık 2024. Alındığı Yer: AISI Gov UK | Arşiv Bağlantısı
  • ^ AISI Gov US. U.s. Artificial Intelligence Safety Institute | Nist. (26 Ekim 2023). Alındığı Tarih: 16 Aralık 2024. Alındığı Yer: AISI Gov US | Arşiv Bağlantısı
Tüm Reklamları Kapat

Evrim Ağacı'na her ay sadece 1 kahve ısmarlayarak destek olmak ister misiniz?

Şu iki siteden birini kullanarak şimdi destek olabilirsiniz:

kreosus.com/evrimagaci | patreon.com/evrimagaci

Çıktı Bilgisi: Bu sayfa, Evrim Ağacı yazdırma aracı kullanılarak 26/03/2025 14:34:13 tarihinde oluşturulmuştur. Evrim Ağacı'ndaki içeriklerin tamamı, birden fazla editör tarafından, durmaksızın elden geçirilmekte, güncellenmekte ve geliştirilmektedir. Dolayısıyla bu çıktının alındığı tarihten sonra yapılan güncellemeleri görmek ve bu içeriğin en güncel halini okumak için lütfen şu adrese gidiniz: https://evrimagaci.org/s/19210

İçerik Kullanım İzinleri: Evrim Ağacı'ndaki yazılı içerikler orijinallerine hiçbir şekilde dokunulmadığı müddetçe izin alınmaksızın paylaşılabilir, kopyalanabilir, yapıştırılabilir, çoğaltılabilir, basılabilir, dağıtılabilir, yayılabilir, alıntılanabilir. Ancak bu içeriklerin hiçbiri izin alınmaksızın değiştirilemez ve değiştirilmiş halleri Evrim Ağacı'na aitmiş gibi sunulamaz. Benzer şekilde, içeriklerin hiçbiri, söz konusu içeriğin açıkça belirtilmiş yazarlarından ve Evrim Ağacı'ndan başkasına aitmiş gibi sunulamaz. Bu sayfa izin alınmaksızın düzenlenemez, Evrim Ağacı logosu, yazar/editör bilgileri ve içeriğin diğer kısımları izin alınmaksızın değiştirilemez veya kaldırılamaz.

Aklımdan Geçen
Komünite Seç
Aklımdan Geçen
Fark Ettim ki...
Bugün Öğrendim ki...
İşe Yarar İpucu
Bilim Haberleri
Hikaye Fikri
Video Konu Önerisi
Başlık
Kafana takılan neler var?
Gündem
Bağlantı
Ekle
Soru Sor
Stiller
Kurallar
Komünite Kuralları
Bu komünite, aklınızdan geçen düşünceleri Evrim Ağacı ailesiyle paylaşabilmeniz içindir. Yapacağınız paylaşımlar Evrim Ağacı'nın kurallarına tabidir. Ayrıca bu komünitenin ek kurallarına da uymanız gerekmektedir.
1
Bilim kimliğinizi önceleyin.
Evrim Ağacı bir bilim platformudur. Dolayısıyla aklınızdan geçen her şeyden ziyade, bilim veya yaşamla ilgili olabilecek düşüncelerinizle ilgileniyoruz.
2
Propaganda ve baskı amaçlı kullanmayın.
Herkesin aklından her şey geçebilir; fakat bu platformun amacı, insanların belli ideolojiler için propaganda yapmaları veya başkaları üzerinde baskı kurma amacıyla geliştirilmemiştir. Paylaştığınız fikirlerin değer kattığından emin olun.
3
Gerilim yaratmayın.
Gerilim, tersleme, tahrik, taciz, alay, dedikodu, trollük, vurdumduymazlık, duyarsızlık, ırkçılık, bağnazlık, nefret söylemi, azınlıklara saldırı, fanatizm, holiganlık, sloganlar yasaktır.
4
Değer katın; hassas konulardan ve öznel yoruma açık alanlardan uzak durun.
Bu komünitenin amacı okurlara hayatla ilgili keyifli farkındalıklar yaşatabilmektir. Din, politika, spor, aktüel konular gibi anlık tepkilere neden olabilecek konulardaki tespitlerden kaçının. Ayrıca aklınızdan geçenlerin Türkiye’deki bilim komünitesine değer katması beklenmektedir.
5
Cevap hakkı doğurmayın.
Aklınızdan geçenlerin bu platformda bulunmuyor olabilecek kişilere cevap hakkı doğurmadığından emin olun.
Size Özel
Makaleler
Daha Fazla İçerik Göster
Popüler Yazılar
30 gün
90 gün
1 yıl
Evrim Ağacı'na Destek Ol

Evrim Ağacı'nın %100 okur destekli bir bilim platformu olduğunu biliyor muydunuz? Evrim Ağacı'nın maddi destekçileri arasına katılarak Türkiye'de bilimin yayılmasına güç katın.

Evrim Ağacı'nı Takip Et!
Yazı Geçmişi
Okuma Geçmişi
Notlarım
İlerleme Durumunu Güncelle
Okudum
Sonra Oku
Not Ekle
Kaldığım Yeri İşaretle
Göz Attım

Evrim Ağacı tarafından otomatik olarak takip edilen işlemleri istediğin zaman durdurabilirsin.
[Site ayalarına git...]

Filtrele
Listele
Bu yazıdaki hareketlerin
Devamını Göster
Filtrele
Listele
Tüm Okuma Geçmişin
Devamını Göster
0/10000
Bu Makaleyi Alıntıla
Evrim Ağacı Formatı
APA7
MLA9
Chicago
B. Turner, et al. Yapay Zeka Regüle Edilmezse Gelecekte Nasıl En Büyük Felaketimiz Olabilir?. (27 Ocak 2025). Alındığı Tarih: 26 Mart 2025. Alındığı Yer: https://evrimagaci.org/s/19210
Turner, B., Köse, M., Alparslan, E. (2025, January 27). Yapay Zeka Regüle Edilmezse Gelecekte Nasıl En Büyük Felaketimiz Olabilir?. Evrim Ağacı. Retrieved March 26, 2025. from https://evrimagaci.org/s/19210
B. Turner, et al. “Yapay Zeka Regüle Edilmezse Gelecekte Nasıl En Büyük Felaketimiz Olabilir?.” Edited by Eda Alparslan. Translated by Mücahid Köse, Evrim Ağacı, 27 Jan. 2025, https://evrimagaci.org/s/19210.
Turner, Ben. Köse, Mücahid. Alparslan, Eda. “Yapay Zeka Regüle Edilmezse Gelecekte Nasıl En Büyük Felaketimiz Olabilir?.” Edited by Eda Alparslan. Translated by Mücahid Köse. Evrim Ağacı, January 27, 2025. https://evrimagaci.org/s/19210.
ve seni takip ediyor

Göster

Şifremi unuttum Üyelik Aktivasyonu

Göster

Şifrenizi mi unuttunuz? Lütfen e-posta adresinizi giriniz. E-posta adresinize şifrenizi sıfırlamak için bir bağlantı gönderilecektir.

Geri dön

Eğer aktivasyon kodunu almadıysanız lütfen e-posta adresinizi giriniz. Üyeliğinizi aktive etmek için e-posta adresinize bir bağlantı gönderilecektir.

Geri dön

Close