Yapay Zeka Regüle Edilmezse Gelecekte Nasıl En Büyük Felaketimiz Olabilir?
Modern Yapay Zekanın Babalarından Yoshua Bengio, Regüle Edilmemesi Halinde Yapay Zekanın İnsanlık İçin Varoluşsal Risk Doğuracağını Söylüyor!

Yoshua Bengio, Kanadalı bilgisayar bilimci ve yapay zeka uzmanıdır. Derin öğrenme ve yapay sinir ağları üzerine yaptığı öncü çalışmalarla bilinmektedir. Université de Montréal Bilgisayar Bilimi ve Operasyon Araştırmaları Bölümü'nde profesör olarak görev almaktadır. Ayrıca Montreal Öğrenme Algoritmaları Enstitüsü'nün (İng: "MILA") bilimsel direktörlüğünü yürütmektedir. Bengio, derin öğrenme sahasındaki çalışmalarından dolayı, diğer iki öncü bilgisayar bilimci ile birlikte "bilgisayar biliminin nobel ödülü" olarak da anılan prestijli 2018 ACM A.M. Turing Ödülü'nü almaya hak kazanmıştır.[1]
Bengio ve ödülü paylaştığı diğer iki isim (Geoffrey Hinton ve Yann LeCun), "Modern Yapay Zekanın Babaları" ve "Derin Öğrenmenin Babaları" olarak anılmaktadır. Bengio, 2018 Turing Ödülü'nün yanı sıra 2024 Nobel Fizik Ödülü'nü de almaya hak kazanan bilişsel bilimci Geoffrey Hinton'ın önermesiyle TIME Dergisi'nin Dünyanın En Etkili 100 Kişisi 2024 listesine dahil edilmiştir.[2] Bengio, Hinton ile birlikte Aralık 2024 itibarıyla bilgisayar bilimlerinde dünyanın en çok atıfta bulunulan bilim insanıdır.[3], [4], [5]
Bengio, özellikle GPT-3 gibi dönüştürücü yapay zeka modellerinin çıkışının ardından yapay zekadaki hızlı ilerlemelere yönelik olarak "yapay genel zeka" (insan seviyesinde yapay zeka) hakkında önemli güvenlik riskleri uyarılarında bulunmaya başlamıştır. Öyle ki, Temmuz 2023'de, GPT 4'ün piyasaya sürülmesinden yalnızca birkaç ay sonra, alanın önde gelen bir diğer önemli ismi olan Stuart Russell ile birlikte ABD Senatosu'nda yeminli resmi bir ifade vermiş ve yapay zeka güvenliğinin sağlanmasının önemini vurgulamıştır.[6], [7] Halen resmi kurum ve yetkililere yapay zeka güvenliği konusunda uyarılarda bulunmaya devam etmektedir. Bununla birlikte Bengio, yapay zeka güvenliğinin yasalarca düzenlenmesi ve teknoloji şirketlerinin yaptığı yapay zeka araştırmalarının güvenliğinin devletler tarafından denetlenmesinin önemi konusunda basına demeçler vermekte ve bildiriler hazırlayıp imzalamaktadır.
Yoshua Bengio'ya göre yapay zeka, insanlık için öngörülemeyen bazı riskler barındırmaktadır. Bengio, şu anda 30 ülkenin yanı sıra Avrupa Birliği ve Birleşmiş Milletler tarafından desteklenen Gelişmiş Yapay Zeka Güvenliğine Dair Uluslararası Bilimsel Rapor (İng: "International Scientific Report on the Safety of Advanced AI") Konseyi'nin başkanlık görevini yürütmektedir.[8] Bu konsey, gelişmiş yapay zekanın güvenliği hususunda danışmanlık vermeyi amaçlayan bir oluşumdur.
Yoshua Bengio ile Yapay Zekanın Geleceği Üzerine Röportaj
Aralık 2024'te yabancı popüler bilim platformu LiveScience, Londra'da düzenlenen "HowTheLightGetsIn" adlı bir bilim festivali etkinliğinde Yoshua Bengio ile bir video görüşme yapma fırsatı yakalamıştır. Bu görüşmede Bengio, makine zekasının olasılığını ve gelişmekte olan yapay zeka teknolojilerinin risklerini ve bunları düzenlemenin önemini tartışmaktadır. Röportajın metni aşağıdaki gibidir:
Soru: Yapay sinir ağlarının geliştirilmesinde olağanüstü bir rol oynadınız ancak şimdi bu teknolojilerin geliştirilmesine bir ara verilmesi çağrısında bulunuyorsunuz ve onları düzenlemenin yollarını araştırıyorsunuz. Hayatınızın eserine bir ara verilmesini gerektiren etken nedir?
Bengio: Kendi kilisenize (yani kendi araştırma alanınıza ve akademik komünitenize) karşı çıkmak zordur ancak eğer olaylara rasyonel olarak bakarsanız belli bir yapay zeka seviyesine ulaştığımızda felaket sonuçlarının ortaya çıkma olasılığını inkâr etmenin bir yolu yoktur. Yapay zeka bu noktaya varmadan önce, kötü senaryoların mümkün olduğunu biliyordum fakat sorunu çözeceğimizi düşünüyordum. Ancak çocuklarımı ve onların geleceğini düşünmek beni farklı yönde davranmaya itti. Yapay zekanın risklerini azaltmak için elimden geleni yapmak zorundaydım.
Soru: Yapay zekanın en kötü etkilerini azaltma konusunda bir sorumluluk hissettiğinizi söyleyebilir misiniz? Bu mesele omuzlarınızda bir yük oluşturuyor mu?
Bengio: Evet, bir sorumluluk hissediyorum. Bilimsel çalışmalarımdan dolayı kazandığım tanınırlığın sesime bir ağırlık kattığına inanıyorum ve bu nedenle konuşmam gerektiğini düşünüyorum. Bu konuya dahil olmamın bir diğer nedeni de eğer insanlara zarar vermeyecek bir yapay zeka inşa edeceksek teknik çözümün daha büyük bir politik çözümün parçası olması gerekmesidir.
Bu sistemleri dilediği gibi kontrol edebilmek için şirketler de teknik çözümler uygulamak isteyecektir, ancak şu anda bu teknik çözümün (yapay genel zekanın hizalanması ve kontrolünün) nasıl geliştirileceğini bilmiyoruz. Şu anda, yapay zeka insan seviyesine ulaştığında getireceği kâr için sektörde çok büyük bir beklenti var. Bu durum, çok zorlu bir pozisyonda olduğumuzu gösteriyor ve bunlara bir an önce bilimsel cevaplar bulmamız gerekiyor.
Sürekli kullandığım bir metafor var: İnsanlık olarak bir arabaya binmiş ve sisle kaplı bilmediğimiz bir yolda gidiyoruz. Dağlık bir yolda ilerliyor olabiliriz, sisin ardında çok tehlikeli bir patika olabilir fakat biz bunu yeterince açık göremiyoruz.
Aslında maddi destek istememizin nedeni çok basit: Çünkü Evrim Ağacı, bizim tek mesleğimiz, tek gelir kaynağımız. Birçoklarının aksine bizler, sosyal medyada gördüğünüz makale ve videolarımızı hobi olarak, mesleğimizden arta kalan zamanlarda yapmıyoruz. Dolayısıyla bu işi sürdürebilmek için gelir elde etmemiz gerekiyor.
Bunda elbette ki hiçbir sakınca yok; kimin, ne şartlar altında yayın yapmayı seçtiği büyük oranda bir tercih meselesi. Ne var ki biz, eğer ana mesleklerimizi icra edecek olursak (yani kendi mesleğimiz doğrultusunda bir iş sahibi olursak) Evrim Ağacı'na zaman ayıramayacağımızı, ayakta tutamayacağımızı biliyoruz. Çünkü az sonra detaylarını vereceğimiz üzere, Evrim Ağacı sosyal medyada denk geldiğiniz makale ve videolardan çok daha büyük, kapsamlı ve aşırı zaman alan bir bilim platformu projesi. Bu nedenle bizler, meslek olarak Evrim Ağacı'nı seçtik.
Eğer hem Evrim Ağacı'ndan hayatımızı idame ettirecek, mesleklerimizi bırakmayı en azından kısmen meşrulaştıracak ve mantıklı kılacak kadar bir gelir kaynağı elde edemezsek, mecburen Evrim Ağacı'nı bırakıp, kendi mesleklerimize döneceğiz. Ama bunu istemiyoruz ve bu nedenle didiniyoruz.
Peki ne yapacağız? Her şeyin bir şekilde yolunda gideceğini umarak tam hız ilerlemeye devam mı edeceğiz? Yoksa teknolojik çözümler mi arayacağız? Politik çözüm, ihtiyat ilkesini hayata geçirmektir: "Emin değilsen yavaşla." Burada teknik çözüm, sisin ötesini görmek için yöntemler geliştirmek ve arabamıza güvenlik önlemleri eklemektir.
Soru: Kısa ve uzun vadede makine öğreniminin insanlık için en büyük riskleri nelerdir?
Bengio: İnsanlar, yapay zekaya yönelik büyük risklerin hep bir bilimkurgu olduğunu zannederler ancak değiller. Kısa vadede, yapay zekanın ülkelerin seçim kampanyalarında kullanılmakta olduğunu görüyoruz.[9] Bu durum çok daha kötüleşecek. Yakın zamanda yapılan bir çalışma, ChatGPT-4'ün insanlardan çok daha iyi bir ikna kabiliyetine sahip olduğunu gösterdi.[10] Ki bu sadece ChatGPT-4, daha yeni sürümler daha da endişe verici olabilir. Ayrıca, bu sistemlerin terör gruplarına yardımcı olabileceği de görülmüştür. Yakın dönemde ChatGPT'nin o1 sürümünde, risk seviyesi düşükten orta seviyeye çıkarılmıştır.[11]
Daha ileri vadede, süper zeka seviyesine ulaştığımızda iki büyük risk vardır. Birincisi, insan kontrolünün kaybıdır. Eğer genel zekaya sahip makinelerin doğası, bir tür kendini müdafaa hedefi içeriyorsa onları kapatmamızı engellemek için insanlığı yok etmeye çalışabilirler.
İkinci tehlike, eğer ilk senaryo gerçekleşmezse kişi ya da kurumların yapay genel zekanın gücünü kullanarak dünya çapında bir diktatörlük kurabilecek olmasıdır. Bu durum daha hafif ölçekte de yaşanabilir; bu bir spektrumdur. Ancak her durumda yapay genel zeka, onu elinde bulunduracak olanlara muazzam nitelikte bir güç verecektir.
Soru: Avrupa Birliği bir yapay zeka yasası çıkardı, ABD Başkanı Biden ise bir başkanlık kararnamesi yayımladı. Hükümetler bu risklere ne ölçüde doğru yanıt veriyor? Atılan adımlar doğru mu yoksa yanlış yönde midir?
Bengio: Bunlar doğru yönde atılan adımlar. Örneğin Biden'ın başkanlık kararnamesi, o aşamada Beyaz Saray'ın yapabileceği kadarıydı fakat şirketleri sistemlerinin test sonuçlarını paylaşmaya veya bu testleri yapmaya zorlamıyor. Bu, tamamen şirketlerin gönüllülüğüne kalmış bir durum. Bu gönüllülük unsurunu ortadan kaldırmamız gerekiyor. Şirketler gerçekten güvenlik planlarına sahip olmalı, test sonuçlarını açıklamalı ve toplumu koruma konusunda en ileri uygulama çerçevelerini takip etmiyorlarsa hesap vermeliler. Böyle bir yasal düzenleme önerisi, şu anda mevcut olanlar arasında en iyisi gibi görünüyor.
Soru: Şu anda yapay sinir ağları etkileyici uygulamalara sahip. Ancak gözetimsiz öğrenmede sorunlar yaşayabiliyorlar, eğitim verilerinde ender ortaya çıkan durumlara uyum sağlamada güçlük çekiyorlar ve muazzam miktarda veri tüketmeleri gerekiyor. Örneğin, sürücüsüz otomobillerde de gördüğümüz üzere bu kusurlar da kendi risklerini doğurmuyor mu?
Bengio: Öncelikle, sorunuzda düzeltilmesi gereken bir husus var: Bu sistemler gözetimsiz öğrenmede çok iyidir. Esas olarak onların eğitilme şekli budur. Onlara verilen tüm verileri işleyip anlamlandırarak asli görev verilmeden önce bir eğitime tabi tutulular. Bu gözetimsiz öğrenmedir.
Ne kadar veriye ihtiyaçları olduğuna gelince; evet, insanlardan daha fazla veriye ihtiyaçları var. Fakat evrimin, beyinlerimizde var olan bilişsel becerileri oluşturmak için çok daha fazla veri kullandığı konusunda da argümanlar var. Bu nedenle bir karşılaştırma yapmak zor.
Veri ihtiyacı konusunda iyileştirmeler yapılabileceğini düşünüyorum. Burada politika perspektifinden önemli olan nokta, büyük bir ilerleme kaydetmiş olmamızdır. İnsan zekasıyla mevcut yapay zeka yetenekleri arasında hâlâ büyük bir fark olduğu doğrudur fakat bu farkın kapanmasının ne kadar süreceği oldukça belirsizdir. Politika, yapay genel zekaya hızlı bir şekilde ulaşılabileceği ihtimaline, örneğin önümüzdeki 5 yıl içinde, hazırlıklı olmalıdır.
Soru: Veri konusuyla ilgili olarak GPT modellerinin kendi ürettikleri içerikleri tüketmeleri sonucunda "model çökmesi" yaşadıkları gösterildi. Siz süper zeka seviyesine ulaşılması ve kontrolün kaybedilmesi tehlikesinden söz ettiniz ancak gülünç olabilecek bir distopik olasılık daha var: Biz yapay zekaya bağımlı hâle geliyoruz. Yapay zeka; endüstrilerden işleri çekip alıyor, ardından kendisi geriliyor ve çöküyor, biz de geride kalan hasarı toparlamakla uğraşıyoruz. Bu konuda ne düşünüyorsunuz?
Bengio: Bu sistemlerin kendi ürettikleri verilerle eğitilmeleri nedeniyle çökmeleri konusunun önemli bir sorun olduğunu düşünmüyorum. Eğer sentetik veriyi akıllıca kullanacak olursanız, sistemlere sadece "veri üretin ve bununla kendinizi eğitin" demezsiniz. Bu, makine öğrenimi açısından anlamsız bir çaba olur.
Sentetik veri kullanarak sistemler kendileriyle rekabet edebilecek hale getirilebilir ve bu sayede daha iyi kararlar almak için sentetik veri oluşturabilir. Bu sebeple bu konuda önemli bir sorun görmüyorum.
Bununla birlikte, makinelerin öngöremediğimiz yan etkilerinin olması mümkündür. Onlara bağımlı hâle gelirsek fişi çekmek zorlaşabilir veya kontrolü kaybedebiliriz. Eğer bu makineler her yerdeyse, toplumun birçok katmanını kontrol ediyorsa ve art niyetli hale gelirlerse...
Bu sistemlerde insanları aldatmaya yönelik yetenekler şu anda zaten var. Ayrıca, bilmediğimiz çok sayıda bilinmeyen bilinmeyen var ve bunlar çok ama çok kötü şeyler olabilir. Bu yüzden çok dikkatli olmamız gerekiyor.
Soru: The Guardian; Google, Apple, Meta ve Microsoft'un veri merkezlerinden kaynaklı emisyonlarının, iddia ettiklerinden %662 daha yüksek olabileceğini bildirdi.[12] Bloomberg de yapay zeka veri merkezlerinin ABD'de fosil yakıt altyapısının yeniden canlanmasını tetiklediğini aktardı.[13] Bu durumda yapay zekanın yakın vadedeki gerçek tehlikesi, iklim üzerindeki geri döndürülemez etkileri olabilir mi?
Bengio: Evet, kesinlikle bu büyük bir sorun. Bu sorunu, yapay zekanın insan türünün sonunu getirme riski açısından büyük politik sorunlar ile eşdeğer tutmazdım ancak yine de son derece ciddiye alınması gereken bir mesele.
Verilere bakarsanız, en büyük modelleri eğitmek için gereken elektrik miktarı her yıl katlanarak artmaktadır.[14] Şirketler, modellerini büyüttükçe daha zeki hale geldiklerini ve bundan daha çok para kazandıklarını görüyorlar. Ekonomik getirisi çok büyük olabilecek bir zeka elde etmek için elektrik faturasının 10 katına çıkması, yarış halinde olan bu şirketler için bir sorun olmayacaktır. Bu açgözlülük, hepimizin büyük bedeller ödemeye mahkûm olacağı anlamına gelir.
Eğer mevcut gidişat durdurulmazsa gezegende üretilen elektriğin büyük bir kısmı, bu modellerin eğitilmesine harcanacak. Kaldı ki bu elektriğin hepsi yenilenebilir enerjiden sağlanamaz. Yere gömülü olan fosil yakıtlar daha da fazla çıkarılacak. Bu da kötü bir durumdur. Bu, yavaşlamamız gerektiğine dair bir başka neden ama tek neden değil.
Soru: Bazı yapay zeka araştırmacıları, yapay genel zekanın (AGI) tehlikesine dikkat çekiyor ancak bu terim alan içinde tartışmalı. Thomas Dietterich gibi bazı isimler; bu kavramın bilimsel olmadığını, kullanmaktan "utanılması" gerektiğini söylüyor. Bu tartışmada sizin duruşunuz nedir?
Bengio: Belirli alanlarda yeterlik hakkında konuşmak gayet bilimseldir. Sürekli testler yapıyor ve belirli kabiliyetleri değerlendiriyoruz. Sorun, "genel zeka" kavramının ne anlama geldiğini sorduğumuzda ortaya çıkıyor. Ancak bence bu yanlış bir soru. Benim sorum şu: Belirli yeteneklere yeterince sahip olan makineler, bize ne ölçüde zarar verebilir? Siber saldırıda bulunabilirler mi? Biyolojik silah tasarlayabilirler mi? İnsanları manipüle ederek istediklerini yaptırabilirler mi? Geliştiricilerinin isteğine aykırı olarak kendilerini başka cihazlarda veya internette kopyalayabilirler mi?
Bu kabiliyetlerden sadece bir kısmına bile sahip olmaları onları son derece tehlikeli kılar. Bu konuda belirsiz bir şey yok. Bu yeteneklerin test edilmesi için değerlendirme araçları oluşturulmaya başlandı bile, çünkü makinelerin bu yeteneklere sahip olmasını istemiyoruz. Bunun için İngiltere ve ABD'deki yapay zeka güvenlik enstitüleri, bu konular üzerinde çalışıyor ve modelleri test ediyorlar.[15], [16]
Soru: Daha önce bu konuya değindik ancak bilim insanları ve politikacıların riskleri ele alma biçiminden ne derece memnunsunuz? Kendi çabalarınızdan ve diğerlerinin çabalarından tatminkâr mısınız? Yoksa hâlâ çok tehlikeli bir yolda mı gidiyoruz?
Bengio: Riskleri azaltma konusunda henüz gerekeni yapmadığımızı düşünüyorum. Küresel bir tartışma yaşandı, birçok yasal düzenleme önerisi ortaya atıldı, Birleşmiş Milletler uluslararası anlaşmalar düşünmeye başladı. Ancak daha çok yol gitmemiz gerekiyor.
Farkındalığı artırma, riskleri daha iyi anlama ve politikacıların mevzuatı düşünmesi açısından büyük ilerleme kaydettik. Ancak hâlâ kendimizi felaket risklerinden koruyabileceğimiz seviyede değiliz.
Öte yandan, son aylarda regülasyonlara karşı çıkan çok güçlü lobilerin de oluştuğunu görüyoruz. Az sayıda ama çok zengin ve güçlü insanlar, yapay zeka ile ne yaptıkları konusunda toplumun söz hakkı olmamasını istiyorlar ve dolayısıyla denetime ayak diriyorlar.
Yapay zekayı inşa edenler arasında tonlarca para kazanmayı öncelik edinen ve bunun için birbirleriyle son hız yarışan bir azınlık ve halk arasında büyük bir çıkar çatışması var. Bunu tıpkı tütün konusunda yaptığımız ancak fosil yakıtlarda yapamadığımız gibi yönetmemiz gerekiyor. Yapay zekanın nasıl geliştirildiğine tek başına piyasa güçlerinin yön vermesine izin veremeyiz.
Soru: Eğer sadece piyasa güçlerine bırakılacak olursa geleceğimizi zaten oldukça yıkıcı olan bir algoritmaya bağlamış oluruz, ki bu biraz ironik. Yapay zekanın düzenlenmemesi için lobi yapan gruplardan bahsettiniz. Onların temel argümanları nelerdir?
Bengio: Evet, tam olarak öyle yapmış oluruz. En çok öne sürdükleri argümanları, bunun inovasyonu yavaşlatacağıdır. Fakat dünyayı olabildiğince hızlı dönüştürmek gibi bir yarış mı var? Hayır, amacımız dünyayı daha iyi hâle getirmek. Bu da toplumu korumak için adımlar atmayı gerektiriyorsa bunu yapmalıyız. Diğer sektörlerde yaptığımız üzere burada da doğru adımlar atarak yasal düzenlemeler getirmemiz mümkündür. Bu, inovasyonu durdurmaz. Sadece doğru yönde şekillendirir.
Neredeyse her şeyde düzenleme var: Yediğiniz sandviçten tutun, bindiğiniz arabaya ve uçaklara kadar. Yasal düzenlemelerin olmadığı zamanlar çok daha fazla istenmeyen sonuç meydana gelirdi. İlaç sektöründe de böyle. Hem yararlı hem de yasal olarak düzenlenmiş teknolojiye sahip olabiliriz. Yasal düzenlemeler ve denetlemeler, şimdiye kadar işe yaradığını bildiğimiz bir yöntem.
İkinci argüman ise Batının yavaşlayacak olması durumunda Çin'in ilerleyerek teknolojiyi Batıya karşı kullanacağı endişesidir. Bu gerçeklik payı olabilecek bir kaygıdır ancak çözüm, tedbiri elden bırakarak hızlanmak olamaz. Bu, bir silahlanma yarışına yol açar.
Çözüm, bir orta yolda buluşmaktır: Çin ile konuşup karşılıklı güvensizlik ve büyük felaketleri önlemek için anlaşmalar imzalanmalı. Uluslararası antlaşmalar yapılmalı, doğrulama teknolojileri geliştirilmeli ve tarafların tehlikeli olabilecek bir şey yapmadığı kanıtlanmalı. Böylece yapay zeka konusunda temkinli davranılabilir ve gezegenin iyiliği için birlikte hareket edilebilir..
Evrim Ağacı'nda tek bir hedefimiz var: Bilimsel gerçekleri en doğru, tarafsız ve kolay anlaşılır şekilde Türkiye'ye ulaştırmak. Ancak tahmin edebileceğiniz gibi Türkiye'de bilim anlatmak hiç kolay bir iş değil; hele ki bir yandan ekonomik bir hayatta kalma mücadelesi verirken...
O nedenle sizin desteklerinize ihtiyacımız var. Eğer yazılarımızı okuyanların %1'i bize bütçesinin elverdiği kadar destek olmayı seçseydi, bir daha tek bir reklam göstermeden Evrim Ağacı'nın bütün bilim iletişimi faaliyetlerini sürdürebilirdik. Bir düşünün: sadece %1'i...
O %1'i inşa etmemize yardım eder misiniz? Evrim Ağacı Premium üyesi olarak, ekibimizin size ve Türkiye'ye bilimi daha etkili ve profesyonel bir şekilde ulaştırmamızı mümkün kılmış olacaksınız. Ayrıca size olan minnetimizin bir ifadesi olarak, çok sayıda ayrıcalığa erişim sağlayacaksınız.
Makalelerimizin bilimsel gerçekleri doğru bir şekilde yansıtması için en üst düzey çabayı gösteriyoruz. Gözünüze doğru gelmeyen bir şey varsa, mümkünse güvenilir kaynaklarınızla birlikte bize ulaşın!
Bu makalemizle ilgili merak ettiğin bir şey mi var? Buraya tıklayarak sorabilirsin.
Soru & Cevap Platformuna Git- 7
- 1
- 1
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- Çeviri Kaynağı: LiveScience | Arşiv Bağlantısı
- ^ A.M. Turing Award. Yoshua Bengio - A.m. Turing Award Laureate. Alındığı Tarih: 7 Aralık 2024. Alındığı Yer: A.M. Turing Award | Arşiv Bağlantısı
- ^ G. Hinton. Yoshua Bengio. (17 Nisan 2024). Alındığı Tarih: 8 Aralık 2024. Alındığı Yer: Time | Arşiv Bağlantısı
- ^ A. S. Index. Engineering Highly Cited Researchers Citation Rankings 2025. Alındığı Tarih: 8 Aralık 2024. Alındığı Yer: ADScientific Index | Arşiv Bağlantısı
- ^ A. S. Index. Geoffrey Hinton - Ad Scientific Index 2025. Alındığı Tarih: 16 Aralık 2024. Alındığı Yer: ADScientific Index | Arşiv Bağlantısı
- ^ A. S. Index. Yoshua Bengio - Ad Scientific Index 2025. Alındığı Tarih: 16 Aralık 2024. Alındığı Yer: ADScientific Index | Arşiv Bağlantısı
- ^ United States Senate Committee on the Judiciary. Oversight Of A.i.: Principles For Regulation | United States Senate Committee On The Judiciary. (25 Temmuz 2023). Alındığı Tarih: 8 Aralık 2024. Alındığı Yer: United States Senate Committee on the Judiciary | Arşiv Bağlantısı
- ^ Yoshua Bengio. (Resmi Belge, 2023). Written Testimony Of Professor Yoshua Bengio.
- ^ Yoshua Bengio. The International Scientific Report On The Safety Of Advanced Ai - Yoshua Bengio. (19 Haziran 2024). Alındığı Tarih: 8 Aralık 2024. Alındığı Yer: Yoshua Bengio | Arşiv Bağlantısı
- ^ D. Kent. Americans In Both Parties Are Concerned Over The Impact Of Ai On The 2024 Presidential Campaign. (19 Eylül 2024). Alındığı Tarih: 16 Aralık 2024. Alındığı Yer: Pew Research Center | Arşiv Bağlantısı
- ^ F. Salvi, et al. (2024). On The Conversational Persuasiveness Of Large Language Models: A Randomized Controlled Trial. ArXiV. doi: 10.48550/arXiv.2403.14380. | Arşiv Bağlantısı
- ^ OpenAI. O1 Sysyem Card. (5 Aralık 2024). Alındığı Tarih: 16 Aralık 2024. Alındığı Yer: OpenAI | Arşiv Bağlantısı
- ^ G. S. Reporter. Data Center Emissions Probably 662% Higher Than Big Tech Claims. Can It Keep Up The Ruse?. (15 Eylül 2024). Alındığı Tarih: 8 Aralık 2024. Alındığı Yer: The Guardian | Arşiv Bağlantısı
- ^ J. Saul, et al. Us Natural Gas Power Plants Just Keep Coming To Meet Ai, Ev Electricity Demand. (16 Eylül 2024). Alındığı Tarih: 8 Aralık 2024. Alındığı Yer: Bloomberg | Arşiv Bağlantısı
- ^ B. Kindig. Ai Power Consumption: Rapidly Becoming Mission-Critical. (20 Haziran 2024). Alındığı Tarih: 8 Aralık 2024. Alındığı Yer: Forbes | Arşiv Bağlantısı
- ^ AISI Gov UK. The Ai Safety Institute (Aisi). Alındığı Tarih: 16 Aralık 2024. Alındığı Yer: AISI Gov UK | Arşiv Bağlantısı
- ^ AISI Gov US. U.s. Artificial Intelligence Safety Institute | Nist. (26 Ekim 2023). Alındığı Tarih: 16 Aralık 2024. Alındığı Yer: AISI Gov US | Arşiv Bağlantısı
Evrim Ağacı'na her ay sadece 1 kahve ısmarlayarak destek olmak ister misiniz?
Şu iki siteden birini kullanarak şimdi destek olabilirsiniz:
kreosus.com/evrimagaci | patreon.com/evrimagaci
Çıktı Bilgisi: Bu sayfa, Evrim Ağacı yazdırma aracı kullanılarak 26/03/2025 14:34:13 tarihinde oluşturulmuştur. Evrim Ağacı'ndaki içeriklerin tamamı, birden fazla editör tarafından, durmaksızın elden geçirilmekte, güncellenmekte ve geliştirilmektedir. Dolayısıyla bu çıktının alındığı tarihten sonra yapılan güncellemeleri görmek ve bu içeriğin en güncel halini okumak için lütfen şu adrese gidiniz: https://evrimagaci.org/s/19210
İçerik Kullanım İzinleri: Evrim Ağacı'ndaki yazılı içerikler orijinallerine hiçbir şekilde dokunulmadığı müddetçe izin alınmaksızın paylaşılabilir, kopyalanabilir, yapıştırılabilir, çoğaltılabilir, basılabilir, dağıtılabilir, yayılabilir, alıntılanabilir. Ancak bu içeriklerin hiçbiri izin alınmaksızın değiştirilemez ve değiştirilmiş halleri Evrim Ağacı'na aitmiş gibi sunulamaz. Benzer şekilde, içeriklerin hiçbiri, söz konusu içeriğin açıkça belirtilmiş yazarlarından ve Evrim Ağacı'ndan başkasına aitmiş gibi sunulamaz. Bu sayfa izin alınmaksızın düzenlenemez, Evrim Ağacı logosu, yazar/editör bilgileri ve içeriğin diğer kısımları izin alınmaksızın değiştirilemez veya kaldırılamaz.
This work is an exact translation of the article originally published in LiveScience. Evrim Ağacı is a popular science organization which seeks to increase scientific awareness and knowledge in Turkey, and this translation is a part of those efforts. If you are the author/owner of this article and if you choose it to be taken down, please contact us and we will immediately remove your content. Thank you for your cooperation and understanding.