Keşfedin, Öğrenin ve Paylaşın
Evrim Ağacı'nda Aradığın Her Şeye Ulaşabilirsin!
Paylaşım Yap
Tüm Reklamları Kapat

Yapay Zekâda Öncü Bilim İnsanları Felaket Risklerine Karşı Devletleri Önlem Almaya Çağırıyor!

Bilim İnsanları Yapay Zekâ Gelişmelerinin Güvenliğinin Denetlenmesi İçin Uluslararası Bir Otorite Kurulması Çağrısında Bulunuyor!

7 dakika
221
Yapay Zekâda Öncü Bilim İnsanları Felaket Risklerine Karşı Devletleri Önlem Almaya Çağırıyor! DALL-E 3
Bu görsel, DALL-E 3'den gücünü alan yapay zekâ dil modeli GPT-4o tarafından oluşturulmuştur.
Tüm Reklamları Kapat

Yapay zekânın geliştirilmesinde öncülük eden bilim insanları, hızlı bir şekilde gelişmekte olan bu teknolojinin potansiyel risklerini kontrol altına almak için ülkelerin küresel bir denetim sistemi kurmaları gerektiğini belirterek uyarıda bulunmaktadır.

Verilen komut ile metin ya da görsel gibi çıktılar üretebilen üretken yapay zekâ dil modellerinin ortaya çıkışı, yapay zekânın ne denli güçlü biçimlerde ilerlediğini açıkça göstermektedir. Teknolojiyi ticarileştirme yarışı, onu çok kısa sürede akademinin sınırlarından çıkarıp akıllı telefonlara, otomobillere ve dersliklere kadar taşımıştır. Bu süreçte Washington'dan Pekin'e kadar dünya genelindeki devletler, yapay zekâyı hem düzenlemek hem de ondan yararlanmak konusunda hızlıca çözümler üretmek zorunda kalmıştır.

Eylül 2024 Venedik Yapay Zekâ Güvenliği Toplantısı

Eylül 2024'te, yapay zekâ alanının önde gelen önemli isimlerinden Yoshua Bengio, Geoffrey Hinton, Stuart Russell, Andrew Yao ve Ya-Qin Zhang öncülüğünde birçok bilim insanı bir araya gelmiştir ve bizzat geliştirilmesine katkıda bulundukları yapay zekânın yakın bir gelecekte ciddi risklere yol açabileceği konusundaki kaygılarını dile getirmişlerdir.

Tüm Reklamları Kapat

Bu bilim insanları, yapay zekânın birkaç yıl gibi kısa bir süre içinde yaratıcılarının yeteneklerini geride bırakabilecek bir zekâ düzeyine ulaşabileceğini ve insan kontrolünün yitirilmesinin veya bu yapay zekâ sistemlerinin kötü niyetli kullanımının tüm insanlık açısından felaketle sonuçlanabileceği konusunda uyarılarda bulunmuşlardır.

Soldan sağa: Stuart Russell, Andrew Yao, Yoshua Bengio ve Ya-Qin Zhang. Geoffrey Hinton, toplantıya uzaktan katılım sağladı. Yapay zekânın oluşturduğu ciddi risklerin önlenmesi için uluslararası iş birliği çağrısında bulunan bu isimler, yapay zekâ alanındaki en etkili bilim insanları arasında görülmektedir.
Soldan sağa: Stuart Russell, Andrew Yao, Yoshua Bengio ve Ya-Qin Zhang. Geoffrey Hinton, toplantıya uzaktan katılım sağladı. Yapay zekânın oluşturduğu ciddi risklerin önlenmesi için uluslararası iş birliği çağrısında bulunan bu isimler, yapay zekâ alanındaki en etkili bilim insanları arasında görülmektedir.
Massimo Pistore

Bu toplantıya katılım sağlayan Johns Hopkins Üniversitesi'nden hukukçu, bilgisayar bilimi ve kamu yönetimi profesörü olan Gillian Hadfield, bugün dünyanın herhangi bir noktasında bir yapay zekâ sisteminin ileri yetenekler geliştirmesi durumunda onu dizginlemek için hazır bir planın mevcut olmadığını belirtmektedir. Dr. Hadfield şöyle söylüyor:

Eğer altı ay sonra bir felaket yaşansa, yani modellerin otonom bir şekilde kendilerini geliştirmeye başladığını fark etsek böyle bir durumda kimi arayacaksınız?

Bu nedenle, 5-8 Eylül 2024 tarihlerinde dünyanın dört bir yanından gelen bilim insanları, bu konulara dair bir planı tartışmak üzere Venedik'te bir araya gelmişlerdir. Bu toplantı, ABD merkezli kâr amacı gütmeyen bir araştırma grubu Far.AI oluşumunun Safe AI Forum (Tr: "Güvenli Yapay Zeka Forumu") tarafından organize edilen Uluslararası Yapay Zekâ Güvenliği Diyalogları'nın üçüncü buluşmasıdır. Venedik'te toplanan bilim insanları, devletlerin kendi topraklarındaki araştırma laboratuvarlarında ve şirketlerde yapay zekâ sistemleri ile ilgili neler olup bittiğini tam anlamıyla bilmesinin önemli bir gereklilik olduğunu vurgulamışlardır.

Yapay Zekâ Güvenliği Otoritesi Oluşturmanın Önemi

Bilim insanlarının önerisi, her ülkenin kendi sınırları içinde geliştirilen yapay zekâ sistemlerini takip edecek bir yapay zekâ güvenliği otoritesi kurması yönündedir. Bu doğrultuda ulusal güvenlik otoritelerini, yapay zekâ sistemlerinin kendilerini başka cihazlarda ya da internette kopyalayabilmesi veya yaratıcısını kasıtlı olarak aldatabilmesi gibi bazı kırmızı çizgiler ve uyarı işaretleri konusunda ortak standartlar belirlemesi gerektiğini belirtmişlerdir. Ayrıca bunun gibi ileri düzey riskler için devletlerin uluslararası düzeyde işbirliği yapması çağrısında bulunmuşlar ve bu süreç için Birleşmiş Milletler gibi bir uluslararası bir otoritenin koordinasyonunu önermişlerdir.

Tüm Reklamları Kapat

ABD, Çin, İngiltere, Kanada, Singapur ve başka birçok ülkeleden pek çok bilim insanı toplantı sonunda hazırlanan bildiriye imza atmışlardır. Bildirinin imzacılarından özellikle öne çıkan iki isim, Yoshua Bengio ve Geoffrey Hinton'dır. Aynı zamanda, Pekin Tsinghua Üniversitesi'nde verdiği dersler ile alanda ün kazanan ve başarılı birçok öğrenci yetiştiren Andrew Yao da imzacılar arasındadır. Bu üç ismin her biri, prestijli kabul edilen Turing A.M ACM Ödülü'nü kazanan seçkin araştırmacılar arasında yer almaktadır. Hinton ve Bengio, 2018 Yılı Turing Ödülü'nü; Yao ise 2000 Yılı Turing Ödülü'nü kazanmıştır).[1], [2], [3] Ayrıca, bu isimlerden Hinton, 2024 Nobel Fizik Ödülü'nü de almaya hak kazanmıştır.

Bununla birlikte toplantıda, Çin'in hükümet politikalarına danışmanlık yapan önde gelen yapay zekâ araştırma kurumlarında çalışan birkaç Çinli bilim insanı da yer almıştır. Ayrıca eski hükümet yetkililerinden bazıları da toplantıya katılım sağlamıştır. Örneğin, daha önce Çin Dışişleri Bakanlığı'nda görev almış ve diplomat olarak hizmet vermiş Fu Ying ile İrlanda'nın eski cumhurbaşkanı Mary Robinson bu isimler arasındadır.

Buna ek olarak bilim insanları, ilk kez 2024'ün başlarında Çin'in başkenti Pekin'de toplanmış ve toplantı sonrasında üst düzey Çin hükümet yetkililerine görüşmelerinin içeriğini aktararak bilgi vermişlerdir.

Bildiri ile sonuçlanan son toplantı ise İtalya'nın Veneto bölgesinin başkenti Venedik'te gerçekleşmiştir. Bu toplantılar, Çin'den ve Batıdan bilim insanlarının etkileşim kurması için nadir bulunan bir fırsat sunmaktadır. Keza ABD ve Çin, teknolojik üstünlük için büyük bir rekabet içerisendedir. Bu bağlamda bu toplantılar, bilimsel ve teknolojik rekabet kızışırken ve diyalog ortamı giderek daralırken farklı coğrafyalardan uzmanların bir araya gelmesine olanak tanımaktadır.

Evrim Ağacı'ndan Mesaj

Evrim Ağacı'nın çalışmalarına Kreosus, Patreon veya YouTube üzerinden maddi destekte bulunarak hem Türkiye'de bilim anlatıcılığının gelişmesine katkı sağlayabilirsiniz, hem de site ve uygulamamızı reklamsız olarak deneyimleyebilirsiniz. Reklamsız deneyim, sitemizin/uygulamamızın çeşitli kısımlarda gösterilen Google reklamlarını ve destek çağrılarını görmediğiniz, %100 reklamsız ve çok daha temiz bir site deneyimi sunmaktadır.

Kreosus

Kreosus'ta her 10₺'lik destek, 1 aylık reklamsız deneyime karşılık geliyor. Bu sayede, tek seferlik destekçilerimiz de, aylık destekçilerimiz de toplam destekleriyle doğru orantılı bir süre boyunca reklamsız deneyim elde edebiliyorlar.

Kreosus destekçilerimizin reklamsız deneyimi, destek olmaya başladıkları anda devreye girmektedir ve ek bir işleme gerek yoktur.

Patreon

Patreon destekçilerimiz, destek miktarından bağımsız olarak, Evrim Ağacı'na destek oldukları süre boyunca reklamsız deneyime erişmeyi sürdürebiliyorlar.

Patreon destekçilerimizin Patreon ile ilişkili e-posta hesapları, Evrim Ağacı'ndaki üyelik e-postaları ile birebir aynı olmalıdır. Patreon destekçilerimizin reklamsız deneyiminin devreye girmesi 24 saat alabilmektedir.

YouTube

YouTube destekçilerimizin hepsi otomatik olarak reklamsız deneyime şimdilik erişemiyorlar ve şu anda, YouTube üzerinden her destek seviyesine reklamsız deneyim ayrıcalığını sunamamaktayız. YouTube Destek Sistemi üzerinde sunulan farklı seviyelerin açıklamalarını okuyarak, hangi ayrıcalıklara erişebileceğinizi öğrenebilirsiniz.

Eğer seçtiğiniz seviye reklamsız deneyim ayrıcalığı sunuyorsa, destek olduktan sonra YouTube tarafından gösterilecek olan bağlantıdaki formu doldurarak reklamsız deneyime erişebilirsiniz. YouTube destekçilerimizin reklamsız deneyiminin devreye girmesi, formu doldurduktan sonra 24-72 saat alabilmektedir.

Diğer Platformlar

Bu 3 platform haricinde destek olan destekçilerimize ne yazık ki reklamsız deneyim ayrıcalığını sunamamaktayız. Destekleriniz sayesinde sistemlerimizi geliştirmeyi sürdürüyoruz ve umuyoruz bu ayrıcalıkları zamanla genişletebileceğiz.

Giriş yapmayı unutmayın!

Reklamsız deneyim için, maddi desteğiniz ile ilişkilendirilmiş olan Evrim Ağacı hesabınıza yapmanız gerekmektedir. Giriş yapmadığınız takdirde reklamları görmeye devam edeceksinizdir.

2024 son baharında Çinli şirketler, ABD'li şirketlerin önde gelen yapay zekâ sistemleri ile rekabet edebilecek düzeyde teknolojiye ulaştıklarını duyurmuşlardır.[4] Hem Çin'de hem de ABD'de hükümet yetkilileri, özellikle 2024 yılında yapay zekâyı öncelikli bir mesele haline getirmiştir. Temmuz 2024'te Çin'de, her beş yılda bir toplanan hükümet partisi kurultayı, yapay zekâ güvenliğini düzenleyecek bir sistem kurulması çağrısında bulunmuştur.[5] 9 Eylül 2024'e gelindiğinde Çin'den etkili bir teknik standartlar kurumu, yapay zekâ güvenliği için bir çerçeve yayımlamıştır.[6]

Yapay Zekâ Güvenliğine Yönelik Önceki Toplantılar

Ekim 2022'de dönemin ABD Başkanı Biden, yapay zekâ sistemlerinin kitle imha silahları yaratabilme veya terör grupları tarafından kullanılma ihtimali gibi riskler hakkında federal hükümete rapor verme zorunluluğu getiren bir başkanlık kararnamesi yayımlamıştır.[7] Buna ilaveten 2023 yılında, ABD Başkanı Biden ve Çin Devlet Başkanı Xi Jinping bir araya gelmiş ve iki ülke yetkililerinin yapay zekâ güvenliği konusundaki görüşmeleri sürdürmesi konusunda bir mutabakata varmışlardır. Mayıs 2024'te İsviçre Cenevre'de, yapay zekâ güvenliği çerçevesindeki ilk ikili görüşme gerçekleşmiştir.[8]

Kasım 2023'te ise daha geniş kapsamlı uluslararası bir hükümet girişimi olarak 28 ülkeden hükümet yetkilileri İngiltere'de düzenlenen bir zirvede bir araya gelmiş ve yapay zekânın risklerini değerlendirme konusunda işbirliği yapmaya yönelik olarak bir bildiri metni imzalamıştır.[9] Mayıs 2024'te yapılan 2. zirvede hükümet temsilcileri Güney Kore'nin başkenti Seul'de yeniden bir araya gelmiştir. Ancak her iki zirve de somut politika hedefleri ortaya koyma noktasında yetersiz kalmıştır.

ABD ile Çin arasındaki güvensizlik hali, yapay zekâ güvenliği konusunda bir uyum yakalanmasını güçleştirmektedir. Carnegie Uluslararası Barış Vakfı'nda araştırmacı olarak görev alan ancak Venedik'teki toplantıda yer almayan Matt Sheehan şöyle söylüyor:

Her iki ülke de diğerinin niyetlerinden son derece şüphecidir. Eğer güvenlik endişeleri nedeniyle frenlere basarlarsa, ötekinin hızla öne geçeceğini düşünmektedirler. Bu kuşku hali hep var olacaktır.

Sonuç

Eylül 2024'te Venedik'te toplanan bilim insanları, iki jeopolitik süpergüç arasındaki yoğun rekabet koşullarında bilimsel iletişim kanallarının daha fazla daralmaması için bu tür görüşmelerin büyük önem taşıdığını belirtmişlerdir. Bu bilim grubunun kurucu üyelerinden Yoshua Bengio, bir röportajında Soğuk Savaş'ın en çetin dönemlerinde Amerikalı ve Sovyet bilim insanları arasında gerçekleşen görüşmelerin nükleer bir felaketi önleme yolunda nasıl bir işbirliği ortamı yarattığını hatırlatmaktadır. Geçmişte nükleer silahlanma yarışında olduğu üzere şimdi de yapay zekâ alanında yaşanan silahlanma yarışı, atom bombasını geliştiren bilim insanlarında olduğu gibi yapay zekâyı geliştiren bilim insanları üzerinde de bir sorumluluk hissi yaratmaktadır.

Alibaba'nın araştırma enstitüsü AliResearch'ün yapay zekâ yönetimi direktörü olan ancak bu toplantıda yer almayan Fu Hongyu ise teknolojinin çok hızlı dönüştüğünü ve ne şirketlerin ne de devletlerin bu konuda nasıl bir yaklaşım benimsemesi gerektiğini tam olarak bilemediğini belirtmektedir ve işbirliğinin kritik önem arz ettiğini ifade etmektedir. Fu, şöyle söylüyor:

Bu, olgunlaşmış bir teknolojiyi düzenlemeye benzemiyor. Yapay zekânın geleceğinin neye benzeyebileceğini kimse kestiremiyor.
Bu Makaleyi Alıntıla
Okundu Olarak İşaretle
12
1
  • Paylaş
  • Alıntıla
  • Alıntıları Göster
Paylaş
Sonra Oku
Notlarım
Yazdır / PDF Olarak Kaydet
Bize Ulaş
Yukarı Zıpla

İçeriklerimizin bilimsel gerçekleri doğru bir şekilde yansıtması için en üst düzey çabayı gösteriyoruz. Gözünüze doğru gelmeyen bir şey varsa, mümkünse güvenilir kaynaklarınızla birlikte bize ulaşın!

Bu içeriğimizle ilgili bir sorunuz mu var? Buraya tıklayarak sorabilirsiniz.

İçerikle İlgili Sorular
Soru & Cevap Platformuna Git
Bu İçerik Size Ne Hissettirdi?
  • Tebrikler! 3
  • Merak Uyandırıcı! 2
  • Muhteşem! 1
  • Bilim Budur! 1
  • Mmm... Çok sapyoseksüel! 0
  • Güldürdü 0
  • İnanılmaz 0
  • Umut Verici! 0
  • Üzücü! 0
  • Grrr... *@$# 0
  • İğrenç! 0
  • Korkutucu! 0
Kaynaklar ve İleri Okuma
  1. Çeviri Kaynağı: The New York Times | Arşiv Bağlantısı
  • ^ A.M. Turing Award. Yoshua Bengio - A.m. Turing Award Laureate. (1 Ocak 2018). Alındığı Tarih: 16 Aralık 2024. Alındığı Yer: A.M. Turing Award | Arşiv Bağlantısı
  • ^ A.M. Turing Award. Geoffrey E Hinton - A.m. Turing Award Laureate. (1 Ocak 2018). Alındığı Tarih: 16 Aralık 2024. Alındığı Yer: A.M. Turing Award | Arşiv Bağlantısı
  • ^ A.M. Turing Award. Andrew C Yao - A.m. Turing Award Laureate. (1 Ocak 2000). Alındığı Tarih: 16 Aralık 2024. Alındığı Yer: A.M. Turing Award | Arşiv Bağlantısı
  • ^ K. Bradsher, et al. China Is Holding A Major Meeting On The Economy That You Can’t Watch. (25 Temmuz 2024). Alındığı Tarih: 10 Aralık 2024. Alındığı Yer: The New York Times | Arşiv Bağlantısı
  • ^ E. KURTENBACH. China's Communist Party Charts Technology- And Security-Focused Development For Reviving The Economy. (17 Temmuz 2024). Alındığı Tarih: 10 Aralık 2024. Alındığı Yer: AP News | Arşiv Bağlantısı
  • ^ tc260. 《人工智能安全治理框架》1.0版. (9 Eylül 2024). Alındığı Tarih: 10 Aralık 2024. Alındığı Yer: tc260 | Arşiv Bağlantısı
  • ^ The White House. Fact Sheet: President Biden Issues Executive Order On Safe, Secure, And Trustworthy Artificial Intelligence | The White House. (30 Ekim 2023). Alındığı Tarih: 10 Aralık 2024. Alındığı Yer: The White House | Arşiv Bağlantısı
  • ^ U.S. Mission to International Organizations in Geneva. Statement From Nsc Spokesperson Adrienne Watson On The U.s.-Prc Talks On Ai Risk And Safety. (15 Mayıs 2024). Alındığı Tarih: 10 Aralık 2024. Alındığı Yer: U.S. Mission to International Organizations in Geneva | Arşiv Bağlantısı
  • ^ UK Gov. Ai Safety Summit 2023 - Gov.uk. (22 Kasım 2024). Alındığı Tarih: 10 Aralık 2024. Alındığı Yer: UK Gov | Arşiv Bağlantısı
  • A. S. Index. Engineering Highly Cited Researchers Citation Rankings 2025. Alındığı Tarih: 10 Aralık 2024. Alındığı Yer: ADScientificindex | Arşiv Bağlantısı
Tüm Reklamları Kapat

Evrim Ağacı'na her ay sadece 1 kahve ısmarlayarak destek olmak ister misiniz?

Şu iki siteden birini kullanarak şimdi destek olabilirsiniz:

kreosus.com/evrimagaci | patreon.com/evrimagaci

Çıktı Bilgisi: Bu sayfa, Evrim Ağacı yazdırma aracı kullanılarak 27/01/2025 19:41:03 tarihinde oluşturulmuştur. Evrim Ağacı'ndaki içeriklerin tamamı, birden fazla editör tarafından, durmaksızın elden geçirilmekte, güncellenmekte ve geliştirilmektedir. Dolayısıyla bu çıktının alındığı tarihten sonra yapılan güncellemeleri görmek ve bu içeriğin en güncel halini okumak için lütfen şu adrese gidiniz: https://evrimagaci.org/s/19235

İçerik Kullanım İzinleri: Evrim Ağacı'ndaki yazılı içerikler orijinallerine hiçbir şekilde dokunulmadığı müddetçe izin alınmaksızın paylaşılabilir, kopyalanabilir, yapıştırılabilir, çoğaltılabilir, basılabilir, dağıtılabilir, yayılabilir, alıntılanabilir. Ancak bu içeriklerin hiçbiri izin alınmaksızın değiştirilemez ve değiştirilmiş halleri Evrim Ağacı'na aitmiş gibi sunulamaz. Benzer şekilde, içeriklerin hiçbiri, söz konusu içeriğin açıkça belirtilmiş yazarlarından ve Evrim Ağacı'ndan başkasına aitmiş gibi sunulamaz. Bu sayfa izin alınmaksızın düzenlenemez, Evrim Ağacı logosu, yazar/editör bilgileri ve içeriğin diğer kısımları izin alınmaksızın değiştirilemez veya kaldırılamaz.

Keşfet
Akış
İçerikler
Gündem
Büyük Patlama
Normal Doğum
Psikoterapi
Travma Sonrası Stres Bozukluğu
Kilo
Beslenme Biçimi
Diyet
Yüzey
Yaşanabilir Gezegen
Tarih
Karbon
Yaşlanma
Genler
Öğrenme Alanı
Diş Hekimliği
Yağ
Yavru
Gerçek
Bilimsel
Patoloji
Robot
Canlılık Cansızlık
Nötron
Samanyolu Galaksisi
Yok Oluş
Aklımdan Geçen
Komünite Seç
Aklımdan Geçen
Fark Ettim ki...
Bugün Öğrendim ki...
İşe Yarar İpucu
Bilim Haberleri
Hikaye Fikri
Video Konu Önerisi
Başlık
Bugün bilimseverlerle ne paylaşmak istersin?
Gündem
Bağlantı
Ekle
Soru Sor
Stiller
Kurallar
Komünite Kuralları
Bu komünite, aklınızdan geçen düşünceleri Evrim Ağacı ailesiyle paylaşabilmeniz içindir. Yapacağınız paylaşımlar Evrim Ağacı'nın kurallarına tabidir. Ayrıca bu komünitenin ek kurallarına da uymanız gerekmektedir.
1
Bilim kimliğinizi önceleyin.
Evrim Ağacı bir bilim platformudur. Dolayısıyla aklınızdan geçen her şeyden ziyade, bilim veya yaşamla ilgili olabilecek düşüncelerinizle ilgileniyoruz.
2
Propaganda ve baskı amaçlı kullanmayın.
Herkesin aklından her şey geçebilir; fakat bu platformun amacı, insanların belli ideolojiler için propaganda yapmaları veya başkaları üzerinde baskı kurma amacıyla geliştirilmemiştir. Paylaştığınız fikirlerin değer kattığından emin olun.
3
Gerilim yaratmayın.
Gerilim, tersleme, tahrik, taciz, alay, dedikodu, trollük, vurdumduymazlık, duyarsızlık, ırkçılık, bağnazlık, nefret söylemi, azınlıklara saldırı, fanatizm, holiganlık, sloganlar yasaktır.
4
Değer katın; hassas konulardan ve öznel yoruma açık alanlardan uzak durun.
Bu komünitenin amacı okurlara hayatla ilgili keyifli farkındalıklar yaşatabilmektir. Din, politika, spor, aktüel konular gibi anlık tepkilere neden olabilecek konulardaki tespitlerden kaçının. Ayrıca aklınızdan geçenlerin Türkiye’deki bilim komünitesine değer katması beklenmektedir.
5
Cevap hakkı doğurmayın.
Aklınızdan geçenlerin bu platformda bulunmuyor olabilecek kişilere cevap hakkı doğurmadığından emin olun.
Sosyal
Yeniler
Daha Fazla İçerik Göster
Popüler Yazılar
30 gün
90 gün
1 yıl
Evrim Ağacı'na Destek Ol

Evrim Ağacı'nın %100 okur destekli bir bilim platformu olduğunu biliyor muydunuz? Evrim Ağacı'nın maddi destekçileri arasına katılarak Türkiye'de bilimin yayılmasına güç katın.

Evrim Ağacı'nı Takip Et!
Yazı Geçmişi
Okuma Geçmişi
Notlarım
İlerleme Durumunu Güncelle
Okudum
Sonra Oku
Not Ekle
Kaldığım Yeri İşaretle
Göz Attım

Evrim Ağacı tarafından otomatik olarak takip edilen işlemleri istediğin zaman durdurabilirsin.
[Site ayalarına git...]

Filtrele
Listele
Bu yazıdaki hareketlerin
Devamını Göster
Filtrele
Listele
Tüm Okuma Geçmişin
Devamını Göster
0/10000
Bu Makaleyi Alıntıla
Evrim Ağacı Formatı
APA7
MLA9
Chicago
M. Tobin, et al. Yapay Zekâda Öncü Bilim İnsanları Felaket Risklerine Karşı Devletleri Önlem Almaya Çağırıyor!. (24 Ocak 2025). Alındığı Tarih: 27 Ocak 2025. Alındığı Yer: https://evrimagaci.org/s/19235
Tobin, M., Köse, M., Alparslan, E. (2025, January 24). Yapay Zekâda Öncü Bilim İnsanları Felaket Risklerine Karşı Devletleri Önlem Almaya Çağırıyor!. Evrim Ağacı. Retrieved January 27, 2025. from https://evrimagaci.org/s/19235
M. Tobin, et al. “Yapay Zekâda Öncü Bilim İnsanları Felaket Risklerine Karşı Devletleri Önlem Almaya Çağırıyor!.” Edited by Eda Alparslan. Translated by Mücahid Köse, Evrim Ağacı, 24 Jan. 2025, https://evrimagaci.org/s/19235.
Tobin, Meaghan. Köse, Mücahid. Alparslan, Eda. “Yapay Zekâda Öncü Bilim İnsanları Felaket Risklerine Karşı Devletleri Önlem Almaya Çağırıyor!.” Edited by Eda Alparslan. Translated by Mücahid Köse. Evrim Ağacı, January 24, 2025. https://evrimagaci.org/s/19235.
ve seni takip ediyor

Göster

Şifremi unuttum Üyelik Aktivasyonu

Göster

Şifrenizi mi unuttunuz? Lütfen e-posta adresinizi giriniz. E-posta adresinize şifrenizi sıfırlamak için bir bağlantı gönderilecektir.

Geri dön

Eğer aktivasyon kodunu almadıysanız lütfen e-posta adresinizi giriniz. Üyeliğinizi aktive etmek için e-posta adresinize bir bağlantı gönderilecektir.

Geri dön

Close