Paylaşım Yap

Yapay Zekâ Bilincini Araştırmak İçin Çok Daha Fazla Fon Ayrılmalı!

Araştırmacılar Koalisyonu, Bilinçli ve Bilinçsiz Sistemler Arasındaki Sınırı İncelemek İçin Daha Fazla Fon Gerektiği Çağrısında Bulunuyor!

Yapay Zekâ Bilincini Araştırmak İçin Çok Daha Fazla Fon Ayrılmalı! The US Sun
4 dakika
469
Tarihi Geçmiş Haber

Bu haber 3 ay öncesine aittir. Haber güncelliğini yitirmiş olabilir; ancak arşivsel değeri ve bilimsel gelişme/ilerleme anlamındaki önemi dolayısıyla yayında tutulmaktadır. Ayrıca konuyla ilgili gelişmeler yaşandıkça bu içerik de güncellenebilir.

Tüm Reklamları Kapat

Yapay zekâ (YZ) sistemleri bilinçli hale gelebilir mi? Bilinç bilimcilerden oluşan bir koalisyon, şu anda bunu kimsenin bilmediğini söylüyor ve bu soruyla ilgili araştırma eksikliğinden duyduğu endişeyi dile getiriyor.

Matematiksel Bilinç Bilimi Derneği (AMCS) üyeleri, Birleşmiş Milletler'e yaptıkları açıklamalarda, bilinç ve yapay zekâ araştırmalarını desteklemek için daha fazla fon çağrısında bulunuyor. Bilinçli ve bilinçsiz sistemler arasındaki sınırların bilimsel olarak araştırılmasına acilen ihtiyaç duyulduğunu söyleyen üyeler, YZ bilincini anlamayı çok önemli kılan etik, yasal ve güvenlik konularına da değiniyorlar. Örneğin, eğer YZ bilinç geliştirecek olursa, insanların onu kullandıktan sonra kolayca kapatmalarına izin verilmeli mi?

AMCS yönetim kurulu üyesi ve İngiltere'nin Oxford şehrinde bir matematikçi olan Jonathan Mason'a göre bu tür endişeler, son zamanlardaki YZ güvenliği konulu tartışmalarda genellikle göz ardı edilmektedir. Örneğin, İngiltere'de düzenlenen yüksek düzeyli Yapay Zekâ Güvenliği Toplantısı gibi etkinliklerde veya ABD Başkanı Joe Biden'ın yapay zekâ teknolojisinin sorumlu şekilde gelişimini amaçlayan başkanlık emri gibi önlemlerde, bilinçli yapay zekâ sistemlerinden kaynaklanan sorunlara dair pek az bahis geçmiştir. Mason, konu hakkında şunları söylüyor:

Tüm Reklamları Kapat

Yapay zekâ alanında olup biten her şeyle birlikte, kaçınılmaz olarak bilimin ilgili alanlarının da bu gelişmelere yetişmesi gerekecek. Bilinç alanı da bunlardan biri.

Bilinç Kazanma Senaryosu Bilimkurgu Değil!

Bilinçli yapay zekâ sistemlerinin var olup olmadığı ya da olup olmayacağı bilim dünyası tarafından net olarak bilinmiyor. Mason, araştırmacıların makinelerdeki bilinci değerlendirmek için henüz bilimsel olarak doğrulanmış yöntemler oluşturmamış olması nedeniyle, böyle bir yapay zekanın geliştirilip geliştirilmediğini bilmenin bile zor olacağını söylüyor. San Francisco, Kaliforniya'da kâr amacı gütmeyen bir araştırma kuruluşu olan Center for AI Safety'de felsefeci olan Robert Long, konu hakkında şunları söylüyor:

Yapay zekâ bilinci konusundaki belirsizliğimiz, ilerleme hızı göz önüne alındığında bizi endişelendirmesi gereken YZ ile ilgili birçok problemlerden biridir.

Bu tür endişeler artık sadece bilimkurgu değil. ChatGPT sohbet botunu yaratan OpenAI gibi şirketler, insanların yapabildiklerine benzer çok çeşitli entelektüel görevleri yerine getirmek üzere eğitilmiş bir derin öğrenme sistemi olan Yapay Genel Zekâ'yı geliştirmeyi hedefliyor. Bazı araştırmacılar bunun 5-20 yıl içinde mümkün olacağını öngörüyor. Mason, buna rağmen bilinç araştırmaları alanının çok az desteklendiğini söylüyor. Bildiği kadarıyla, 2023 yılında konuyu incelemek için tek bir hibe teklifi yapılmadığını belirtiyor.

Ortaya çıkan bilgi açığı, AMCS'nin Ekim ayında faaliyete geçen ve 2024 yılının ortalarında dünyanın yapay zekâ teknolojisini nasıl yönetmesi gerektiğine dair bir rapor yayınlaması planlanan Birleşmiş Milletler Yapay Zekâ Üst Düzey Danışma Kurulu'na yaptığı sunumda özetlenmişti. AMCS'nin sunumu kamuya açıklanmadı, ancak kurum AMCS'ye grubun yorumlarının temel materyallerinin bir parçası olacağını doğruladı. Söz konusu materyaller, YZ sistemlerinin küresel gözetimi hakkındaki tavsiyelerini sunulduğu belgelerdi.

AMCS araştırmacıları, yapay zekâyı neyin bilinçli yapabileceğini anlamanın, olası tehlikeler de dahil olmak üzere bilinçli yapay zekâ sistemlerinin toplum üzerindeki etkilerini değerlendirmek için gerekli olduğunu söylüyor. İnsanların, bu tür sistemlerin insan değerlerini ve çıkarlarını paylaşıp paylaşmadığını da değerlendirmeleri gerekecek; çünkü eğer paylaşmıyorlarsa, insanlara yönelik riskler oluşturabilirler.

Tüm Reklamları Kapat

Makinelerin İhtiyaçları

Araştırmacılar, insanların bilinçli yapay zekâ sistemlerinin olası ihtiyaçlarını da göz önünde bulundurması gerektiğini söylüyor. Bu tür sistemler acı çekebilir mi? Long, bir YZ sisteminin bilinçli hale geldiğini fark etmezsek, bilinçli bir varlığa acı çektirebileceğimizi şöyle ifade ediyor:

Bize benzemeyen ve bizim gibi davranmayan varlıklara ahlaki açıdan yaklaşma konusunda çok iyi bir geçmişimiz yok.

Long, makinelere yanlış bilinç atfetmenin de sorunlu olacağını, çünkü insanların korunmaya ihtiyacı olmayan sistemleri korumak için kaynak harcamaması gerektiğini belirtiyor.

AMCS tarafından bilinç konusunun önemini vurgulamak için ortaya atılan sorulardan bazıları ise yasal sorular: Bilinçli bir yapay zekâ sistemi kasıtlı bir yanlış eylemden sorumlu tutulmalı mı? Ve ona insanlarla aynı haklar tanınmalı mı? Koalisyona göre bu soruların yanıtları, yönetmelik ve yasalarda değişiklik yapılmasını gerektirebilir.

Bir de bilim insanlarının başkalarını bilgilendirmesi ihtiyacı var. Mason, şirketler giderek daha yetenekli yapay zekâ sistemleri geliştirdikçe, halkın bu tür sistemlerin bilinçli olup olmadığını merak edeceğini ve bilim insanlarının rehberlik sunmak için yeterince bilgi sahibi olması gerektiğini söylüyor.

Evrim Ağacı'ndan Mesaj

Diğer bilinç araştırmacıları da bu endişeyi yineliyor. Boca Raton'daki Florida Atlantic Üniversitesi'nde Geleceğin Zihni Merkezi'nin direktörü olan filozof Susan Schneider, ChatGPT gibi sohbet botlarının davranışlarının insana çok benzediğini ve insanların haklı olarak kafalarının karıştığını söylüyor. Bilim insanlarının derinlemesine analizi olmadan, bazı insanlar bu sistemlerin bilinçli olduğu sonucuna varabilirken, halkın diğer üyeleri yapay zekâ bilincine ilişkin endişeleri reddedebilir, hatta alay edebilirler.

Matematikçiler, bilgisayar bilimciler ve filozoflardan oluşan AMCS, riskleri azaltmak için hükümetleri ve özel sektörü yapay zekâ bilincini daha fazla araştırmak için fon sağlamaya çağırıyor. Alanı ilerletmek için çok fazla fon gerekmeyecek. Ne var ki bugüne kadarki sınırlı desteğe rağmen, ilgili çalışmalar hali hazırda devam etmektedir. Örneğin Long ve diğer 18 araştırmacı, bir sistemin bilinçli olma şansının yüksek olup olmadığını değerlendirmek için bir kriter listesi geliştirdi. Ağustos ayında arXiv ön baskı deposunda yayınlanan ve henüz hakem değerlendirmesinden geçmemiş olan makale, kriterlerini bilincin biyolojik temelini açıklayan altı önemli teoriden alıyor. Mason, son olarak şunları söylüyor:

(Elimizde) İlerleme için çok daha fazla potansiyel var.
Bu Makaleyi Alıntıla
Okundu Olarak İşaretle
23
0
  • Paylaş
  • Alıntıla
  • Alıntıları Göster
Paylaş
Sonra Oku
Notlarım
Yazdır / PDF Olarak Kaydet
Bize Ulaş
Yukarı Zıpla

Feragatname: Evrim Ağacı, doğrudan üniversiteler, akademik dergiler veya resmi bilim kurumları tarafından yayınlanan bu basın açıklamalarını temel editöryal düzenlemeden geçirmektedir; ancak açıklamaların isabetliliğinden sorumlu değildir. Basın açıklaması konusundaki sorularınızı aşağıdaki medya irtibat kişisine yöneltebilirsiniz.

Medya İrtibat

İçeriklerimizin bilimsel gerçekleri doğru bir şekilde yansıtması için en üst düzey çabayı gösteriyoruz. Gözünüze doğru gelmeyen bir şey varsa, mümkünse güvenilir kaynaklarınızla birlikte bize ulaşın!

Bu içeriğimizle ilgili bir sorunuz mu var? Buraya tıklayarak sorabilirsiniz.

Soru & Cevap Platformuna Git
Bu İçerik Size Ne Hissettirdi?
  • Bilim Budur! 5
  • İnanılmaz 4
  • Tebrikler! 3
  • Merak Uyandırıcı! 2
  • Muhteşem! 0
  • Mmm... Çok sapyoseksüel! 0
  • Güldürdü 0
  • Umut Verici! 0
  • Üzücü! 0
  • Grrr... *@$# 0
  • İğrenç! 0
  • Korkutucu! 0
Kaynaklar ve İleri Okuma
Tüm Reklamları Kapat

Evrim Ağacı'na her ay sadece 1 kahve ısmarlayarak destek olmak ister misiniz?

Şu iki siteden birini kullanarak şimdi destek olabilirsiniz:

kreosus.com/evrimagaci | patreon.com/evrimagaci

Çıktı Bilgisi: Bu sayfa, Evrim Ağacı yazdırma aracı kullanılarak 28/04/2024 06:58:54 tarihinde oluşturulmuştur. Evrim Ağacı'ndaki içeriklerin tamamı, birden fazla editör tarafından, durmaksızın elden geçirilmekte, güncellenmekte ve geliştirilmektedir. Dolayısıyla bu çıktının alındığı tarihten sonra yapılan güncellemeleri görmek ve bu içeriğin en güncel halini okumak için lütfen şu adrese gidiniz: https://evrimagaci.org/s/16329

İçerik Kullanım İzinleri: Evrim Ağacı'ndaki yazılı içerikler orijinallerine hiçbir şekilde dokunulmadığı müddetçe izin alınmaksızın paylaşılabilir, kopyalanabilir, yapıştırılabilir, çoğaltılabilir, basılabilir, dağıtılabilir, yayılabilir, alıntılanabilir. Ancak bu içeriklerin hiçbiri izin alınmaksızın değiştirilemez ve değiştirilmiş halleri Evrim Ağacı'na aitmiş gibi sunulamaz. Benzer şekilde, içeriklerin hiçbiri, söz konusu içeriğin açıkça belirtilmiş yazarlarından ve Evrim Ağacı'ndan başkasına aitmiş gibi sunulamaz. Bu sayfa izin alınmaksızın düzenlenemez, Evrim Ağacı logosu, yazar/editör bilgileri ve içeriğin diğer kısımları izin alınmaksızın değiştirilemez veya kaldırılamaz.

Keşfet
Akış
İçerikler
Gündem
Canlılık Ve Cansızlık Arasındaki Farklar
Kas
Yumurta
Matematik
İspat Yükü
Doğa Olayları
Hız
Kilo
Viroloji
Biyocoğrafya
Sahte
Evrimsel Süreç
Dil
Gıda Güvenliği
Optik
Şiddet
Algı
Boyut
Epidemik
Yıldızlar
Fizyoloji
Doğum
Nörobilim
Maske Takmak
Renk
Aklımdan Geçen
Komünite Seç
Aklımdan Geçen
Fark Ettim ki...
Bugün Öğrendim ki...
İşe Yarar İpucu
Bilim Haberleri
Hikaye Fikri
Video Konu Önerisi
Başlık
Gündem
Bugün bilimseverlerle ne paylaşmak istersin?
Bağlantı
Kurallar
Komünite Kuralları
Bu komünite, aklınızdan geçen düşünceleri Evrim Ağacı ailesiyle paylaşabilmeniz içindir. Yapacağınız paylaşımlar Evrim Ağacı'nın kurallarına tabidir. Ayrıca bu komünitenin ek kurallarına da uymanız gerekmektedir.
1
Bilim kimliğinizi önceleyin.
Evrim Ağacı bir bilim platformudur. Dolayısıyla aklınızdan geçen her şeyden ziyade, bilim veya yaşamla ilgili olabilecek düşüncelerinizle ilgileniyoruz.
2
Propaganda ve baskı amaçlı kullanmayın.
Herkesin aklından her şey geçebilir; fakat bu platformun amacı, insanların belli ideolojiler için propaganda yapmaları veya başkaları üzerinde baskı kurma amacıyla geliştirilmemiştir. Paylaştığınız fikirlerin değer kattığından emin olun.
3
Gerilim yaratmayın.
Gerilim, tersleme, tahrik, taciz, alay, dedikodu, trollük, vurdumduymazlık, duyarsızlık, ırkçılık, bağnazlık, nefret söylemi, azınlıklara saldırı, fanatizm, holiganlık, sloganlar yasaktır.
4
Değer katın; hassas konulardan ve öznel yoruma açık alanlardan uzak durun.
Bu komünitenin amacı okurlara hayatla ilgili keyifli farkındalıklar yaşatabilmektir. Din, politika, spor, aktüel konular gibi anlık tepkilere neden olabilecek konulardaki tespitlerden kaçının. Ayrıca aklınızdan geçenlerin Türkiye’deki bilim komünitesine değer katması beklenmektedir.
5
Cevap hakkı doğurmayın.
Bu platformda cevap veya yorum sistemi bulunmamaktadır. Dolayısıyla aklınızdan geçenlerin, tespit edilebilir kişilere cevap hakkı doğurmadığından emin olun.
Ekle
Soru Sor
Sosyal
Yeniler
Daha Fazla İçerik Göster
Popüler Yazılar
30 gün
90 gün
1 yıl
Evrim Ağacı'na Destek Ol

Evrim Ağacı'nın %100 okur destekli bir bilim platformu olduğunu biliyor muydunuz? Evrim Ağacı'nın maddi destekçileri arasına katılarak Türkiye'de bilimin yayılmasına güç katın.

Evrim Ağacı'nı Takip Et!
Yazı Geçmişi
Okuma Geçmişi
Notlarım
İlerleme Durumunu Güncelle
Okudum
Sonra Oku
Not Ekle
Kaldığım Yeri İşaretle
Göz Attım

Evrim Ağacı tarafından otomatik olarak takip edilen işlemleri istediğin zaman durdurabilirsin.
[Site ayalarına git...]

Filtrele
Listele
Bu yazıdaki hareketlerin
Devamını Göster
Filtrele
Listele
Tüm Okuma Geçmişin
Devamını Göster
0/10000
Bu Makaleyi Alıntıla
Evrim Ağacı Formatı
APA7
MLA9
Chicago
T. Qadirov, et al. Yapay Zekâ Bilincini Araştırmak İçin Çok Daha Fazla Fon Ayrılmalı!. (28 Aralık 2023). Alındığı Tarih: 28 Nisan 2024. Alındığı Yer: https://evrimagaci.org/s/16329
Qadirov, T., Alparslan, E. (2023, December 28). Yapay Zekâ Bilincini Araştırmak İçin Çok Daha Fazla Fon Ayrılmalı!. Evrim Ağacı. Retrieved April 28, 2024. from https://evrimagaci.org/s/16329
T. Qadirov, et al. “Yapay Zekâ Bilincini Araştırmak İçin Çok Daha Fazla Fon Ayrılmalı!.” Edited by Eda Alparslan. Evrim Ağacı, 28 Dec. 2023, https://evrimagaci.org/s/16329.
Qadirov, Tural. Alparslan, Eda. “Yapay Zekâ Bilincini Araştırmak İçin Çok Daha Fazla Fon Ayrılmalı!.” Edited by Eda Alparslan. Evrim Ağacı, December 28, 2023. https://evrimagaci.org/s/16329.
ve seni takip ediyor

Göster

Şifrenizi mi unuttunuz? Lütfen e-posta adresinizi giriniz. E-posta adresinize şifrenizi sıfırlamak için bir bağlantı gönderilecektir.

Geri dön

Eğer aktivasyon kodunu almadıysanız lütfen e-posta adresinizi giriniz. Üyeliğinizi aktive etmek için e-posta adresinize bir bağlantı gönderilecektir.

Geri dön

Close