Yapay Zekâ Bilincini Araştırmak İçin Çok Daha Fazla Fon Ayrılmalı!
Araştırmacılar Koalisyonu, Bilinçli ve Bilinçsiz Sistemler Arasındaki Sınırı İncelemek İçin Daha Fazla Fon Gerektiği Çağrısında Bulunuyor!
Bu haber 11 ay öncesine aittir. Haber güncelliğini yitirmiş olabilir; ancak arşivsel değeri ve bilimsel gelişme/ilerleme anlamındaki önemi dolayısıyla yayında tutulmaktadır. Ayrıca konuyla ilgili gelişmeler yaşandıkça bu içerik de güncellenebilir.
Yapay zekâ (YZ) sistemleri bilinçli hale gelebilir mi? Bilinç bilimcilerden oluşan bir koalisyon, şu anda bunu kimsenin bilmediğini söylüyor ve bu soruyla ilgili araştırma eksikliğinden duyduğu endişeyi dile getiriyor.
Matematiksel Bilinç Bilimi Derneği (AMCS) üyeleri, Birleşmiş Milletler'e yaptıkları açıklamalarda, bilinç ve yapay zekâ araştırmalarını desteklemek için daha fazla fon çağrısında bulunuyor. Bilinçli ve bilinçsiz sistemler arasındaki sınırların bilimsel olarak araştırılmasına acilen ihtiyaç duyulduğunu söyleyen üyeler, YZ bilincini anlamayı çok önemli kılan etik, yasal ve güvenlik konularına da değiniyorlar. Örneğin, eğer YZ bilinç geliştirecek olursa, insanların onu kullandıktan sonra kolayca kapatmalarına izin verilmeli mi?
AMCS yönetim kurulu üyesi ve İngiltere'nin Oxford şehrinde bir matematikçi olan Jonathan Mason'a göre bu tür endişeler, son zamanlardaki YZ güvenliği konulu tartışmalarda genellikle göz ardı edilmektedir. Örneğin, İngiltere'de düzenlenen yüksek düzeyli Yapay Zekâ Güvenliği Toplantısı gibi etkinliklerde veya ABD Başkanı Joe Biden'ın yapay zekâ teknolojisinin sorumlu şekilde gelişimini amaçlayan başkanlık emri gibi önlemlerde, bilinçli yapay zekâ sistemlerinden kaynaklanan sorunlara dair pek az bahis geçmiştir. Mason, konu hakkında şunları söylüyor:
Yapay zekâ alanında olup biten her şeyle birlikte, kaçınılmaz olarak bilimin ilgili alanlarının da bu gelişmelere yetişmesi gerekecek. Bilinç alanı da bunlardan biri.
Bilinç Kazanma Senaryosu Bilimkurgu Değil!
Bilinçli yapay zekâ sistemlerinin var olup olmadığı ya da olup olmayacağı bilim dünyası tarafından net olarak bilinmiyor. Mason, araştırmacıların makinelerdeki bilinci değerlendirmek için henüz bilimsel olarak doğrulanmış yöntemler oluşturmamış olması nedeniyle, böyle bir yapay zekanın geliştirilip geliştirilmediğini bilmenin bile zor olacağını söylüyor. San Francisco, Kaliforniya'da kâr amacı gütmeyen bir araştırma kuruluşu olan Center for AI Safety'de felsefeci olan Robert Long, konu hakkında şunları söylüyor:
Yapay zekâ bilinci konusundaki belirsizliğimiz, ilerleme hızı göz önüne alındığında bizi endişelendirmesi gereken YZ ile ilgili birçok problemlerden biridir.
Bu tür endişeler artık sadece bilimkurgu değil. ChatGPT sohbet botunu yaratan OpenAI gibi şirketler, insanların yapabildiklerine benzer çok çeşitli entelektüel görevleri yerine getirmek üzere eğitilmiş bir derin öğrenme sistemi olan Yapay Genel Zekâ'yı geliştirmeyi hedefliyor. Bazı araştırmacılar bunun 5-20 yıl içinde mümkün olacağını öngörüyor. Mason, buna rağmen bilinç araştırmaları alanının çok az desteklendiğini söylüyor. Bildiği kadarıyla, 2023 yılında konuyu incelemek için tek bir hibe teklifi yapılmadığını belirtiyor.
Ortaya çıkan bilgi açığı, AMCS'nin Ekim ayında faaliyete geçen ve 2024 yılının ortalarında dünyanın yapay zekâ teknolojisini nasıl yönetmesi gerektiğine dair bir rapor yayınlaması planlanan Birleşmiş Milletler Yapay Zekâ Üst Düzey Danışma Kurulu'na yaptığı sunumda özetlenmişti. AMCS'nin sunumu kamuya açıklanmadı, ancak kurum AMCS'ye grubun yorumlarının temel materyallerinin bir parçası olacağını doğruladı. Söz konusu materyaller, YZ sistemlerinin küresel gözetimi hakkındaki tavsiyelerini sunulduğu belgelerdi.
AMCS araştırmacıları, yapay zekâyı neyin bilinçli yapabileceğini anlamanın, olası tehlikeler de dahil olmak üzere bilinçli yapay zekâ sistemlerinin toplum üzerindeki etkilerini değerlendirmek için gerekli olduğunu söylüyor. İnsanların, bu tür sistemlerin insan değerlerini ve çıkarlarını paylaşıp paylaşmadığını da değerlendirmeleri gerekecek; çünkü eğer paylaşmıyorlarsa, insanlara yönelik riskler oluşturabilirler.
Makinelerin İhtiyaçları
Araştırmacılar, insanların bilinçli yapay zekâ sistemlerinin olası ihtiyaçlarını da göz önünde bulundurması gerektiğini söylüyor. Bu tür sistemler acı çekebilir mi? Long, bir YZ sisteminin bilinçli hale geldiğini fark etmezsek, bilinçli bir varlığa acı çektirebileceğimizi şöyle ifade ediyor:
Bize benzemeyen ve bizim gibi davranmayan varlıklara ahlaki açıdan yaklaşma konusunda çok iyi bir geçmişimiz yok.
Long, makinelere yanlış bilinç atfetmenin de sorunlu olacağını, çünkü insanların korunmaya ihtiyacı olmayan sistemleri korumak için kaynak harcamaması gerektiğini belirtiyor.
AMCS tarafından bilinç konusunun önemini vurgulamak için ortaya atılan sorulardan bazıları ise yasal sorular: Bilinçli bir yapay zekâ sistemi kasıtlı bir yanlış eylemden sorumlu tutulmalı mı? Ve ona insanlarla aynı haklar tanınmalı mı? Koalisyona göre bu soruların yanıtları, yönetmelik ve yasalarda değişiklik yapılmasını gerektirebilir.
Bir de bilim insanlarının başkalarını bilgilendirmesi ihtiyacı var. Mason, şirketler giderek daha yetenekli yapay zekâ sistemleri geliştirdikçe, halkın bu tür sistemlerin bilinçli olup olmadığını merak edeceğini ve bilim insanlarının rehberlik sunmak için yeterince bilgi sahibi olması gerektiğini söylüyor.
Aslında maddi destek istememizin nedeni çok basit: Çünkü Evrim Ağacı, bizim tek mesleğimiz, tek gelir kaynağımız. Birçoklarının aksine bizler, sosyal medyada gördüğünüz makale ve videolarımızı hobi olarak, mesleğimizden arta kalan zamanlarda yapmıyoruz. Dolayısıyla bu işi sürdürebilmek için gelir elde etmemiz gerekiyor.
Bunda elbette ki hiçbir sakınca yok; kimin, ne şartlar altında yayın yapmayı seçtiği büyük oranda bir tercih meselesi. Ne var ki biz, eğer ana mesleklerimizi icra edecek olursak (yani kendi mesleğimiz doğrultusunda bir iş sahibi olursak) Evrim Ağacı'na zaman ayıramayacağımızı, ayakta tutamayacağımızı biliyoruz. Çünkü az sonra detaylarını vereceğimiz üzere, Evrim Ağacı sosyal medyada denk geldiğiniz makale ve videolardan çok daha büyük, kapsamlı ve aşırı zaman alan bir bilim platformu projesi. Bu nedenle bizler, meslek olarak Evrim Ağacı'nı seçtik.
Eğer hem Evrim Ağacı'ndan hayatımızı idame ettirecek, mesleklerimizi bırakmayı en azından kısmen meşrulaştıracak ve mantıklı kılacak kadar bir gelir kaynağı elde edemezsek, mecburen Evrim Ağacı'nı bırakıp, kendi mesleklerimize döneceğiz. Ama bunu istemiyoruz ve bu nedenle didiniyoruz.
Diğer bilinç araştırmacıları da bu endişeyi yineliyor. Boca Raton'daki Florida Atlantic Üniversitesi'nde Geleceğin Zihni Merkezi'nin direktörü olan filozof Susan Schneider, ChatGPT gibi sohbet botlarının davranışlarının insana çok benzediğini ve insanların haklı olarak kafalarının karıştığını söylüyor. Bilim insanlarının derinlemesine analizi olmadan, bazı insanlar bu sistemlerin bilinçli olduğu sonucuna varabilirken, halkın diğer üyeleri yapay zekâ bilincine ilişkin endişeleri reddedebilir, hatta alay edebilirler.
Matematikçiler, bilgisayar bilimciler ve filozoflardan oluşan AMCS, riskleri azaltmak için hükümetleri ve özel sektörü yapay zekâ bilincini daha fazla araştırmak için fon sağlamaya çağırıyor. Alanı ilerletmek için çok fazla fon gerekmeyecek. Ne var ki bugüne kadarki sınırlı desteğe rağmen, ilgili çalışmalar hali hazırda devam etmektedir. Örneğin Long ve diğer 18 araştırmacı, bir sistemin bilinçli olma şansının yüksek olup olmadığını değerlendirmek için bir kriter listesi geliştirdi. Ağustos ayında arXiv ön baskı deposunda yayınlanan ve henüz hakem değerlendirmesinden geçmemiş olan makale, kriterlerini bilincin biyolojik temelini açıklayan altı önemli teoriden alıyor. Mason, son olarak şunları söylüyor:
(Elimizde) İlerleme için çok daha fazla potansiyel var.
İçeriklerimizin bilimsel gerçekleri doğru bir şekilde yansıtması için en üst düzey çabayı gösteriyoruz. Gözünüze doğru gelmeyen bir şey varsa, mümkünse güvenilir kaynaklarınızla birlikte bize ulaşın!
Bu içeriğimizle ilgili bir sorunuz mu var? Buraya tıklayarak sorabilirsiniz.
Soru & Cevap Platformuna Git- 5
- 4
- 3
- 2
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- M. Lenharo. (2023). If Ai Becomes Conscious: Here’s How Researchers Will Know. Springer Science and Business Media LLC. doi: 10.1038/d41586-023-02684-5. | Arşiv Bağlantısı
- M. Hutson. (2023). Rules To Keep Ai In Check: Nations Carve Different Paths For Tech Regulation. Springer Science and Business Media LLC, sf: 260-263. doi: 10.1038/d41586-023-02491-y. | Arşiv Bağlantısı
- N. Jones. (2023). The World’s Week On Ai Safety: Powerful Computing Efforts Launched To Boost Research. Springer Science and Business Media LLC, sf: 229-230. doi: 10.1038/d41586-023-03472-x. | Arşiv Bağlantısı
- Nature. A Test Of Artificial Intelligence. Alındığı Tarih: 28 Aralık 2023. Alındığı Yer: Nature | Arşiv Bağlantısı
- C. Wong. (2023). These Scientists Aren’t Using Chatgpt — Here’s Why. Springer Science and Business Media LLC. doi: 10.1038/d41586-023-04071-6. | Arşiv Bağlantısı
Evrim Ağacı'na her ay sadece 1 kahve ısmarlayarak destek olmak ister misiniz?
Şu iki siteden birini kullanarak şimdi destek olabilirsiniz:
kreosus.com/evrimagaci | patreon.com/evrimagaci
Çıktı Bilgisi: Bu sayfa, Evrim Ağacı yazdırma aracı kullanılarak 26/12/2024 20:07:50 tarihinde oluşturulmuştur. Evrim Ağacı'ndaki içeriklerin tamamı, birden fazla editör tarafından, durmaksızın elden geçirilmekte, güncellenmekte ve geliştirilmektedir. Dolayısıyla bu çıktının alındığı tarihten sonra yapılan güncellemeleri görmek ve bu içeriğin en güncel halini okumak için lütfen şu adrese gidiniz: https://evrimagaci.org/s/16329
İçerik Kullanım İzinleri: Evrim Ağacı'ndaki yazılı içerikler orijinallerine hiçbir şekilde dokunulmadığı müddetçe izin alınmaksızın paylaşılabilir, kopyalanabilir, yapıştırılabilir, çoğaltılabilir, basılabilir, dağıtılabilir, yayılabilir, alıntılanabilir. Ancak bu içeriklerin hiçbiri izin alınmaksızın değiştirilemez ve değiştirilmiş halleri Evrim Ağacı'na aitmiş gibi sunulamaz. Benzer şekilde, içeriklerin hiçbiri, söz konusu içeriğin açıkça belirtilmiş yazarlarından ve Evrim Ağacı'ndan başkasına aitmiş gibi sunulamaz. Bu sayfa izin alınmaksızın düzenlenemez, Evrim Ağacı logosu, yazar/editör bilgileri ve içeriğin diğer kısımları izin alınmaksızın değiştirilemez veya kaldırılamaz.