Yapay Zekâ Bilinç Geliştirirse Ne Yapılmalı? Bilinçli Yapay Zekâ Sistemlerine Özlük Hakkı Tanınmalı mı?
Yeni Yapay Zekâ Sistemleri Bilinçlilik Açısından Test Edilmeli ve Yapay Zekâ İçin Özlük Politikaları Oluşturulmalı!
Yapay zekânın hızlı evrimi, bir zamanlar bilimkurgu ile sınırlı gözüken büyük ve önemli etik soruları da gün yüzüne çıkarmaktadır: Yapay zekânın bilinç kazanması mümkün olabilir mi? Bir gün yapay zekâ sistemleri insanlar gibi "düşünebilir" hale gelirse, bu sistemler insanlar gibi içsel deneyimlere sahip olabilir mi? Acı çekebilirler mi ve eğer öyleyse, insanlık bu sistemlerin haklarını gözetecek mi?..
Bir grup filozof ve bilgisayar bilimcisi, "yapay zekâ özlüğü" konusunun ciddiye alınması gerektiğini öne sürmektedir. 4 Kasım 2024'te ön baskı olarak yayımlanmış bir makalede yapay zekâ şirketlerinin geliştirdikleri sistemlerin yalnızca bilinç ve özerk olarak karar verme kapasitelerini değerlendirmekle yetinmemeleri, aynı zamanda bilinç geliştiren bir sisteme karşı nasıl davranılması gerektiğine dair protokoller de belirlemeleri önerilmektedir.[1]
Makalede, eğer bir yapay zekâ sistemi bilinç geliştirecek olursa ve bu fark edilmezse bunun insanların sistemlere karşı ihmalkâr davranmasına, zarar vermesine ve hatta acı çektirmesine yol açabileceği belirtilmektedir.
Yapay Zekâda Özlük Tartışmaları
Mevcut aşamada yapay zekâda özlük ihtiyacının gündeme gelmesi absürt ve hatta gülünç bulunabilir. Ancak yapay zekâ uzmanları, bu konuda ciddi bir yaklaşım benimsemektedirler ve şimdiden bunları temkinli bir şekilde ele almaya başlamanın gerekli olduğunu savunmaktadırlar. İngiltere Brighton'daki Sussex Üniversitesi'nde bilinç üzerine araştırmalar yürüten bilim insanı Anil Seth, şöyle söylüyor:[2]
Bu senaryolar tuhaf görünebilir ve gerçekten bilinçli yapay zekânın çok uzak bir gelecekte mümkün olması hatta belki hiç mümkün olmaması ihtimali de bulunmaktadır. Ancak bilinçli bir sistemin ortaya çıkışının sonuçları o kadar sarsıcı olacaktır ki gerçekleşme olasılığını göz ardı edemeyiz.
İngiltere Oxfard'dan matematikçi Jonathan Mason, yapay zekâya olan bağımlılığımız arttıkça risklerin de büyüdüğünü söylemektedir. Mason, yapay zekâ sistemlerini bilinç açısından değerlendirebilecek yöntemler geliştirilmesinin de bir öncelik olması gerektiğini savunmaktadır. Mason, şöyle söylüyor:
Toplumun bu kadar yatırım yaptığı ve bağımlı hale geldiği bir şeyin algılama kapasitesine sahip olduğunu bile fark edemeyecek kadar az bilgiyle hareket etmek, pek mantıklı olmayacaktır.
New York Üniversitesi'nden filozof ve makalenin ortak yazarlarından biri olan Jeff Sebo ise, yapay zekâ sistemlerinin bilinçli olduğu sonucuna hatalı olarak varılması halinde insanların ve diğer hayvanların bu durumdan olumsuz etkilenebileceğini belirtmektedir. Sebo, eğer bir sistemin yanlış bir şekilde bilinçli olduğu varsayılırsa refah gözetme fonlarının bu sistemlere de yönlendirilebileceğini ve insanlar veya hayvanlar gibi buna gerçekten ihtiyaç duyan grupların bütçelerinden kısılabileceğini söylemektedir. Ayrıca yapay zekâda bilinç tartışmalarının, yapay zekâyı insanlar için güvenli ve faydalı hale getirme çabalarını kısıtlayabileceğini ifade etmektedir.
Makale, Yapay Zekâ Bilinci İçin Bir Dönüm Noktası mı?
Makalede, yapay zekâda özlük tartışmalarının bir geçiş anı yaşadığı öne sürülmektedir. Öyle ki, makalenin yazarlarından biri olan Kyle Fish, 2024'te önde gelen yapay zekâ şirketlerinden Anthropic tarafından "yapay zekâ özlüğü araştırmacısı" olarak işe alınmıştır. Rapora göre bu, büyük bir yapay zekâ şirketinde bu türden ilk pozisyon niteliğindedir. Ayrıca Anthropic şirketi, bu makaleye yol açan ilk araştırmanın da finansmanını üstlenmiştir. Sebo, şöyle söylüyor:
Önde gelen yapay zekâ şirketlerinde yapay zekâ bilinci, özlüğü ve etik konularının önemini ciddiye alanların olması ile bir değişim anı yaşanmaktadır.
Bu yazıyı hazırlayan Nature dergisi, yapay zekânın özlük durumu konusundaki planlarını sormak için ABD merkezli dört büyük yapay zekâ şirketine ulaşmıştır. Anthropic, Google ve Microsoft şirketleri bir yorumda bulunmayı reddetmiş, OpenAI şirketi ise herhangi bir dönüşte bulunmamıştır.
Öte yandan, yapay zekâ bilincinin bir öncelik olması gerektiğine henüz herkes ikna olmamıştır. Eylül 2024'te, Yoshua Bengio gibi önemli yapay zekâ araştırmacısı bilim insanlarını bünyesinde barındıran Birleşmiş Milletler Yüksek Düzeyli Yapay Zekâ Danışma Kurulu, dünya devletlerinin yapay zekâ teknolojilerini nasıl yönetmesi ve nasıl güvenliğini sağlaması gerektiğine dair bir rapor yayımlamıştır.[3] Ancak bu raporda, bir grup bilim insanının makinelerde bilinci değerlendirme araştırmalarının desteklenmesi yönündeki çağrısına rağmen, yapay zekâ bilinci konusu ele alınmamıştır.[4] Mason, bu konuda şöyle söylüyor:
Bu durum, bu konunun daha geniş bir kamuoyuna aktarılmasında yaşanan derin bir zorluğu yansıtmaktadır.
Sonuç
Yapay zekâ sistemlerinin bir gün bilinç kazanıp kazanamayacağı hâlâ belirsizliğini koruyan bir konudur. Bilinç, insanlar ve hayvanlar için bile değerlendirilmesi ve ölçülmesi zor bir fenomen olarak öne çıkmaktadır. Ancak Sebo'ya göre bu belirsizlik ve zorluğun, yapay sistemlerde bilinç durumunu değerlendirmek için çeşitli protokoller geliştirme çabalarının önüne geçmemelidir. Bu konuda 2023'te bir grup bilim insanı, bilinçli olma olasılığı yüksek sistemleri belirlemede yardımcı olabilecek bir kontrol listesi yayımlamıştır.[5] Sebo, bu konuda şöyle söylüyor:
Kusurlu bir başlangıç çerçevesi bile içinde bulunulan mevcut duruma göre daha iyi olacaktır.
Bununla birlikte makalenin yazarları da yapay zekâ özlüğü tartışmasının insanlar için yapay zekâ gelişimini güvenli hale getirmek gibi kritik konuların önüne geçmemesi gerektiğini vurgulamaktadır.
İçeriklerimizin bilimsel gerçekleri doğru bir şekilde yansıtması için en üst düzey çabayı gösteriyoruz. Gözünüze doğru gelmeyen bir şey varsa, mümkünse güvenilir kaynaklarınızla birlikte bize ulaşın!
Bu içeriğimizle ilgili bir sorunuz mu var? Buraya tıklayarak sorabilirsiniz.
Soru & Cevap Platformuna Git- 0
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- Çeviri Kaynağı: Nature | Arşiv Bağlantısı
- ^ R. Long, et al. (2024). Taking Ai Welfare Seriously. ArXiV. | Arşiv Bağlantısı
- ^ A. Seth. Why Conscious Ai Is A Bad, Bad Idea. (8 Mayıs 2023). Alındığı Tarih: 15 Aralık 2024. Alındığı Yer: Nautilus | Arşiv Bağlantısı
- ^ United Nations High-level Advisory Body on Artificial Intelligence. (Rapor, 2024). Governing Ai For Humanity.
- ^ M. Lenharo. (2023). Ai Consciousness: Scientists Say We Urgently Need Answers. Springer Science and Business Media LLC, sf: 226-226. doi: 10.1038/d41586-023-04047-6. | Arşiv Bağlantısı
- ^ M. Lenharo. (2023). If Ai Becomes Conscious: Here’s How Researchers Will Know. Springer Science and Business Media LLC. doi: 10.1038/d41586-023-02684-5. | Arşiv Bağlantısı
- M. Lenharo. (2023). Decades-Long Bet On Consciousness Ends — And It’s Philosopher 1, Neuroscientist 0. Springer Science and Business Media LLC, sf: 14-15. doi: 10.1038/d41586-023-02120-8. | Arşiv Bağlantısı
- M. Lenharo. (2024). Do Insects Have An Inner Life? Animal Consciousness Needs A Rethink. Springer Science and Business Media LLC, sf: 14-15. doi: 10.1038/d41586-024-01144-y. | Arşiv Bağlantısı
Evrim Ağacı'na her ay sadece 1 kahve ısmarlayarak destek olmak ister misiniz?
Şu iki siteden birini kullanarak şimdi destek olabilirsiniz:
kreosus.com/evrimagaci | patreon.com/evrimagaci
Çıktı Bilgisi: Bu sayfa, Evrim Ağacı yazdırma aracı kullanılarak 24/01/2025 00:41:27 tarihinde oluşturulmuştur. Evrim Ağacı'ndaki içeriklerin tamamı, birden fazla editör tarafından, durmaksızın elden geçirilmekte, güncellenmekte ve geliştirilmektedir. Dolayısıyla bu çıktının alındığı tarihten sonra yapılan güncellemeleri görmek ve bu içeriğin en güncel halini okumak için lütfen şu adrese gidiniz: https://evrimagaci.org/s/19282
İçerik Kullanım İzinleri: Evrim Ağacı'ndaki yazılı içerikler orijinallerine hiçbir şekilde dokunulmadığı müddetçe izin alınmaksızın paylaşılabilir, kopyalanabilir, yapıştırılabilir, çoğaltılabilir, basılabilir, dağıtılabilir, yayılabilir, alıntılanabilir. Ancak bu içeriklerin hiçbiri izin alınmaksızın değiştirilemez ve değiştirilmiş halleri Evrim Ağacı'na aitmiş gibi sunulamaz. Benzer şekilde, içeriklerin hiçbiri, söz konusu içeriğin açıkça belirtilmiş yazarlarından ve Evrim Ağacı'ndan başkasına aitmiş gibi sunulamaz. Bu sayfa izin alınmaksızın düzenlenemez, Evrim Ağacı logosu, yazar/editör bilgileri ve içeriğin diğer kısımları izin alınmaksızın değiştirilemez veya kaldırılamaz.
This work is an exact translation of the article originally published in Nature. Evrim Ağacı is a popular science organization which seeks to increase scientific awareness and knowledge in Turkey, and this translation is a part of those efforts. If you are the author/owner of this article and if you choose it to be taken down, please contact us and we will immediately remove your content. Thank you for your cooperation and understanding.