Yapay Zeka Nasıl Tehlikeli Olabilir? Yapay Genel Zeka Güvenliği Neden Çok Önemlidir?

- Türev
- Yapay Zeka
Son birkaç yıl, yapay zeka için büyük gelişmelere sahne oldu. İnsan vücudundaki bilinen neredeyse bütün proteinlerin yapısını yüksek bir başarıyla modelleyebilen AlphaFold'dan, DALL-E ve ChatGPT'nin başarılı lansmanlarına kadar yapay zekadaki çeşitli gelişmeler, dünyada büyük yankı uyandırdı. Bilimkurgu genellikle yapay zekayı insan benzeri özelliklere sahip robotlar olarak tasvir ederken yapay zeka, Google'ın arama algoritmalarından IBM'nin Watson'ına ve otonom silahlara kadar her şeyi kapsayabilen bir olgudur.
Günümüzdeki yapay zeka teknolojileri; sadece yüz tanıma, internet aramaları veya araba kullanma gibi dar bir görevi yerine getirmek için tasarlandığından "yapay dar zeka" veya "zayıf yapay zeka" olarak değerlendirilmektedir. Birçok araştırmacının uzun vadeli hedefi ise yapay genel zeka ya da diğer adıyla güçlü yapay zeka oluşturmaktır.
Yapay genel zeka kavramı, bir insanın gerçekleştirebileceği herhangi bir entelektüel görevi anlayabilen ve öğrenebilen bir yapay zeka türünü ifade eder. Zayıf yapay zeka, satranç oynamak veya denklem çözmek gibi belirli bir görevi ne olursa olsun insanlardan daha iyi gerçekleştirebilirken güçlü yapay zeka, bilinçli olsun ya da olmasın neredeyse her bilişsel görevde insanlardan daha iyi performans gösterecektir.
Stanford Yapay Zeka Anketi
2022 yılında Stanford İnsan Odaklı Yapay Zeka Enstitüsü (İng: "Stanford Institute for Human-Centered Artificial Intelligence - HAI"), bu alanda aktif olarak çalışmalar yürüten bilim insanlarını bir ankete tabii tuttu. Ankette yapay zekanın geleceğine dair birkaç önerme verildi ve uzmanların bu önermelere ne kadar katıldıkları soruldu. Anketin sonuçları, 2023 yılının Nisan ayında Stanford Üniversitesi'nin yıllık teknoloji raporu olan Yapay Zeka İndeksi'nde yayımlandı. Anket sonuçları kısaca şu şekildeydi:[1]
- Araştırmacıların %73'ü, yapay zekanın yakında devrim niteliğinde toplumsal değişime yol açabileceğini,
- Araştırmacıların %58'i, yapay genel zekanın önemli bir endişe kaynağı olduğunu,
- Araştırmacıların %57'si, yapay zekadaki son gelişmelerin yapay genel zekaya yönelik adımlar olduğunu,
- Araştırmacıların %36'sı yani yaklaşık üçte biri, yapay zekanın kararlarının nükleer düzeyde yıkıma neden olabileceğini düşünmektedir.

Yapay Zeka Yakında Devrim Niteliğinde Toplumsal Değişime Yol Açabilir!
Stanford tarafından ankete tabii tutulan araştırmacıların %72'lik büyük bir çoğunluğu, yapay genel zekaya ulaşıldığında yaşamlarımızda çığır açan değişikliklerin gerçekleşeceğini tahmin etmektedir. Bu değişikliklerin iyi yönde mi yoksa kötü yönde mi olacağı ise bir tartışma konusudur.
Bilim insanlarının çoğu, yapay zeka ve doğal dil işleme teknolojilerinin gelecekteki net etkisinin olumlu olacağını, ancak teknolojinin potansiyel olarak tehlikeli yetenekler geliştirebileceğini düşünmektedir. Yapay zekanın geleneksel kontrol mekanizmalarının artık eskisi kadar güçlü olmadığı konusunda alanda büyük endişeler bulunmaktadır. Raporda bu konu şöyle açıklanıyor:
Üretken yapay zeka sistemleri oluşturmak ve kullanmak için teknik giriş engeli büyük ölçüde azalırken, yapay zeka hakkındaki etik problemler halk için daha belirgin hale geldi. Girişimler ve büyük şirketler, üretken yapay zeka modelleri geliştirmek ve piyasaya sürmek konusunda yarış halindeler ve teknoloji artık küçük bir grup tarafından kontrol edilmiyor.
Google ve Microsoft gibi dev şirketler, büyük veri kümeleriyle eğitilerek basit talimatlardan metin ve resim üretebilen yapay zeka sistemleri geliştirmek için birbirleriyle yarışmaktadır. Ancak ChatGPT'nin de göstermiş olduğu gibi bu tarz teknolojiler, geçim kaynaklarını hızla tehlikeye atma potansiyeline sahiptir.[3]
Kurumsal müşterilere çeşitli finansal hizmetler sunan, çok uluslu bir banka olan Goldman Sachs, GPT-4'ün duyurulmasını takip eden haftalarda bir araştırma sonucu paylaşmıştır. Araştırmanın sonuçları, üretken yapay zeka sistemlerinin potansiyeline ulaşması durumunda ABD ve Avrupa'da başta hukuk ve idari alanlardaki meslekler olmak üzere 300 milyon işin risk altında olacağını öngörmektedir.
Bununla birlikte Goldman Sachs araştırmacıları, yapay zekadaki gelişmeler sonucunda iş piyasasında meydana gelebilecek bozulmaların, uzun vadede yeni iş yaratma ve verimliliği artırma gibi planlarla telafi edilebileceğini söylemektedir. Ancak sorun yalnızca bununla sınırlı kalmamaktadır. Ayrıca, üretken yapay zeka sistemlerinin yanlı olma eğilimine dair çeşitli endişeler de bulunmaktadır. Örnek olarak hem Microsoft hem de Google'ın üretken yapay zeka sistemleri, sıklıkla yanlış veya yanıltıcı ifadelerde bulunmaktadır.[4] 2023 yılında yürütülen bir çalışma; Google'ın üretken yapay zeka modeli Bard'ın, 10 konunun 8'inde yanlış anlatılar oluşturabildiğini bulmuştur. Buna ilaveten, bu modellerin kullanım süresi uzadıkça rahatsız edici diyaloglar da bir o kadar meydana gelmektedir.
Yapay zekadaki bu belirsizlik halinden ötürü teknoloji geliştiricileri ve uzmanlar, yapay zekanın büyük kararlar almak için henüz kullanılmaması gerektiği konusunda uyarılarda bulunmaktadır.[5]
Yapay Zeka Alanındaki Son Gelişmeler, Yapay Genel Zekaya Yönelik Adımlardır!
Stanford tarafından ankete tabii tutulan araştırmacıların %57'si; yapay zeka alanındaki ilerlemelerin, üretken yapay zekadan çok yapay genel zeka geliştirmeye doğru kaydığını söylemektedir. Yapay genel zekanın ne zaman hayata geçirileceği konusunda doğal olarak bir fikir birliği bulunmasa da, 2009-2022 yılları arasında 1700 kadar bilim insanı ile yapılan 5 farklı anketin sonuçlarına göre yapay genel zekaya 2059'dan önce ulaşılması oldukça olası görülmektedir. Bununla birlikte bazı uzmanlar, yapay genel zekanın 50 yıl ve hatta yüzlerce yıl uzakta olduğunu söylerken bazı araştırmacılar ise gerçek yapay genel zekanın herhangi bir zamanda mümkün olup olamayacağını sorgulamaktadır.
Evrim Ağacı'nın çalışmalarına Kreosus, Patreon veya YouTube üzerinden maddi destekte bulunarak hem Türkiye'de bilim anlatıcılığının gelişmesine katkı sağlayabilirsiniz, hem de site ve uygulamamızı reklamsız olarak deneyimleyebilirsiniz. Reklamsız deneyim, sitemizin/uygulamamızın çeşitli kısımlarda gösterilen Google reklamlarını ve destek çağrılarını görmediğiniz, %100 reklamsız ve çok daha temiz bir site deneyimi sunmaktadır.
KreosusKreosus'ta her 50₺'lik destek, 1 aylık reklamsız deneyime karşılık geliyor. Bu sayede, tek seferlik destekçilerimiz de, aylık destekçilerimiz de toplam destekleriyle doğru orantılı bir süre boyunca reklamsız deneyim elde edebiliyorlar.
Kreosus destekçilerimizin reklamsız deneyimi, destek olmaya başladıkları anda devreye girmektedir ve ek bir işleme gerek yoktur.
PatreonPatreon destekçilerimiz, destek miktarından bağımsız olarak, Evrim Ağacı'na destek oldukları süre boyunca reklamsız deneyime erişmeyi sürdürebiliyorlar.
Patreon destekçilerimizin Patreon ile ilişkili e-posta hesapları, Evrim Ağacı'ndaki üyelik e-postaları ile birebir aynı olmalıdır. Patreon destekçilerimizin reklamsız deneyiminin devreye girmesi 24 saat alabilmektedir.
YouTubeYouTube destekçilerimizin hepsi otomatik olarak reklamsız deneyime şimdilik erişemiyorlar ve şu anda, YouTube üzerinden her destek seviyesine reklamsız deneyim ayrıcalığını sunamamaktayız. YouTube Destek Sistemi üzerinde sunulan farklı seviyelerin açıklamalarını okuyarak, hangi ayrıcalıklara erişebileceğinizi öğrenebilirsiniz.
Eğer seçtiğiniz seviye reklamsız deneyim ayrıcalığı sunuyorsa, destek olduktan sonra YouTube tarafından gösterilecek olan bağlantıdaki formu doldurarak reklamsız deneyime erişebilirsiniz. YouTube destekçilerimizin reklamsız deneyiminin devreye girmesi, formu doldurduktan sonra 24-72 saat alabilmektedir.
Diğer PlatformlarBu 3 platform haricinde destek olan destekçilerimize ne yazık ki reklamsız deneyim ayrıcalığını sunamamaktayız. Destekleriniz sayesinde sistemlerimizi geliştirmeyi sürdürüyoruz ve umuyoruz bu ayrıcalıkları zamanla genişletebileceğiz.
Giriş yapmayı unutmayın!Reklamsız deneyim için, maddi desteğiniz ile ilişkilendirilmiş olan Evrim Ağacı hesabınıza üye girişi yapmanız gerekmektedir. Giriş yapmadığınız takdirde reklamları görmeye devam edeceksinizdir.
Yapay Genel Zeka Önemli Bir Endişe Kaynağıdır!
Stanford tarafından ankete tabii tutulan araştırmacıların yaklaşık %58'i, yapay genel zekayı "önemli bir endişe kaynağı" olarak nitelendirmektedir. Mevcut yapay zeka araştırmaları, büyük ölçekte teknolojiler geliştirip kullanarak daha büyük hedeflere ulaşmaya odaklanmaktadır ve bu nedenle farklı araştırma alanlarından gelen görüşleri içermeme ve güvenlik ile etik konularını arka plana atma eğilimi göstermektedir. Ele aldığımız ankete göre bilim insanlarının en büyük endişe kaynağı da tam olarak budur. Her geçen gün daha fazla sayıda yapay zeka uzmanı, benzer endişeleri daha yüksek bir sesle dile getirmektedir.
22 Mart 2023 tarihinde, GPT-4'ün kullanıma açılmasını takip eden günlerde, daha güçlü yapay zeka sistemlerinin geliştirilmesinin en az 6 ay boyunca durdurulması ve böylece yapay zeka güvenliği-etiği araştırmalarına odaklanılması çağrısında bulunan açık bir mektup yazıldı.[6] Bu talep gerçekleşmemiş olsa da mektup, bilim komünitesinde büyük ilgi uyandırarak geniş bir tartışma zemini yaratmıştır. Ekim 2023 itibariyle 33711 kişi, mektubu imzalamış bulunmaktadır.
Yapay Zekanın Kararları Nükleer Düzeyde Yıkıma Neden Olabilir!
Stanford tarafından ankete tabii tutulan bilim insanlarının azımsanamayacak kadar önemli olan %36'lık bir kısmı, trend bu şekilde devam edecek olursa yapay genel zekanın yaratılmasının büyük yıkıma yol açabileceğini düşünmektedir. Eğer yapay genel zeka bir gün gerçek olursa, o an kuvvetle muhtemel olarak insanlık tarihi ve gelişiminin çok kritik bir dönüm noktası olacaktır.
Bazı araştırmacılar, bu dönüm noktasının bir tür teknolojik tekillik yaratacağını düşünmektedir. Teknolojik tekillik veya yapay zeka tekilliği; süper zeki bir yapay zeka sisteminin var olmasıyla uygarlık olarak teknolojik büyümenin kontrolünü yitireceğimiz, daha ileriye yönelik tahminlerde bulunmanın zorlaştığı hipotetik bir geleceğe karşılık gelmektedir. Uzmanlar, en az bir insan kadar zeki olan bir yapay zeka sisteminin geliştirilip kontrol edilemeyeceğinden endişe duymaktadır.
Yapay Zeka Güvenliği Neden Araştırılmalı?
Yakın vadede yapay zekanın toplum üzerindeki etkisini faydalı tutma hedefi ekonomiden hukuka, doğrulamadan geçerliliğe, güvenlikten kontrole kadar kadar birçok alanda araştırmayı motive ediyor. Dizüstü bilgisayarınızın çökmesi veya siber saldırıya uğraması küçük bir rahatsızlıktan biraz daha fazlası olsa da, eğer yapay zeka arabanızı, uçağınızı, kalp pilinizi, otomatik ticaret sisteminizi veya elektrik şebekenizi kontrol ediyorsa, yapay zekaya sahip bu sistemin, yapmasını istediğiniz şeyi yaptığından emin olabilmek daha da önemli hale geliyor. Tabii ki bir başka kısa vadeli zorluk, ölümcül otonom silahlarda yıkıcı bir silahlanma yarışını önlemektir. Eğer güvenli yapay zekalar inşa etmezsek, çok ciddi sorunlarla yüzleşebiliriz.
Uzun vadede önemli bir soru, yapay genel zeka arayışı başarılı olursa ve bir yapay zeka sistemi tüm bilişsel görevlerde insanlardan daha iyi hale gelirse ne olacağıdır. 1965'de I. J. Good'un işaret ettiği gibi, daha akıllı yapay zeka sistemleri tasarlamak başlı başına bir bilişsel görevdir. Böyle bir sistem, potansiyel olarak kendi algoritmalarında birbirini izleyen geliştirmelerde bulunabilir ve böylece zeka seviyesini önemli ölçüde yükselterek insan zekasını çok geride bırakan bir zeka patlamasını tetikleyebilir. Böyle bir süperzeka, devrim niteliğinde yeni teknolojiler icat ederek ve keşiflerde bulunarak bütün hastalıkları ve hatta ölümü bile ortadan kaldırmamıza yardımcı olabilir. Kulağa bilimkurgu gibi gelen, yüzlerce yıl uzakta olduğu düşünülen birçok teknoloji, süper zeki bir sistemin geliştirilmesiyle çok daha kısa sürelerde bir gerçeklik haline gelebilir. Bu nedenle yapay genel zekanın yaratılması, insanlık tarihindeki en büyük olay olabilir. Bazı uzmanlar ise yapay zekanın hedeflerini, süper akıllı hale gelmeden önce bizim hedeflerimizle aynı hizaya getirmeyi öğrenmezsek, bu olayın son olabileceği endişesini dile getirmektedir.
Bugün yapay zeka güvenliğinin araştırılması, gelecekte bu tür potansiyel olarak olumsuz sonuçlara daha iyi hazırlanmamıza ve bunları önlememize yardımcı olacaktır. Böylece tuzaklarından kaçınırken yapay zekanın faydalarından yararlanabiliriz.
Yapay Zeka Nasıl Tehlikeli Olabilir?
Çoğu araştırmacı, yapay genel zekanın sevgi ya da nefret gibi insan duygularını sergileme ihtimalinin düşük olacağını ve böyle bir yapay zekanın kasıtlı olarak dost ya da düşman olmasını beklemek için hiçbir neden olmadığı konusunda hemfikirdir. Bunun yerine, yapay zekanın nasıl bir risk haline gelebileceğini dikkate alan uzmanlar, büyük olasılıkla gerçekleşebilecek iki senaryo düşünüyor:
Senaryo 1: Yapay genel zeka, yıkıcı bir şey yapmaya programlanmıştır.
Otonom silahlar, öldürmeye programlanmış yapay zeka sistemleridir. Yanlış kişinin elinde bu silahlar, kolaylıkla kitlesel ölümlere neden olabilir. Dahası, bir yapay zeka silahlanma yarışı, yanlışlıkla bir yapay zeka savaşına yol açabilir ve bu da kitlesel ölümlerle sonuçlanabilir. Düşman tarafından engellenmekten kaçınmak için, bu silahların basitçe "kapatılması" son derece zor olacak şekilde tasarlanacak, böylece insanlar kolayca böyle bir durumun kontrolünü kaybedebilecektir. Bu risk, zayıf yapay zeka ile bile mevcut olan bir risktir ancak yapay zekanın zeka ve özerklik seviyeleri arttıkça risk büyür.
Senaryo 2: Yapay genel zeka, faydalı bir şey yapmak üzere programlanmıştır; ancak amacına ulaşmak için yıkıcı bir yöntem geliştirir.
Bu, yapay zekanın hedeflerini bizim hedeflerimizle tam olarak uyumlu hale getirmekte başarısız olduğumuzda gerçekleşebilir ki bunu başarmak, çarpıcı derecede zordur. Sadık bir akıllı arabadan sizi olabildiğince hızlı bir şekilde havaalanına götürmesini isterseniz, sizi oraya helikopterler tarafından kovalanarak ve kusturarak, istediğiniz şekilde değil; ancak "kelimenin tam anlamıyla" istediğinizi yaparak götürebilir. Süper zeki bir sistem, iddialı bir jeomühendislik projesi ile görevlendirilirse, ekosistemimize zarar verecek bir yan etkiye neden olabilir ve onu durdurmaya yönelik insan girişimlerini karşılık verilmesi gereken bir tehdit olarak görebilir.
Bu örneklerin gösterdiği gibi, gelişmiş bir yapay zeka ile ilgili endişe kötü niyet değil, yeterliliktir. Süper zeki bir yapay zeka, hedeflerine ulaşmada son derece iyi olacaktır ve bu hedeflere ulaşma biçimi bizimkilerle uyumlu değilse, bir sorunumuz var demektir.
Güçlü yapay zeka arayışının nihayetinde başarılı olacağı fikri, uzak bir geleceğe dayanıyordu. 2011 yılında uzmanların daha onlarca yıl uzakta olduğunu düşündüğü birçok yapay zeka kilometre taşına çoktan ulaşıldı. Bundan dolayı birçok yapay zeka uzmanı, yaşamımız içerisinde yapay genel zekaya ulaşılması olasılığını ciddiye alıyor.
Yapay zeka, herhangi bir insandan daha zeki olma potansiyeline sahip olduğu için, nasıl davranacağını tahmin etmenin kesin bir yolu yok. Geçmişteki teknolojik gelişmeleri temel alamayız; çünkü kasıtlı veya farkında olmadan bizi alt etme yeteneğine sahip hiçbir şey yaratmadık. Bir karşılaştırma yapmamızı sağlayacak en iyi örnek, kendi evrimimiz olabilir. İnsanlar artık gezegeni kontrol ediyor; en güçlü, en hızlı veya en büyük olduğumuz için değil, en zeki olduğumuz için. Artık en zeki olmayacaksak, kontrolü elimizde tutacağımızdan emin miyiz?

Yapay Genel Zekanın Riskleri Hakkındaki Mitler
Pek çok yapay zeka araştırmacısı bu tür başlıkları görünce gözlerini deviriyor: Stephen Hawking, robotların yükselişinin insanlık için felaket olabileceği konusunda uyarıyor.
Tipik olarak, bu tarz yazılara silah taşıyan kötü görünümlü bir robot eşlik ediyor ve robotların yükselip bizi öldürmeleri konusunda endişelenmemizi öneriyorlar; çünkü bunlar, bilinçli ve/veya kötü oluyor. Bu tarz yazılar aslında oldukça etkileyicidir, çünkü yapay zeka araştırmacılarının aslında endişelenmediği senaryoları kısa ve öz bir şekilde özetlerler. Bu senaryolar, üç farklı yanılgıyı birleştiriyor: bilinç, kötülük ve robotlarla ilgili endişe.
Asıl endişe kötü niyet değil, yeterliliktir. Süper zeki bir yapay zeka ne olursa olsun, tanım gereği, hedeflerine ulaşmak konusunda çok iyidir. Bu nedenle yapay zekanın hedeflerinin, bizimkilerle uyumlu olmasını sağlamamız gerekir. Şöyle düşünün: İnsanlar genellikle karıncalardan nefret etmez; ama biz onlardan daha zekiyiz. Yani bir hidroelektrik baraj inşa etmek istiyorsak ve orada bir karınca yuvası varsa... Bu karıncalar için çok kötüdür; ama sonucu değiştirmez: O baraj inşa edilir. Yararlı yapay zeka hareketi, insanlığın, bu karıncaların bulunduğu durumla karşı karşıya kalmasından kaçınmayı istiyor.
Bilinç yanılgısı, makinelerin bilinci yoksa hedeflere de sahip olamayacağı mitiyle ilgilidir. Makinelerin günümüzde dar anlamda olsa da hedefleri olduğu açıktır. Basit bir örnek olarak, algoritmaya sahip bir füzenin bir hedefi ekonomik bir şekilde vurmak için ısı araması, bir hedefe yönelik davranış segileme olarak görülmektedir. Hedefleri sizinkiyle yanlış "hizalanmış" bir makine tarafından tehdit edildiğinizi düşünüyorsanız, o zaman sizi rahatsız eden tam da bu dar anlamdaki hedefleridir, makinenin bilinçli olup olmadığı ve bir amaç duyusu deneyimleyip deneyimlemediği değil. Isı arayan o füze sizi kovalıyor olsaydı, muhtemelen şunu haykırmazdınız:
Endişelenmiyorum, çünkü makinelerin hedefleri olamaz!
Bazı gazeteciler, robotlara takıntılı bir şekilde saplanmış görünüyorlar ve yazılarının çoğunu kırmızı parlak gözlere sahip kötü görünümlü metal canavarlarla süslüyorlar. Aslında, faydalı yapay zeka hareketinin temel endişesi robotlarla değil, zekanın kendisiyle ilgilidir: özellikle, hedefleri bizimkilerle yanlış hizalanmış zekayla... Bizi sıkıntıya sokmak için, bu tür yanlış hizalanmış hedefleri olan insanüstü zekanın robotik bedene ihtiyacı yoktur; sadece bir internet bağlantısı yeterli olacaktır. Bu internet bağlantısı, finansal piyasaları zekice alt etmeye, insan araştırmacıları geride bırakmaya, insan liderleri manipüle etmeye ve anlayamadığımız silahlar geliştirmeye olanak sağlayabilir.
Robot yanılgısı, makinelerin insanları kontrol edemeyeceği mitiyle ilgilidir. Zeka, kontrolü mümkün kılar: İnsanlar olarak, aslanları daha güçlü olduğumuz için değil, daha zeki olduğumuz için kontrol edebiliyoruz. Bu, gezegenimizdeki en zeki konumumuzu yitirirsek kontrolü de kaybetmemizin mümkün olduğu anlamına gelir.

İnsan seviyesinde yapay zeka ile ilişkili güvenlik sorunlarının çoğu oldukça zordur. Öyle ki, çözülmesi onlarca yıl alabilir. Bundan dolayı, bir an önce güçlü yapay zeka güvenlik araştırmalarına gereken ağırlığın verilmesi ve resmi kurumların bu yönde harekete geçmesi izlenecek en akıllıca yol olacaktır.
Sonuç
Teknolojiyi geliştirme ve kullanma biçimi, politik sisteme güçlü bir şekilde bağlıdır. Her geçen gün daha fazla sayıda bilim insanı, yapay genel zekanın büyük bir önem ve aciliyet arz ettiği konusunda daha da çok uzlaşmakta ve politikacıları bu yönde eyleme geçmeye çağırmaktadır. Yapay genel zeka gibi böyle güçlü bir teknolojiyi kimlerin neyi gözeterek ve nasıl inşa ettiği, insanlık olarak geleceğimiz için son derece kritik bir önem taşımaktadır. Güçlü bir yapay zeka sistemi araştırmaları, metaverse teknolojisinde olduğu gibi şirketler için heyecan vericidir; çünkü daha çok güç ve para için eşi benzeri görülmemiş bir gelir kapısı yaratmaktadır. Yapay genel zeka gibi uzun vadede belki de trilyonlarca dolara mâl olacak bir işi hiçbir şirket, insanlığı ilerletmek için değil; kâr etmek için yapacaktır. En büyük önceliğin kâr etme ve güç kazanma olduğu kapitalizmde; ileri teknolojilerin geliştirilmesinde etik kurallara uyulması ve güvenliğin sağlanması gibi mühim konular, bir avuç dev şirketin ve milyarderin insafına bırakılamaz.
Devletler ve BM gibi kural koyucu ve uygulayıcı kurumların, sektöre denetim ve yaptırımlar getirme yönünde kararlar alması, elzem bir gerekliliktir. Bu yönde bilim komünitesi ve bir toplum olarak, resmi kurumların yapay genel zeka araştırmalarının güvenliği konusunda sahici önlemler almasını yüksek bir sesle dile getirmeliyiz. Bu kadar önemli teknolojilerin geliştirilmesindeki kararları, sırf parası ve gücü olduğu için koskoca türün geleceğini bizim adımıza belirlemeyi kendine hak gören bir avuç şirket ve milyardere terk edemeyiz. Eğer tür ve uygarlık olarak bir geleceğimiz olsun istiyorsak...
Evrim Ağacı'nda tek bir hedefimiz var: Bilimsel gerçekleri en doğru, tarafsız ve kolay anlaşılır şekilde Türkiye'ye ulaştırmak. Ancak tahmin edebileceğiniz gibi Türkiye'de bilim anlatmak hiç kolay bir iş değil; hele ki bir yandan ekonomik bir hayatta kalma mücadelesi verirken...
O nedenle sizin desteklerinize ihtiyacımız var. Eğer yazılarımızı okuyanların %1'i bize bütçesinin elverdiği kadar destek olmayı seçseydi, bir daha tek bir reklam göstermeden Evrim Ağacı'nın bütün bilim iletişimi faaliyetlerini sürdürebilirdik. Bir düşünün: sadece %1'i...
O %1'i inşa etmemize yardım eder misiniz? Evrim Ağacı Premium üyesi olarak, ekibimizin size ve Türkiye'ye bilimi daha etkili ve profesyonel bir şekilde ulaştırmamızı mümkün kılmış olacaksınız. Ayrıca size olan minnetimizin bir ifadesi olarak, çok sayıda ayrıcalığa erişim sağlayacaksınız.
Makalelerimizin bilimsel gerçekleri doğru bir şekilde yansıtması için en üst düzey çabayı gösteriyoruz. Gözünüze doğru gelmeyen bir şey varsa, mümkünse güvenilir kaynaklarınızla birlikte bize ulaşın!
Bu makalemizle ilgili merak ettiğin bir şey mi var? Buraya tıklayarak sorabilirsin.
Soru & Cevap Platformuna Git- 12
- 6
- 3
- 2
- 2
- 1
- 1
- 1
- 0
- 0
- 0
- 0
- Türev İçerik Kaynağı: Future of Life Institute | Arşiv Bağlantısı
- ^ HAI. Ai Index Report 2023 – Artificial Intelligence Index. (3 Nisan 2023). Alındığı Tarih: 28 Ekim 2023. Alındığı Yer: Artificial Intelligence Index Stanford Edu | Arşiv Bağlantısı
- T. Bove. A.i. Could Lead To A ‘Nuclear-Level Catastrophe’ According To A Third Of Researchers, A New Stanford Report Finds. (10 Nisan 2023). Alındığı Tarih: 29 Ekim 2023. Alındığı Yer: Fortune | Arşiv Bağlantısı
- ^ T. Williams. Some Companies Are Already Replacing Workers With Chatgpt, Despite Warnings It Shouldn’t Be Relied On For ‘Anything Important’. (25 Şubat 2023). Alındığı Tarih: 29 Ekim 2023. Alındığı Yer: Fortune | Arşiv Bağlantısı
- ^ J. Vincent. Google And Microsoft’s Chatbots Are Already Citing One Another In A Misinformation Shitshow. (22 Mart 2023). Alındığı Tarih: 29 Ekim 2023. Alındığı Yer: The Verge | Arşiv Bağlantısı
- ^ Harvard Business Review. Ai Isn’t Ready To Make Unsupervised Decisions. (15 Eylül 2022). Alındığı Tarih: 29 Ekim 2023. Alındığı Yer: Harvard Business Review | Arşiv Bağlantısı
- ^ Future of Life Institute. Pause Giant Ai Experiments: An Open Letter - Future Of Life Institute. (22 Mart 2023). Alındığı Tarih: 29 Ekim 2023. Alındığı Yer: Future of Life Institute | Arşiv Bağlantısı
Evrim Ağacı'na her ay sadece 1 kahve ısmarlayarak destek olmak ister misiniz?
Şu iki siteden birini kullanarak şimdi destek olabilirsiniz:
kreosus.com/evrimagaci | patreon.com/evrimagaci
Çıktı Bilgisi: Bu sayfa, Evrim Ağacı yazdırma aracı kullanılarak 15/03/2025 09:41:30 tarihinde oluşturulmuştur. Evrim Ağacı'ndaki içeriklerin tamamı, birden fazla editör tarafından, durmaksızın elden geçirilmekte, güncellenmekte ve geliştirilmektedir. Dolayısıyla bu çıktının alındığı tarihten sonra yapılan güncellemeleri görmek ve bu içeriğin en güncel halini okumak için lütfen şu adrese gidiniz: https://evrimagaci.org/s/15964
İçerik Kullanım İzinleri: Evrim Ağacı'ndaki yazılı içerikler orijinallerine hiçbir şekilde dokunulmadığı müddetçe izin alınmaksızın paylaşılabilir, kopyalanabilir, yapıştırılabilir, çoğaltılabilir, basılabilir, dağıtılabilir, yayılabilir, alıntılanabilir. Ancak bu içeriklerin hiçbiri izin alınmaksızın değiştirilemez ve değiştirilmiş halleri Evrim Ağacı'na aitmiş gibi sunulamaz. Benzer şekilde, içeriklerin hiçbiri, söz konusu içeriğin açıkça belirtilmiş yazarlarından ve Evrim Ağacı'ndan başkasına aitmiş gibi sunulamaz. Bu sayfa izin alınmaksızın düzenlenemez, Evrim Ağacı logosu, yazar/editör bilgileri ve içeriğin diğer kısımları izin alınmaksızın değiştirilemez veya kaldırılamaz.