Keşfedin, Öğrenin ve Paylaşın
Evrim Ağacı'nda Aradığın Her Şeye Ulaşabilirsin!
Paylaşım Yap
Tüm Reklamları Kapat
Tüm Reklamları Kapat

Yapay Zekâ Nasıl Tehlikeli Olabilir? Yapay Genel Zekâ Güvenliği Neden Çok Önemlidir?

14 dakika
6,000
Yapay Zekâ Nasıl Tehlikeli Olabilir? Yapay Genel Zekâ Güvenliği Neden Çok Önemlidir? ETU "LETI"
Evrim Ağacı Akademi: Yapay Zeka Güvenliği Yazı Dizisi

Bu yazı, Yapay Zeka Güvenliği yazı dizisinin 1 . yazısıdır.

Yazı dizisi içindeki ilerleyişinizi kaydetmek için veya kayıt olun.

EA Akademi Hakkında Bilgi Al
Tüm Reklamları Kapat

Son birkaç yıl, yapay zekâ için büyük gelişmelere sahne oldu. İnsan vücudundaki bilinen neredeyse bütün proteinlerin yapısını yüksek bir başarıyla modelleyebilen AlphaFold'dan, DALL-E ve ChatGPT'nin başarılı lansmanlarına kadar yapay zekâdaki çeşitli gelişmeler, dünyada büyük yankı uyandırdı. Bilimkurgu genellikle yapay zekâyı insan benzeri özelliklere sahip robotlar olarak tasvir ederken yapay zekâ, Google'ın arama algoritmalarından IBM'nin Watson'ına ve otonom silahlara kadar her şeyi kapsayabilen bir olgudur.

Günümüzdeki yapay zekâ teknolojileri; sadece yüz tanıma, internet aramaları veya araba kullanma gibi dar bir görevi yerine getirmek için tasarlandığından "yapay dar zekâ" veya "zayıf yapay zekâ" olarak değerlendirilmektedir. Birçok araştırmacının uzun vadeli hedefi ise yapay genel zekâ ya da diğer adıyla güçlü yapay zekâ oluşturmaktır.

Yapay genel zekâ kavramı, bir insanın gerçekleştirebileceği herhangi bir entelektüel görevi anlayabilen ve öğrenebilen bir yapay zekâ türünü ifade eder. Zayıf yapay zekâ, satranç oynamak veya denklem çözmek gibi belirli bir görevi ne olursa olsun insanlardan daha iyi gerçekleştirebilirken güçlü yapay zekâ, bilinçli olsun ya da olmasın neredeyse her bilişsel görevde insanlardan daha iyi performans gösterecektir.

Tüm Reklamları Kapat

Stanford Yapay Zekâ Anketi

2022 yılında Stanford İnsan Odaklı Yapay Zekâ Enstitüsü (İng: "Stanford Institute for Human-Centered Artificial Intelligence - HAI"), bu alanda aktif olarak çalışmalar yürüten bilim insanlarını bir ankete tabii tuttu. Ankette yapay zekânın geleceğine dair birkaç önerme verildi ve uzmanların bu önermelere ne kadar katıldıkları soruldu. Anketin sonuçları, 2023 yılının Nisan ayında Stanford Üniversitesi'nin yıllık teknoloji raporu olan Yapay Zekâ İndeksi'nde yayımlandı. Anket sonuçları kısaca şu şekildeydi:[1]

  • Araştırmacıların %73'ü, yapay zekânın yakında devrim niteliğinde toplumsal değişime yol açabileceğini,
  • Araştırmacıların %58'i, yapay genel zekânın önemli bir endişe kaynağı olduğunu,
  • Araştırmacıların %57'si, yapay zekâdaki son gelişmelerin yapay genel zekâya yönelik adımlar olduğunu,
  • Araştırmacıların %36'sı yani yaklaşık üçte biri, yapay zekânın kararlarının nükleer düzeyde yıkıma neden olabileceğini düşünmektedir.
Spectrum IEEE

Yapay Zekâ Yakında Devrim Niteliğinde Toplumsal Değişime Yol Açabilir!

Stanford tarafından ankete tabii tutulan araştırmacıların %72'lik büyük bir çoğunluğu, yapay genel zekâya ulaşıldığında yaşamlarımızda çığır açan değişikliklerin gerçekleşeceğini tahmin etmektedir. Bu değişikliklerin iyi yönde mi yoksa kötü yönde mi olacağı ise bir tartışma konusudur.

Bilim insanlarının çoğu, yapay zekâ ve doğal dil işleme teknolojilerinin gelecekteki net etkisinin olumlu olacağını, ancak teknolojinin potansiyel olarak tehlikeli yetenekler geliştirebileceğini düşünmektedir. Yapay zekânın geleneksel kontrol mekanizmalarının artık eskisi kadar güçlü olmadığı konusunda alanda büyük endişeler bulunmaktadır. Raporda bu konu şöyle açıklanıyor:

Jeneratif (üretken) yapay zekâ sistemleri oluşturmak ve kullanmak için teknik giriş engeli büyük ölçüde azalırken, yapay zekâ hakkındaki etik problemler halk için daha belirgin hale geldi. Girişimler ve büyük şirketler, jeneratif yapay zekâ modelleri geliştirmek ve piyasaya sürmek konusunda yarış halindeler ve teknoloji artık küçük bir grup tarafından kontrol edilmiyor.

Google ve Microsoft gibi dev şirketler, büyük veri kümeleriyle eğitilerek basit talimatlardan metin ve resim üretebilen yapay zekâ sistemleri geliştirmek için birbirleriyle yarışmaktadır. Ancak ChatGPT'nin de göstermiş olduğu gibi bu tarz teknolojiler, geçim kaynaklarını hızla tehlikeye atma potansiyeline sahiptir.[3]

Tüm Reklamları Kapat

Kurumsal müşterilere çeşitli finansal hizmetler sunan, çok uluslu bir banka olan Goldman Sachs, GPT-4'ün duyurulmasını takip eden haftalarda bir araştırma sonucu paylaşmıştır. Araştırmanın sonuçları, jeneratif yapay zekâ sistemlerinin potansiyeline ulaşması durumunda ABD ve Avrupa'da başta hukuk ve idari alanlardaki meslekler olmak üzere 300 milyon işin risk altında olacağını öngörmektedir.

Bununla birlikte Goldman Sachs araştırmacıları, yapay zekâdaki gelişmeler sonucunda iş piyasasında meydana gelebilecek bozulmaların, uzun vadede yeni iş yaratma ve verimliliği artırma gibi planlarla telafi edilebileceğini söylemektedir. Ancak sorun yalnızca bununla sınırlı kalmamaktadır. Ayrıca, jeneratif yapay zekâ sistemlerinin yanlı olma eğilimine dair çeşitli endişeler de bulunmaktadır. Örnek olarak hem Microsoft hem de Google'ın jeneratif yapay zekâ sistemleri, sıklıkla yanlış veya yanıltıcı ifadelerde bulunmaktadır.[4] 2023 yılında yürütülen bir çalışma; Google'ın jeneratif yapay zekâ modeli Bard'ın, 10 konunun 8'inde yanlış anlatılar oluşturabildiğini bulmuştur. Buna ilaveten, bu modellerin kullanım süresi uzadıkça rahatsız edici diyaloglar da bir o kadar meydana gelmektedir.

Yapay zekâdaki bu belirsizlik halinden ötürü teknoloji geliştiricileri ve uzmanlar, yapay zekânın büyük kararlar almak için henüz kullanılmaması gerektiği konusunda uyarılarda bulunmaktadır.[5]

Yapay Zekâ Alanındaki Son Gelişmeler, Yapay Genel Zekâya Yönelik Adımlardır!

Stanford tarafından ankete tabii tutulan araştırmacıların %57'si; yapay zekâ alanındaki ilerlemelerin, jeneratif yapay zekâdan çok yapay genel zekâ geliştirmeye doğru kaydığını söylemektedir. Yapay genel zekânın ne zaman hayata geçirileceği konusunda doğal olarak bir fikir birliği bulunmasa da, 2009-2022 yılları arasında 1700 kadar bilim insanı ile yapılan 5 farklı anketin sonuçlarına göre yapay genel zekâya 2059'dan önce ulaşılması oldukça olası görülmektedir. Bununla birlikte bazı uzmanlar, yapay genel zekânın 50 yıl ve hatta yüzlerce yıl uzakta olduğunu söylerken bazı araştırmacılar ise gerçek yapay genel zekânın herhangi bir zamanda mümkün olup olamayacağını sorgulamaktadır.

Evrim Ağacı'ndan Mesaj

Aslında maddi destek istememizin nedeni çok basit: Çünkü Evrim Ağacı, bizim tek mesleğimiz, tek gelir kaynağımız. Birçoklarının aksine bizler, sosyal medyada gördüğünüz makale ve videolarımızı hobi olarak, mesleğimizden arta kalan zamanlarda yapmıyoruz. Dolayısıyla bu işi sürdürebilmek için gelir elde etmemiz gerekiyor.

Bunda elbette ki hiçbir sakınca yok; kimin, ne şartlar altında yayın yapmayı seçtiği büyük oranda bir tercih meselesi. Ne var ki biz, eğer ana mesleklerimizi icra edecek olursak (yani kendi mesleğimiz doğrultusunda bir iş sahibi olursak) Evrim Ağacı'na zaman ayıramayacağımızı, ayakta tutamayacağımızı biliyoruz. Çünkü az sonra detaylarını vereceğimiz üzere, Evrim Ağacı sosyal medyada denk geldiğiniz makale ve videolardan çok daha büyük, kapsamlı ve aşırı zaman alan bir bilim platformu projesi. Bu nedenle bizler, meslek olarak Evrim Ağacı'nı seçtik.

Eğer hem Evrim Ağacı'ndan hayatımızı idame ettirecek, mesleklerimizi bırakmayı en azından kısmen meşrulaştıracak ve mantıklı kılacak kadar bir gelir kaynağı elde edemezsek, mecburen Evrim Ağacı'nı bırakıp, kendi mesleklerimize döneceğiz. Ama bunu istemiyoruz ve bu nedenle didiniyoruz.

Yapay Genel Zekâ Önemli Bir Endişe Kaynağıdır!

Stanford tarafından ankete tabii tutulan araştırmacıların yaklaşık %58'i, yapay genel zekâyı "önemli bir endişe kaynağı" olarak nitelendirmektedir. Mevcut yapay zekâ araştırmaları, büyük ölçekte teknolojiler geliştirip kullanarak daha büyük hedeflere ulaşmaya odaklanmaktadır ve bu nedenle farklı araştırma alanlarından gelen görüşleri içermeme ve güvenlik ile etik konularını arka plana atma eğilimi göstermektedir. Ele aldığımız ankete göre bilim insanlarının en büyük endişe kaynağı da tam olarak budur. Her geçen gün daha fazla sayıda yapay zekâ uzmanı, benzer endişeleri daha yüksek bir sesle dile getirmektedir.

22 Mart 2023 tarihinde, GPT-4'ün kullanıma açılmasını takip eden günlerde, daha güçlü yapay zekâ sistemlerinin geliştirilmesinin en az 6 ay boyunca durdurulması ve böylece yapay zekâ güvenliği-etiği araştırmalarına odaklanılması çağrısında bulunan açık bir mektup yazıldı.[6] Bu talep gerçekleşmemiş olsa da mektup, bilim komünitesinde büyük ilgi uyandırarak geniş bir tartışma zemini yaratmıştır. Ekim 2023 itibariyle 33711 kişi, mektubu imzalamış bulunmaktadır.

Yapay Zekânın Kararları Nükleer Düzeyde Yıkıma Neden Olabilir!

Stanford tarafından ankete tabii tutulan bilim insanlarının azımsanamayacak kadar önemli olan %36'lık bir kısmı, trend bu şekilde devam edecek olursa yapay genel zekânın yaratılmasının büyük yıkıma yol açabileceğini düşünmektedir. Eğer yapay genel zekâ bir gün gerçek olursa, o an kuvvetle muhtemel olarak insanlık tarihi ve gelişiminin çok kritik bir dönüm noktası olacaktır.

Bazı araştırmacılar, bu dönüm noktasının bir tür teknolojik tekillik yaratacağını düşünmektedir. Teknolojik tekillik veya yapay zekâ tekilliği; süper zeki bir yapay zekâ sisteminin var olmasıyla uygarlık olarak teknolojik büyümenin kontrolünü yitireceğimiz, daha ileriye yönelik tahminlerde bulunmanın zorlaştığı hipotetik bir geleceğe karşılık gelmektedir. Uzmanlar, en az bir insan kadar zeki olan bir yapay zekâ sisteminin geliştirilip kontrol edilemeyeceğinden endişe duymaktadır.

Yapay Zekâ Güvenliği Neden Araştırılmalı?

Yakın vadede yapay zekânın toplum üzerindeki etkisini faydalı tutma hedefi ekonomiden hukuka, doğrulamadan geçerliliğe, güvenlikten kontrole kadar kadar birçok alanda araştırmayı motive ediyor. Dizüstü bilgisayarınızın çökmesi veya siber saldırıya uğraması küçük bir rahatsızlıktan biraz daha fazlası olsa da, eğer yapay zekâ arabanızı, uçağınızı, kalp pilinizi, otomatik ticaret sisteminizi veya elektrik şebekenizi kontrol ediyorsa, yapay zekâya sahip bu sistemin, yapmasını istediğiniz şeyi yaptığından emin olabilmek daha da önemli hale geliyor. Tabii ki bir başka kısa vadeli zorluk, ölümcül otonom silahlarda yıkıcı bir silahlanma yarışını önlemektir. Eğer güvenli yapay zekâlar inşa etmezsek, çok ciddi sorunlarla yüzleşebiliriz.

Uzun vadede önemli bir soru, yapay genel zekâ arayışı başarılı olursa ve bir yapay zekâ sistemi tüm bilişsel görevlerde insanlardan daha iyi hale gelirse ne olacağıdır. 1965'de I. J. Good'un işaret ettiği gibi, daha akıllı yapay zekâ sistemleri tasarlamak başlı başına bir bilişsel görevdir. Böyle bir sistem, potansiyel olarak kendi algoritmalarında birbirini izleyen geliştirmelerde bulunabilir ve böylece zeka seviyesini önemli ölçüde yükselterek insan zekasını çok geride bırakan bir zekâ patlamasını tetikleyebilir. Böyle bir süperzekâ, devrim niteliğinde yeni teknolojiler icat ederek ve keşiflerde bulunarak bütün hastalıkları ve hatta ölümü bile ortadan kaldırmamıza yardımcı olabilir. Kulağa bilimkurgu gibi gelen, yüzlerce yıl uzakta olduğu düşünülen birçok teknoloji, süperzeki bir sistemin geliştirilmesiyle çok daha kısa sürelerde bir gerçeklik haline gelebilir. Bu nedenle yapay genel zekânın yaratılması, insanlık tarihindeki en büyük olay olabilir. Bazı uzmanlar ise yapay zekânın hedeflerini, süper akıllı hale gelmeden önce bizim hedeflerimizle aynı hizaya getirmeyi öğrenmezsek, bu olayın son olabileceği endişesini dile getirmektedir.

Tüm Reklamları Kapat

Bugün yapay zekâ güvenliğinin araştırılması, gelecekte bu tür potansiyel olarak olumsuz sonuçlara daha iyi hazırlanmamıza ve bunları önlememize yardımcı olacaktır. Böylece tuzaklarından kaçınırken yapay zekânın faydalarından yararlanabiliriz.

Yapay Zekâ Nasıl Tehlikeli Olabilir?

Çoğu araştırmacı, yapay genel zekânın sevgi ya da nefret gibi insan duygularını sergileme ihtimalinin düşük olacağını ve böyle bir yapay zekânın kasıtlı olarak dost ya da düşman olmasını beklemek için hiçbir neden olmadığı konusunda hemfikirdir. Bunun yerine, yapay zekânın nasıl bir risk haline gelebileceğini dikkate alan uzmanlar, büyük olasılıkla gerçekleşebilecek iki senaryo düşünüyor:

Senaryo 1: Yapay genel zekâ, yıkıcı bir şey yapmaya programlanmıştır.

Otonom silahlar, öldürmeye programlanmış yapay zekâ sistemleridir. Yanlış kişinin elinde bu silahlar, kolaylıkla kitlesel ölümlere neden olabilir. Dahası, bir yapay zekâ silahlanma yarışı, yanlışlıkla bir yapay zekâ savaşına yol açabilir ve bu da kitlesel ölümlerle sonuçlanabilir. Düşman tarafından engellenmekten kaçınmak için, bu silahların basitçe "kapatılması" son derece zor olacak şekilde tasarlanacak, böylece insanlar kolayca böyle bir durumun kontrolünü kaybedebilecektir. Bu risk, zayıf yapay zekâ ile bile mevcut olan bir risktir ancak yapay zekânın zekâ ve özerklik seviyeleri arttıkça risk büyür.

Tüm Reklamları Kapat

Senaryo 2: Yapay genel zekâ, faydalı bir şey yapmak üzere programlanmıştır; ancak amacına ulaşmak için yıkıcı bir yöntem geliştirir.

Bu, yapay zekânın hedeflerini bizim hedeflerimizle tam olarak uyumlu hale getirmekte başarısız olduğumuzda gerçekleşebilir ki bunu başarmak, çarpıcı derecede zordur. Sadık bir akıllı arabadan sizi olabildiğince hızlı bir şekilde havaalanına götürmesini isterseniz, sizi oraya helikopterler tarafından kovalanarak ve kusturarak, istediğiniz şekilde değil; ancak "kelimenin tam anlamıyla" istediğinizi yaparak götürebilir. Süperzeki bir sistem, iddialı bir jeomühendislik projesi ile görevlendirilirse, ekosistemimize zarar verecek bir yan etkiye neden olabilir ve onu durdurmaya yönelik insan girişimlerini karşılık verilmesi gereken bir tehdit olarak görebilir.

Bu örneklerin gösterdiği gibi, gelişmiş bir yapay zekâ ile ilgili endişe kötü niyet değil, yeterliliktir. Süperzeki bir yapay zekâ, hedeflerine ulaşmada son derece iyi olacaktır ve bu hedeflere ulaşma biçimi bizimkilerle uyumlu değilse, bir sorunumuz var demektir.

Güçlü yapay zekâ arayışının nihayetinde başarılı olacağı fikri, uzak bir geleceğe dayanıyordu. 2011 yılında uzmanların daha onlarca yıl uzakta olduğunu düşündüğü birçok yapay zekâ kilometre taşına çoktan ulaşıldı. Bundan dolayı birçok yapay zekâ uzmanı, yaşamımız içerisinde yapay genel zekâya ulaşılması olasılığını ciddiye alıyor.

Yapay zekâ, herhangi bir insandan daha zeki olma potansiyeline sahip olduğu için, nasıl davranacağını tahmin etmenin kesin bir yolu yok. Geçmişteki teknolojik gelişmeleri temel alamayız; çünkü kasıtlı veya farkında olmadan bizi alt etme yeteneğine sahip hiçbir şey yaratmadık. Bir karşılaştırma yapmamızı sağlayacak en iyi örnek, kendi evrimimiz olabilir. İnsanlar artık gezegeni kontrol ediyor; en güçlü, en hızlı veya en büyük olduğumuz için değil, en zeki olduğumuz için. Artık en zeki olmayacaksak, kontrolü elimizde tutacağımızdan emin miyiz?

Tüm Reklamları Kapat

Agora Bilim Pazarı
Vay Be Dünya! - Doğruluk mu? Uyduruk mu? 
İki Yanlış Bir Doğru

Onlarca farklı konuda yüzlerce bilimsel iddia. Kimi doğru, kimi uydurma! Senin görevin her başlıkta uydurmaları elemek ve doğru olanı bulmak. Sorun şu: Doğru iddia çoğu zaman uyduruklardan çok daha uçuk, çok daha VAY BE’lik. O kadar ki, inanmazsın diye arka sayfasına bilimsel açıklamasını ekledik.

***

İster tek başına, ister arkadaşlarınla ister ailenle okuyabileceğin Doğruluk mu? Uyduruk mu? İki Yanlış Bir Doğru, mizah ve büyüleyici bilim gerçekleriyle dolu bir oyun kitabı. Her bölümün sonundaki yaratıcılığını zorlayacak ev tipi deneyler de cabası!

Devamını Göster
₺155.00
Vay Be Dünya! - Doğruluk mu? Uyduruk mu? 
İki Yanlış Bir Doğru
  • Dış Sitelerde Paylaş

Yapay Genel Zekânın Riskleri Hakkındaki Mitler

Pek çok yapay zekâ araştırmacısı bu tür başlıkları görünce gözlerini deviriyor: Stephen Hawking, robotların yükselişinin insanlık için felaket olabileceği konusunda uyarıyor.

Tipik olarak, bu tarz yazılara silah taşıyan kötü görünümlü bir robot eşlik ediyor ve robotların yükselip bizi öldürmeleri konusunda endişelenmemizi öneriyorlar; çünkü bunlar, bilinçli ve/veya kötü oluyor. Bu tarz yazılar aslında oldukça etkileyicidir, çünkü yapay zekâ araştırmacılarının aslında endişelenmediği senaryoları kısa ve öz bir şekilde özetlerler. Bu senaryolar, üç farklı yanılgıyı birleştiriyor: bilinç, kötülük ve robotlarla ilgili endişe.

Asıl endişe kötü niyet değil, yeterliliktir. Süperzeki bir yapay zekâ ne olursa olsun, tanım gereği, hedeflerine ulaşmak konusunda çok iyidir. Bu nedenle yapay zekânın hedeflerinin, bizimkilerle uyumlu olmasını sağlamamız gerekir. Şöyle düşünün: İnsanlar genellikle karıncalardan nefret etmez; ama biz onlardan daha zekiyiz. Yani bir hidroelektrik baraj inşa etmek istiyorsak ve orada bir karınca yuvası varsa... Bu karıncalar için çok kötüdür; ama sonucu değiştirmez: O baraj inşa edilir. Yararlı yapay zekâ hareketi, insanlığın, bu karıncaların bulunduğu durumla karşı karşıya kalmasından kaçınmayı istiyor.

Bilinç yanılgısı, makinelerin bilinci yoksa hedeflere de sahip olamayacağı mitiyle ilgilidir. Makinelerin günümüzde dar anlamda olsa da hedefleri olduğu açıktır. Basit bir örnek olarak, algoritmaya sahip bir füzenin bir hedefi ekonomik bir şekilde vurmak için ısı araması, bir hedefe yönelik davranış segileme olarak görülmektedir. Hedefleri sizinkiyle yanlış "hizalanmış" bir makine tarafından tehdit edildiğinizi düşünüyorsanız, o zaman sizi rahatsız eden tam da bu dar anlamdaki hedefleridir, makinenin bilinçli olup olmadığı ve bir amaç duyusu deneyimleyip deneyimlemediği değil. Isı arayan o füze sizi kovalıyor olsaydı, muhtemelen şunu haykırmazdınız:

Endişelenmiyorum, çünkü makinelerin hedefleri olamaz!

Bazı gazeteciler, robotlara takıntılı bir şekilde saplanmış görünüyorlar ve yazılarının çoğunu kırmızı parlak gözlere sahip kötü görünümlü metal canavarlarla süslüyorlar. Aslında, faydalı yapay zekâ hareketinin temel endişesi robotlarla değil, zekânın kendisiyle ilgilidir: özellikle, hedefleri bizimkilerle yanlış hizalanmış zekâyla... Bizi sıkıntıya sokmak için, bu tür yanlış hizalanmış hedefleri olan insanüstü zekânın robotik bedene ihtiyacı yoktur; sadece bir internet bağlantısı yeterli olacaktır. Bu internet bağlantısı, finansal piyasaları zekice alt etmeye, insan araştırmacıları geride bırakmaya, insan liderleri manipüle etmeye ve anlayamadığımız silahlar geliştirmeye olanak sağlayabilir.

Robot yanılgısı, makinelerin insanları kontrol edemeyeceği mitiyle ilgilidir. Zekâ, kontrolü mümkün kılar: İnsanlar olarak, aslanları daha güçlü olduğumuz için değil, daha zeki olduğumuz için kontrol edebiliyoruz. Bu, gezegenimizdeki en zeki konumumuzu yitirirsek kontrolü de kaybetmemizin mümkün olduğu anlamına gelir.

Yapay genel zekâ hakkındaki mitler ve gerçeklere dair bir infografik
Yapay genel zekâ hakkındaki mitler ve gerçeklere dair bir infografik
Görseli hazırlayan: Future of Life / Görseli çeviren ve düzenleyen: Mücahid Köse (Evrim Ağacı)

İnsan seviyesinde yapay zekâ ile ilişkili güvenlik sorunlarının çoğu oldukça zordur. Öyle ki, çözülmesi onlarca yıl alabilir. Bundan dolayı, bir an önce güçlü yapay zekâ güvenlik araştırmalarına gereken ağırlığın verilmesi ve resmi kurumların bu yönde harekete geçmesi izlenecek en akıllıca yol olacaktır.

Sonuç

Teknolojiyi geliştirme ve kullanma biçimi, politik sisteme güçlü bir şekilde bağlıdır. Her geçen gün daha fazla sayıda bilim insanı, yapay genel zekânın büyük bir önem ve aciliyet arz ettiği konusunda daha da çok uzlaşmakta ve politikacıları bu yönde eyleme geçmeye çağırmaktadır. Yapay genel zekâ gibi böyle güçlü bir teknolojiyi kimlerin neyi gözeterek ve nasıl inşa ettiği, insanlık olarak geleceğimiz için son derece kritik bir önem taşımaktadır. Güçlü bir yapay zekâ sistemi araştırmaları, metaverse teknolojisinde olduğu gibi şirketler için heyecan vericidir; çünkü daha çok güç ve para için eşi benzeri görülmemiş bir gelir kapısı yaratmaktadır. Yapay genel zekâ gibi uzun vadede belki de trilyonlarca dolara mâl olacak bir işi hiçbir şirket, insanlığı ilerletmek için değil; kâr etmek için yapacaktır. En büyük önceliğin kâr etme ve güç kazanma olduğu kapitalizmde; ileri teknolojilerin geliştirilmesinde etik kurallara uyulması ve güvenliğin sağlanması gibi mühim konular, bir avuç dev şirketin ve milyarderin insafına bırakılamaz.

Devletler ve BM gibi kural koyucu ve uygulayıcı kurumların, sektöre denetim ve yaptırımlar getirme yönünde kararlar alması, elzem bir gerekliliktir. Bu yönde bilim komünitesi ve bir toplum olarak, resmi kurumların yapay genel zekâ araştırmalarının güvenliği konusunda sahici önlemler almasını yüksek bir sesle dile getirmeliyiz. Bu kadar önemli teknolojilerin geliştirilmesindeki kararları, sırf parası ve gücü olduğu için koskoca türün geleceğini bizim adımıza belirlemeyi kendine hak gören bir avuç şirket ve milyardere terk edemeyiz. Eğer tür ve uygarlık olarak bir geleceğimiz olsun istiyorsak...

Bu Makaleyi Alıntıla
Okundu Olarak İşaretle
Evrim Ağacı Akademi: Yapay Zeka Güvenliği Yazı Dizisi

Bu yazı, Yapay Zeka Güvenliği yazı dizisinin 1 . yazısıdır.

Yazı dizisi içindeki ilerleyişinizi kaydetmek için veya kayıt olun.

EA Akademi Hakkında Bilgi Al
46
0
  • Paylaş
  • Alıntıla
  • Alıntıları Göster
Paylaş
Sonra Oku
Notlarım
Yazdır / PDF Olarak Kaydet
Bize Ulaş
Yukarı Zıpla

İçeriklerimizin bilimsel gerçekleri doğru bir şekilde yansıtması için en üst düzey çabayı gösteriyoruz. Gözünüze doğru gelmeyen bir şey varsa, mümkünse güvenilir kaynaklarınızla birlikte bize ulaşın!

Bu içeriğimizle ilgili bir sorunuz mu var? Buraya tıklayarak sorabilirsiniz.

Soru & Cevap Platformuna Git
Bu İçerik Size Ne Hissettirdi?
  • Tebrikler! 12
  • Merak Uyandırıcı! 5
  • Korkutucu! 3
  • İnanılmaz 2
  • Umut Verici! 2
  • Muhteşem! 1
  • Bilim Budur! 1
  • Mmm... Çok sapyoseksüel! 1
  • Güldürdü 0
  • Üzücü! 0
  • Grrr... *@$# 0
  • İğrenç! 0
Kaynaklar ve İleri Okuma
  1. Türev İçerik Kaynağı: Future of Life Institute | Arşiv Bağlantısı
  • ^ HAI. Ai Index Report 2023 – Artificial Intelligence Index. (3 Nisan 2023). Alındığı Tarih: 28 Ekim 2023. Alındığı Yer: Artificial Intelligence Index Stanford Edu | Arşiv Bağlantısı
  • T. Bove. A.i. Could Lead To A ‘Nuclear-Level Catastrophe’ According To A Third Of Researchers, A New Stanford Report Finds. (10 Nisan 2023). Alındığı Tarih: 29 Ekim 2023. Alındığı Yer: Fortune | Arşiv Bağlantısı
  • ^ T. Williams. Some Companies Are Already Replacing Workers With Chatgpt, Despite Warnings It Shouldn’t Be Relied On For ‘Anything Important’. (25 Şubat 2023). Alındığı Tarih: 29 Ekim 2023. Alındığı Yer: Fortune | Arşiv Bağlantısı
  • ^ J. Vincent. Google And Microsoft’s Chatbots Are Already Citing One Another In A Misinformation Shitshow. (22 Mart 2023). Alındığı Tarih: 29 Ekim 2023. Alındığı Yer: The Verge | Arşiv Bağlantısı
  • ^ Harvard Business Review. Ai Isn’t Ready To Make Unsupervised Decisions. (15 Eylül 2022). Alındığı Tarih: 29 Ekim 2023. Alındığı Yer: Harvard Business Review | Arşiv Bağlantısı
  • ^ Future of Life Institute. Pause Giant Ai Experiments: An Open Letter - Future Of Life Institute. (22 Mart 2023). Alındığı Tarih: 29 Ekim 2023. Alındığı Yer: Future of Life Institute | Arşiv Bağlantısı
Tüm Reklamları Kapat

Evrim Ağacı'na her ay sadece 1 kahve ısmarlayarak destek olmak ister misiniz?

Şu iki siteden birini kullanarak şimdi destek olabilirsiniz:

kreosus.com/evrimagaci | patreon.com/evrimagaci

Çıktı Bilgisi: Bu sayfa, Evrim Ağacı yazdırma aracı kullanılarak 21/12/2024 20:08:53 tarihinde oluşturulmuştur. Evrim Ağacı'ndaki içeriklerin tamamı, birden fazla editör tarafından, durmaksızın elden geçirilmekte, güncellenmekte ve geliştirilmektedir. Dolayısıyla bu çıktının alındığı tarihten sonra yapılan güncellemeleri görmek ve bu içeriğin en güncel halini okumak için lütfen şu adrese gidiniz: https://evrimagaci.org/s/15964

İçerik Kullanım İzinleri: Evrim Ağacı'ndaki yazılı içerikler orijinallerine hiçbir şekilde dokunulmadığı müddetçe izin alınmaksızın paylaşılabilir, kopyalanabilir, yapıştırılabilir, çoğaltılabilir, basılabilir, dağıtılabilir, yayılabilir, alıntılanabilir. Ancak bu içeriklerin hiçbiri izin alınmaksızın değiştirilemez ve değiştirilmiş halleri Evrim Ağacı'na aitmiş gibi sunulamaz. Benzer şekilde, içeriklerin hiçbiri, söz konusu içeriğin açıkça belirtilmiş yazarlarından ve Evrim Ağacı'ndan başkasına aitmiş gibi sunulamaz. Bu sayfa izin alınmaksızın düzenlenemez, Evrim Ağacı logosu, yazar/editör bilgileri ve içeriğin diğer kısımları izin alınmaksızın değiştirilemez veya kaldırılamaz.

Tüm Reklamları Kapat
Keşfet
Akış
İçerikler
Gündem
Araştırmacılar
İspat Yükü
Irk
Diş Hastalıkları
Kedigiller
Neandertal
Uzun
Doktor
Göğüs Hastalığı
Yayılım
Google
Beslenme
Tehlike
Risk
Aslan
Obezite
Radyasyon
Büyük Patlama
Işık Hızı
Genel Halk
Kuantum Fiziği
Bilimkurgu
Evren
Fosil
İklim
Aklımdan Geçen
Komünite Seç
Aklımdan Geçen
Fark Ettim ki...
Bugün Öğrendim ki...
İşe Yarar İpucu
Bilim Haberleri
Hikaye Fikri
Video Konu Önerisi
Başlık
Kafana takılan neler var?
Gündem
Bağlantı
Ekle
Soru Sor
Stiller
Kurallar
Komünite Kuralları
Bu komünite, aklınızdan geçen düşünceleri Evrim Ağacı ailesiyle paylaşabilmeniz içindir. Yapacağınız paylaşımlar Evrim Ağacı'nın kurallarına tabidir. Ayrıca bu komünitenin ek kurallarına da uymanız gerekmektedir.
1
Bilim kimliğinizi önceleyin.
Evrim Ağacı bir bilim platformudur. Dolayısıyla aklınızdan geçen her şeyden ziyade, bilim veya yaşamla ilgili olabilecek düşüncelerinizle ilgileniyoruz.
2
Propaganda ve baskı amaçlı kullanmayın.
Herkesin aklından her şey geçebilir; fakat bu platformun amacı, insanların belli ideolojiler için propaganda yapmaları veya başkaları üzerinde baskı kurma amacıyla geliştirilmemiştir. Paylaştığınız fikirlerin değer kattığından emin olun.
3
Gerilim yaratmayın.
Gerilim, tersleme, tahrik, taciz, alay, dedikodu, trollük, vurdumduymazlık, duyarsızlık, ırkçılık, bağnazlık, nefret söylemi, azınlıklara saldırı, fanatizm, holiganlık, sloganlar yasaktır.
4
Değer katın; hassas konulardan ve öznel yoruma açık alanlardan uzak durun.
Bu komünitenin amacı okurlara hayatla ilgili keyifli farkındalıklar yaşatabilmektir. Din, politika, spor, aktüel konular gibi anlık tepkilere neden olabilecek konulardaki tespitlerden kaçının. Ayrıca aklınızdan geçenlerin Türkiye’deki bilim komünitesine değer katması beklenmektedir.
5
Cevap hakkı doğurmayın.
Aklınızdan geçenlerin bu platformda bulunmuyor olabilecek kişilere cevap hakkı doğurmadığından emin olun.
Sosyal
Yeniler
Daha Fazla İçerik Göster
Popüler Yazılar
30 gün
90 gün
1 yıl
Evrim Ağacı'na Destek Ol

Evrim Ağacı'nın %100 okur destekli bir bilim platformu olduğunu biliyor muydunuz? Evrim Ağacı'nın maddi destekçileri arasına katılarak Türkiye'de bilimin yayılmasına güç katın.

Evrim Ağacı'nı Takip Et!
Yazı Geçmişi
Okuma Geçmişi
Notlarım
İlerleme Durumunu Güncelle
Okudum
Sonra Oku
Not Ekle
Kaldığım Yeri İşaretle
Göz Attım

Evrim Ağacı tarafından otomatik olarak takip edilen işlemleri istediğin zaman durdurabilirsin.
[Site ayalarına git...]

Filtrele
Listele
Bu yazıdaki hareketlerin
Devamını Göster
Filtrele
Listele
Tüm Okuma Geçmişin
Devamını Göster
0/10000
Bu Makaleyi Alıntıla
Evrim Ağacı Formatı
APA7
MLA9
Chicago
A. Conn, et al. Yapay Zekâ Nasıl Tehlikeli Olabilir? Yapay Genel Zekâ Güvenliği Neden Çok Önemlidir?. (6 Kasım 2023). Alındığı Tarih: 21 Aralık 2024. Alındığı Yer: https://evrimagaci.org/s/15964
Conn, A., Köse, M., Alparslan, E. (2023, November 06). Yapay Zekâ Nasıl Tehlikeli Olabilir? Yapay Genel Zekâ Güvenliği Neden Çok Önemlidir?. Evrim Ağacı. Retrieved December 21, 2024. from https://evrimagaci.org/s/15964
A. Conn, et al. “Yapay Zekâ Nasıl Tehlikeli Olabilir? Yapay Genel Zekâ Güvenliği Neden Çok Önemlidir?.” Edited by Eda Alparslan. Evrim Ağacı, 06 Nov. 2023, https://evrimagaci.org/s/15964.
Conn, Ariel. Köse, Mücahid. Alparslan, Eda. “Yapay Zekâ Nasıl Tehlikeli Olabilir? Yapay Genel Zekâ Güvenliği Neden Çok Önemlidir?.” Edited by Eda Alparslan. Evrim Ağacı, November 06, 2023. https://evrimagaci.org/s/15964.
ve seni takip ediyor

Göster

Şifremi unuttum Üyelik Aktivasyonu

Göster

Şifrenizi mi unuttunuz? Lütfen e-posta adresinizi giriniz. E-posta adresinize şifrenizi sıfırlamak için bir bağlantı gönderilecektir.

Geri dön

Eğer aktivasyon kodunu almadıysanız lütfen e-posta adresinizi giriniz. Üyeliğinizi aktive etmek için e-posta adresinize bir bağlantı gönderilecektir.

Geri dön

Close