Bu Reklamı Kapat
Bu Reklamı Kapat

Yapay Zeka Hizalama Problemi: Yapay Zekayı İnsan Değerleriyle Uyumlu Hale Getirmek ve Kontrol Altında Tutmak Mümkün mü?

Yapay Zeka Hizalama Problemi: Yapay Zekayı İnsan Değerleriyle Uyumlu Hale Getirmek ve Kontrol Altında Tutmak Mümkün mü? Free Code Camp
17 dakika
1,311
  • Etik (Ahlak Felsefesi)
  • Yapay Zeka
Evrim Ağacı Akademi: Yapay Zeka Güvenliği Yazı Dizisi

Bu yazı, Yapay Zeka Güvenliği yazı dizisinin 3. yazısıdır. Bu yazı dizisini okumaya, serinin 1. yazısı olan "Yapay Zeka Güvenliği Neden Önemli Bir Araştırma Sahasıdır?" başlıklı makalemizden başlamanızı öneririz.

Yazı dizisi içindeki ilerleyişinizi kaydetmek için veya kayıt olun.

EA Akademi Hakkında Bilgi Al

Yapay zeka araştırmaları ve yapay zeka felsefesinde yapay zeka hizalama problemi veya yapay zeka kontrol problemi olarak bilinen problem, yaratıcıları olan insanlara zarar vermekten ziyade onlara yardım edecek yapay zeka sistemlerinin nasıl inşa edilebileceğini inceleyen bir araştırma programıdır. Bir diğer deyişle bu yapay zeka hizalama problemi, insanların çıkarlarıyla yapay zekanın çıkarlarının programatik olarak nasıl hizalanacağı ile ilgilidir.[1]

Bu araştırmalar, şu temel gerçeğe dayanır: Yapay olarak bile olsa zeki olan bir sistem, insanların onu yaratma amaçlarının dışına çıkabilir. Bu, illâ Hollywood filmlerinde gösterildiği gibi kötücülleşen bir yapay zeka sistemi şeklinde olmak zorunda değildir. Basitçe, insanların iyi niyetle belirledikleri ve yapay zeka tarafından gerçekleştirilebilecek bir amacın, bu amaca ulaşma yolunda yapay zekanın başka insanlara zarar vermesi şeklinde de tezahür edebilir.

Bu Reklamı Kapat

Buna bir örnek, yapay zekaya verilebilecek "olabildiğince verimli şekilde ataç üretme" işidir. Bu, hiçbir kötücül tarafı olmayan, sıradan bir endüstriyel yapay zeka problemidir. Ancak yapay zekaya verilen bu görev, eğer yeterince iyi tanımlanmazsa, yeterince güçlü ama içgörüsüz bir yapay zeka, sırf daha verimli bir şekilde ataç üretmek için ekosistemleri harap etmeyi göze alabilir, gerekirse bazı insanları köle etmeyi ve hatta öldürmeyi seçebilir.[2]

Burada içgüdüsel olarak geliştirilen bir çözüm önerisi, yapay zekanın programına basit kısıtlar eklemektir: "İnsanlara zarar verme" gibi... Ancak işin felsefesi üzerine biraz kafa yorulduğunda, bu tür kısıtların veya tanımların ne kadar zorlu ve muğlak olduğu görülür. Örneğin "İnsanlara zarar verme" komutu, bilgisayara nasıl tanımlanacaktır?

Bu Reklamı Kapat

Bunu tanımlayabilmek için, "insan" kavramını yapay zekaya öğretmek gerekecektir; ancak yapay zeka, yoktan bilgi edinebilen bir sistem değildir. Yapay zekanın öğrendiği bilgileri insanlar üretmektedir ve insanın ne olduğu konusu günümüzde hâlen tartışılmakta olan bir konudur. Elbette genel bir insan tanımı yapılabilir; fakat özellikle de durumlarda problemler baş gösterecektir: Örneğin fetüs, insan mıdır? Bilinci kapanmış bir hasta, insan mıdır? Yapay zeka, ataç üretme işinin en verimli şekilde maksimize edecekse, bu kişilere zarar verebilir mi? Benzer şekilde, "zarar verme" tabiri de oldukça muğlaktır. Örneğin atılan adımlar, bir kişinin potansiyel faydalarını da engelliyorsa "zarar" sayılır mı? Eğer bu kadar katı bir korkaklıkta olacaksa, yapay zekanın insandan daha başarılı çözümler bulması mümkün müdür? "Zarar verme"nin sınırları, bilgisayara nasıl tanımlanır? İnsanlar gündelik işlerinde başkalarına hiçbir şekilde zarar vermeden mi işlemektedirler? Eğer öyle değilse, yapay zekadan bunu yapmasını beklemek gerçekçi midir?

Dolayısıyla yapay zekanın yapabilecekleri ile yapmasını istediklerimiz birbiriyle her zaman birebir aynı şey değildir. Bu durumda bir hizalama sorunu oluşmaktadır: Yapay zekanın belli sınırların dışına çıkmadan, onu üreten insanlara (ve genel olarak insanlığa) zarar vermeden kendisine verilen görevleri yapabilmesi gerekmektedir. Bu hizalama problemi, bir "ataç üretimini optimize etme" yapay zekası için çok büyük bir soruna işaret etmeyebilir; ancak nükleer füzeleri yönlendirecek sistemlerin arkasındaki yapay zeka veya bankacılık sistemlerinin temelinde yer alan yapay zekalar için düşünüldüğünde ne kadar büyük bir problem olduğu fark edilebilir.

İşte Hollywood filmlerinde kontrolden çıkan yapay zekalar da genellikle bu temel hizalanma problemiden ötürü "kötü yola" sapmaktadır. Bir kez hayata getirilen süpergüçlü bir yapay zeka, her ne kadar kodları tamamen insan yapımı olsa bile, bu kodların mümkün kıldığı olasılıklardan ötürü yaratıcılarına sırt çevirip, onlar üzerinde hâkimiyet kurabilirler.[3] Bunun olmasını engellemek için araştırmalar yürüten sahaya yapay zeka güvenliği mühendisliği denmektedir ve bu alandaki çalışmalar, sadece gelecekteki süperzeki yapay zekaların gayetlerinin insanlarınkiyle hizalanması için değil, aynı zamanda günümüzde her alanda faaliyet gösteren süperzeki-olmayan yapay zekaların da daha verimli ve düzgün çalışabilmesi için önemlidir.[4], [5]

Evrim Ağacı'ndan Mesaj

Yapay Zeka Kontrol Edilebilir mi?

Günümüzde var olan yapay zeka sistemleri, kontrol dışı davranışlar sergilemeleri hâlinde kolaylıkla ve hızla kapatılabilir. Ayrıca şu anda var olan yapay zeka sistemlerinin yapacağı hataların maliyeti, gelecekteki süperzeki yapay zekaların verebileceği zarara nazaran oldukça düşüktür. Bu nedenle Dataizm yazımızda da anlattığımız gibi, günümüzdeki algoritmalar kusursuz olmasa bile, ortalamada bir insandan daha iyi olmaları şimdilik yeterlidir.

Ancak kötü veya yanlış programlanmış bir süperzeka, tanımı gereği kendisini kodlayan insanlardan daha zeki olacağı için, yaratıcılarının kendisini kapatma kararını da öngörecek ve kendisine tanımlanmış görevleri yerine getirebilmek adına, gerektiğinde kapatılmasına da engel olacak adımlar atacaktır. Bu nedenle süperzeki yapay zeka geliştiricilerinin, bu tür durumların önüne geçmek için önceden önlemler alması gerekmektedir; aksi takdirde hatalı davranan bir süperzekayı durdurmak mümkün olmayabilir.

Ne var ki bu alanda çalışmalar yürütenlerin vardığı genel sonuç şudur: Kötücül bir süperzeka yaratıldıktan sonra onu kapatma çabalarının başarılı olma ihtimali yok denecek kadar azdır; çünkü bu tür bir yapay zeka, kendi varlığını korumak adına her türlü stratejik planlamayı yapacak ve kendinden daha zayıf zekaya sahip yaratıcılarını alt etmesi pek de zor olmayacaktır. En nihayetinde bir süperzeka, sadece "zeki" olan insanlardan çok daha verimli ve hızlı bir şekilde kararlar alabilecek ve insanların yapmayı atmayı düşüneceği hemen her adımı öngörebilecektir.

Ayrıca bir süperzeki yapay zekanın düzeltilmek üzere kapatılmasının istenmesinin tek nedeni küresel bir yıkım yaratması olmak zorunda da değildir. Günlük hayatımızda karşılaştığımız ahlaki anlaşmazlıkları düşünecek olursak, yapay zeka sistemlerinde kime ait değer ve amaçların kullanılması gerektiği önemli bir soru olarak ortaya çıkmaktadır. Örneğin bir toplumda kadınlara daha az değer veriliyorsa, o toplumdan çıkacak süper yapay zekaların (veya o toplum içinde çalışacak süper yapay zekaların) kadınları kötüye kullanması kabul edilebilir midir? Yapay zekanın alacağı kararları yönlendirecek olan ahlâki pusular, batılı toplumların değerleriyle mi örtüşecektir, doğulu toplumlarınkiyle mi? Bunların örtüştüğü durumlarda mesele yok; ama çakıştığı durumlarda hangisi öncelikli olacak? Evrensel ahlâki değerlerin olmadığı bir ortamda, evrensel olarak kullanılabilecek süperzeki yapay zeka sistemlerinden söz edilebilir mi?

İşte bu tür sorulara daha genel cevaplar verebileceğimiz noktaya gelene kadar, sorulması gereken soru şudur: Yazılımcılar ne tür önlemler alarak, süperzekanın yıkıcı ve kötücül davranışlar geliştirmesini önleyebilirler?

Bu Reklamı Kapat

Yapay Zeka ve Değer Hizalama Problemi

Yapay zeka sistemleri insana fayda sağlayacak işlevleri yerine getiriyor olsa da, doğru davranışsal eğilimlere sahip olduğundan ve daha önemlisi gelecekte de olacağından emin olabilmek kolay değildir. En başında bir yapay zeka sistemi hedeflenen amaca yönelik çalışıyor bile olsa, bu sistemlerin gelişmeye ve öğrenmeye açık olduğu düşünülecek olursa, bu amaçların sabit kalacağını söylemek zordur. Bu da, yapay zekanın insani değerler ile ne kadar uyumlu hareket edebileceği konusunda geleceğe dönük oldukça büyük bir sorunu ortaya çıkarmaktadır.

İngiliz bilgisayar bilimci Stuart Jonathan Russell, bu duruma değer hizalama problemi adını vermiştir. Basit olarak değer hizalama; oldukça otonom olan yapay zeka sistemlerinin, operasyonları boyunca amaç ve davranışları bakımından insani değerlerle uyumlu olacak şekilde tasarlanmasını ifade eder. Ayrıca yalnızca insanlar için faydalı olan faaliyetlerin sürdürülmesine izin veren bir akıllı ajan özelliği olarak tanımlanır.

Sapkın Enstantane: Yanlışlıkla Bir Canavar Yaratmak...

Otonom ve süperzeki yapay zeka sistemlerinin kontrolden çıkması için illâ kötücül bir şekilde programlanmaları şart değildir; hiç kimse farkında olmadan tamamen hatalı görevler de verebiliriz ve bir felakete neden olabiliriz.[6] Örneğin daha önceden Amerikan Yapay Zekanın İlerleyişi Derneği başkanlığını yapmış iki önemli isim (Tom Dietterich ve Eric Horvitz), bu konudaki endişeyi şöyle anlatıyorlar:

İnsanlarla etkileşim hâlindeki herhangi bir yapay zeka sisteminin önemli parçalarından biri, motamot ve literal bir şekilde emirlerini yerine getirmektense, insanların yapmak istedikleri şeyi mantıklama yoluyla çözebilmektir.

Daha basit sistemlerde bu kritik bir risk yaratmayabilir; ancak buna rağmen, daha şimdiden yapay zeka sistemleri insanları öldürmeye veya onlara zarar vermeye başlamıştır. Örneğin 2015 yılında Almanya'da bir işçi, Volkswagen fabrikasındaki bir robot tarafından ezilerek öldürülmüştür. Robot, işçiyi bir araç parçası zannetmiştir; ancak yapılan incelemede, hatanın sebebinin insan kaynaklı olabileceği de görülmüştür.[7] 2016 yılında Microsoft tarafından hayata getirilen Tay isimli bir sohbet robotu, kısa sürede ırkçı ve seksist bir dil kullanmaya başlamıştır.

Bu Reklamı Kapat

Ancak yapay zeka yazılımları gelişip, otonomluk ve esneklik kazandıkça bu sorun eksponansiyel olarak büyüyecektir.[8] Bu sorunların başında, sapkın enstantane problemi (İng: "the problem of perverse instantiation")gelmektedir: Bir yapay zeka daha zeki ve daha becerikli hâle geldikçe, kendisinden yapılması istenen işi en üst seviyede tatmin etmek için giderek daha istenmedik kısayollar keşfedebilecektir. Buna iki örnek verelim:

  • "Gelecekte elde etmesi beklenen başarısını maksimize etmesi" istenen bir süperzeki yapay zeka, maksimum güce ulaşmak için davranışları kolay kolay öngörülemeyen insanları yok ederek Dünya'nın yüzeyini bir kale ile kaplayarak, en düşük olasılıklı uzaylı saldırılarına karşı bile hazırlıklı bir şekilde kendini savunabilir. Buna enstrümantel yakınsama (İng: "instrumental convergence") denir.
  • "İnsan mutluluğunu maksimize etmesi" istenen bir süperzeki yapay zeka, insanların beyinlerindeki keyif alma bölgelerine elektrotlar yerleştirerek veya insan bilinçlerini makinalara yükleyerek, Evren'i sanal insan kopyalarıyla doldurabilirler ve her birini 3-5 saniyelik döngülerle mutluluğun zirvesine çıkarabilirler.

Bu örnekler ilk etapta kulağa ekstrem gelse de, sorunu matematiksel olarak göstermek mümkündür:[6]

nn adet değişkenden oluşan bir fonksiyonu optimize etmeye çalışan bir sistemde görev, k<nk<n şeklindeki bir alt kümeye bağlıysa, sistem genellikle sınırlı olmayan değişkenlere ekstrem değerler atayacaktır. Eğer o sınırsız değişkenlerden biri bizim değer verdiğimiz bir şeyse, elde edilen sonuç fazlasıyla istenmedik olabilir. Bu; lambadaki cin, büyücünün çırağı veya Kral Midas öyküsünde gördüğümüz olaydır: Tam olarak söylediğiniz şeyi alırsınız, gerçekte istediğinizi değil. Bu, ufak bir problem değildir.

Anlayacağınız Russell, yapay zeka sistemlerinin değer hizalaması problemini Kral Midas hikayesine benzetmektedir: Şarap tanrısı Dionisos, kralın bir dileğini gerçekleştireceğini söylediğinde, Kral Midas, dokunduğu her şeyin altına dönüşmesini istemiştir. Dileği gerçek olduğunda yemek için dokunduğu yiyecek ve içecekler, hatta kendisine ait ünlü gül bahçesi bile altına dönüşmüştür. Ardından bu korkunç gücün kendisinden alınmasını istemiştir. Aslında Midas bu dileği ile yalnızca zengin olmayı düşünmüştü, ama işler hiç de beklediği gibi olmamıştı.

İşte bizler ve yapay zeka arasındaki durum da buna benzetilebilir. Yapay zeka sistemleri, tasarımcısının isteklerini yerine getirirken insana ve ona ait süreçlere zarar vermeden gerçekleştirecek şekilde yapılandırılmalıdır. Şu anda halihazırda kullandığımız yapay zeka sistemleri çoğunlukla istenilen noktaya ulaşmak konusunda başarılıdır. Fakat bunu yaparken bir insanın sahip olduğu gibi ahlaki değerlere sahip değildir. İşte tam bu noktada yapay zekanın neden insani değerlerle uyumlu olması gerektiği ortaya çıkmaktaıdr. Russell’ın UC Berkeley’deki meslektaşı Anca Dragan şöyle diyor:

Bu Reklamı Kapat

Agora Bilim Pazarı
Türkiye Haritası: Fiziki ve Siyasi, 70x100 cm, Çift Taraflı Çıtalı

Türkiyenin Fiziki ve siyasi haritalarının çift taraflı olarak hazırlandığı bir ürünümüzdür. Duvarınıza istediğiniz tarafı asmak sureti ile kullanabilirsiniz.

Devamını Göster
₺55.00
Türkiye Haritası: Fiziki ve Siyasi, 70x100 cm, Çift Taraflı Çıtalı

Robotlar insanlığa karşı isyan etmeye çalışmayacak. Sadece onlardan yapmalarını istediğimiz şeyi optimize etmeye çalışacaklar. Tam da bu sebepten bu sistemlere ‘gerçekten’ istediğimiz dünya için optimizasyon yapmalarını söylediğimizden emin olmalıyız.

Eğer optimize etmelerini istediğimiz şeyin optimizasyonu, öngöremeyeceğimiz bir şekilde felakete sebep olacaksa, yapay zeka bir kez optimizasyon sürecine başladığında onu durduramayabiliriz. Bu nedenle yapay zekanın, bizim isteklerimizi tam olarak anlayabilmesi ve sahip olduğumuz değerlere uyumlu hale getirilmesi oldukça önemlidir.

Ne var ki günümüzdeki yapay zeka sistemlerinin pek azı güvenlik ilkeleri gözetilerek tasarlanmaktadır. 2017 yılında DeepMind tarafından yayınlanan AI Safety Gridworlds, yapay zeka algoritmalarını 9 kategori çerçevesinde güvenlik açısından sınamaktadır. DeepMind tarafından yapılan incelemede, var olan algoritmaların neredeyse tamamının bu testte başarısız oldukları gösterilmiştir; çünkü bu yazılımların büyük bir kısmında güvenlik ilkeleri gözetilmemektedir. Elbette, bu algoritmaların aynı zamanda neredeyse hiçbiri kontrolden çıkabilecek yazılımlar değillerdir; dolayısıyla insanları köleleştirmeleri beklenmemektedir. Bu tür yapay zeka yönergelerine uyabilecek algoritmalar, muhtemelen gelecekte yazılacak ve bugünkü algoritmaların baştan yaratılmasıyla elde edilen yazılımlar olacaklardır. O gün geldiğinde, bu güvenlik yönergelerinin o algoritmaların kalbinde yer aldığından emin olmamız gerekmektedir.

Hizalama İlkeleri

Yapay zeka sistemlerinin, kendilerine verilen talimatları Kral Midas hikayesinde olduğu gibi son derece literal bir şekilde, harfi harfine takip etmesini istemediğimiz konusunda yapay zeka araştırmacıları arasında kısmen bir fikir birliği bulunmaktadır. Yine de sorunlar bundan ibaret değildir.

Örneğin herhangi bir yapay zekadan, yapmayı düşündüğümüz şeyi mi yapmasını isteriz yoksa bizim için en iyi olanı yapmasını mı? Beklentilerimizin açıkça anlaşılamadığı bir yapay zeka sayesinde istediğimiz şeye temelde ulaşmış ama daha kötü durumlar içine girmiş olabiliriz. Elbette bunun tersi durumlar da olabilir: Gerçekten yapmayı düşündüğümüz şeyi gerçekleştiren bir yapay zeka, insan değerleriyle uyumlu halde çalışarak ve bu değerleri önceliklendirerek hareket ettiğinde, bireysel beklentilerimiz konusunda oldukça yetersiz kalabilir. Ya da daha beklenmedik durumlar oluştuğunda, yapay zekaların çok hızlı çalıştığını düşündüğümüzde, yine bu durumlarda etik davranmak konusunda başarısız olabilir. Bu yüzden yalnızca yapay zekanın insani değerlerle uyumlu hale getirilmesi yetersiz de olabilir. Aynı zamanda öngörülemeyen durumlar için, anlık olarak bir insan tarafından talimat verilmediğinde de doğru kararlar alabilmesi gerekir.

Konuyu biraz daha basite indirgemek için şu örneği verelim: MIT Moral Machine testi, sizi bir aracın sürücüsü yerine koyarak ne gibi kararlar vereceğinizi görmek için çeşitli kaza senaryoları oluşturuyor. Basit bir ahlak testi gibi gözükse de günümüzde de popüler hale gelen akıllı arabalar düşünüldüğünde gelecekte bu kararların bizler yerine araçlar tarafından verileceği de öngörülebilir bir gerçektir. Buna benzer oldukça önemli kararlar vermek insanlar için bile oldukça zor olsa da bunun gibi testler yapay zekanın insani değerlerle uyumlu hale getirilmesinde kullanılabilecek önemli veriler oluşturabilir.

MIT Moral Machine
MIT Moral Machine
Live İnnovation

Ahlak testi örneğinden de anlaşılacağı gibi insanlar birbirinden farklı birçok ahlaki tercihte bulunabilir.[9], [1] Böyle olmasaydı bile, yani yalnızca tek bir ahlak teorisinin doğru olduğuna büyük bir güven duymuş olsaydık, bu sefer de bu gerçeği başka bir tutum sergileyen insanlara iletmenin zorluğu ile karşı karşıya kalacaktık. Filozof John Rawls’ın ifade ettiği gibi, insanlar değer konusunda çok çeşitli makul, fakat zıt inançlara sahiptir. Bu açıdan yapay zeka sistemlerinin tek bir ahlak teorisine uyumlu hale getirilmesi durumunda da bu düşünceden uzak birçok insana bu değerlerin dayatıldığı bir durum söz konusu olabilir. Elbette bu düşünce ve sorular, insanların özgür ve eşit olduğu inancından dolayı ortaya çıkmaktadır. Ahlakın temel doğası hakkında herhangi bir anlaşmaya varılamasa da belirli bir konu hakkında ortak uygun değerler üzerinde bir anlaşma sağlanabilmelidir. Uzlaşılmış bu fikirler yapay zeka üzerinde uygulanmak için farklı şekillerde belirlenebilir.

Cehalet Örtüsü ve Varsayımsal Anlaşma

Bu düşünce, çoğulcu değer uyumuna yönelik bir yaklaşımdır. Halihazırda üzerinde anlaşmaya varılan değerlerle değil, kimsenin görüşlerini bir başkasına empoze edemeyeceği bir konumdayken uzlaşmaya varılan değerlerle ilgilenir.

Cehalet örtüsü (İng: "veil of ignorance"), John Rawls tarafından ortaya atılmış bir kavramdır. Bu görüşe göre; farklı değer ve bakış açılarına sahip bir grup insan, bireylere verilecek haklar hakkında karar verecektir. Bu ilkeleri belirlerken sahip oldukları kimliklerden arınacak ve ilkelerin belirlenmesinden sonra hangi toplumda kim olacaklarını, hangi ahlaki tutuma sahip olacaklarını bilmeyeceklerdir. Sonuçta bu bilgilere sahip olmayan karar vericiler eşit ve adil kararlar vermek durumunda kalacaktır. Söz konusu kavrama benzer bir yaklaşım yapay zeka ilkelerinin belirlenmesinde de kullanılabilir.

Bu yaklaşım ile karar vericiler muhtemelen başlangıç olarak yapay zekanın, kaza ve yanlış kullanım gibi riskli durumları azaltacak şekilde tasarlanması gerektiğinde fikir birliği sağlayacaktır. Ayrıca kimsenin fayda sağlayamadığı eylem ve faaliyetlerin de çıkarılmasını isteyeceklerdir.

Küresel Kamu Ahlakı ve İnsan Hakları

Birbirinden farklı toplumların farklı kamusal adalet anlayışlarına sahip olduğu düşünüldüğünde, küresel ilkelerin benimsenmediği bir durumda farklı problemler ortaya çıkabilir. Örneğin belirli bir bölgeyi yöneten kişinin yapay zekayı nasıl kullanacağı konusunda kişisel bir hak elde etmesi birçok soruna yol açabilir. Baskıcı ve zararlı uygulamalar toplumun çoğunluğu tarafından destekleniyor olsa bile teknolojiler üzerinde belirli kısıtlamalar oluşturmak gerekebilir.

Bu Reklamı Kapat

Toplumlar birbirinden farklı kültüre, inanca veya felsefeye sahip olsalar bile insanların hangi toplumda yaşadıkları fark etmeksizin hemfikir olduğu bazı düşünceler vardır. Bazı insan hakları farklı gruplar tarafından farklı nedenlerle benimsenebilir. Örneğin evrensel insan hakları bazı toplumlarda insan yaşamının kutsallığına inanıldığı için benimsenirken bazılarında bireyle devlet arasındaki sözleşmenin bir ürünü olarak düşünüldüğü için benimsenmiştir.

Bu nedenle insan hakları ile ilgili küresel olarak benimsenen ilkeler belirlenerek yapay zekanın insan haklarıyla uyumlu hale getirilmesi amaçlanabilir. Bu yaklaşımda karşılaşılan zorluk, elbette öncelikle bu hakların birey ve devletler arasındaki ilişkilerde uygulanması gerektiği olacaktır. Tüm bu fikirler ele alındığında yapay zeka hizalamasında bir fikir birliğinden bahsetmek erken olsa da bu tarz ilkeler üretme çabalarının kültürler arasında kapsayıcı olması ve rehberlik taşıması oldukça önemli olacaktır.

Değer Hizalamanın Önemi

Yapay zekanın dünya hakkında bilgi edinmek için büyük veriden faydalandığını ve bu zamana kadar ürettiğimiz veriler ile sonuca vardığını hatırlayalım. Ancak şimdiye kadarki tarihsel veriler, içinde yaşadığımız zamanı veya yapay zeka çalışmalarının uygulanacağı geleceği elbette temsil etmeyebilir, hatta etik olmayan sonuçlara sebep olabilir. Örneğin, bir işe alım modeli kadınlara veya azınlıklara karşı haksızlık oluşturacak bir sonuç ortaya çıkarabilir. Elbette yapay zeka insanlar arasında ayrımcılık yapmaz. Ancak geniş bir zamanda işe alınanların çoğunluğunun beyaz erkekler olduğunu bugüne kadar üretilmiş verilerden öğrenir ve bu modeli sürdürür. Bu örnek genişletildiğinde herhangi azınlık bir grup aslında belirli bir uygulama için tercih edilmesi gereken en uygun grup olsa bile adaletsiz bir sonuç ortaya çıkabilir.

Farklı bir örnek verecek olursak, Google Clips adındaki yeni bir teknoloji insanların hayatındaki önemli anları otomatik olarak yakalama fikri ile ortaya çıktı. Örneğin bebeğinin ilk adımlarını gören bir ebeveynin, anlık gerçekleşen bir olay olduğu için bu anı fotoğraflaması oldukça zordur. Herhangi bir odaya koyulan bu cihaz sayesinde bu özel anların otomatik olarak yakalanması fikri kulağa oldukça güzel geliyor. Ayrıca cihaz, makine öğrenimi sayesinde tanıdık yüzleri tanımlayabiliyor ve bu sayede neyi kaydetmesi gerektiğine karar verebiliyordu. Teoride oldukça iyi gibi gözükse de pratikte cihaz Google’ın vaat ettiklerini sunamadı. Birkaç haftalık testler kontrol edildiğinde özel denebilecek bir an ne yazık ki yakalanamadı. Cihazın çektiği 500’den fazla klipten belki yalnızca 10 tanesi başkalarıyla paylaşılabilecek düzeydeydi.

Bu Reklamı Kapat

Bu örnekten de anlaşılacağı gibi yapay zekanın insan değerleriyle uyumlu hale getirilmesi yalnızca evrensel insan hakları gibi ciddi konular için de geçerli değil. İnsanların gerçekten ne istediğini, neyi sevdiğini ya da beklentilerini anlamayan bir yapay zeka elbette ortaya herhangi bir değer çıkaramayacaktır. Tabi ki şimdilik mükemmel olmasını beklemiyoruz ama insandan daha iyi, daha hızlı veya daha doğru olduğu sürece yeterli olacaktır.

Sonuç

Yapay zeka sistemlerinin faydalı olabilmesi için insan değerleriyle uyumlu olması tartışılamaz bir gerçektir. Elbette toplum ve kültürler arasındaki farklı ahlaki tutumlar ve hatta aynı toplumda yaşayan insanlar arasındaki farklı inançlar hatırlandığında yapay zekayı insan değerleriyle uyumlu hale getirmek oldukça zor olacaktır. Kaldı ki biz, bu yazımızda değer hizalamayı yalnızca felsefi yönüyle ele aldık. Bu ilkelerin yapay zeka üzerinde teknik olarak uygulanmasında da farklı problemler ile karşılaşılacaktır.

Lousville Üniversitesi’nde yapay zeka konusundaki çalışmaları ile bilinen bilgisayar bilimci Roman Yampolskiy’in ifade ettiğine göre, programlama dilinde insani değerleri kodlamak çok zordur. İnsanlık olarak ortak değerler üzerinde hemfikir olamadığımız ve zaman içinde hemfikir olduğumuz konularda dahi zamanla değişimler yaşandığı gerçeği, değer hizalama sorununu daha da zorlaştırmaktadır.

Yine de tüm bu sorunlara rağmen yapay zekayı ahlaki ilkelere uymaya ve bu tarz ilkeler yaratmaya zorlamak oldukça önemlidir. Gelecekte çok daha büyük gelişmelerin yaşanacağı kaçınılmaz olduğundan bu problemlerin şimdiden farkına vararak yeni teoriler üretmek oldukça yararlı olacaktır. Ayrıca yapay zeka sistemleri mutlaka ahlaki olarak hareket etmese bile potansiyel olarak ahlaki olmayan bazı tercihlerden vazgeçilmesi sağlanabilir. Henüz insanlık bunu başaramadıkça yapay zekayı da henüz kendisinin dahi emin olmadığı değerlere uyumlu hale getirmek oldukça zor olacağından, en azından şimdilik açıkça ahlaksız olan şeyler üzerinde bir anlaşmaya varmamız gerekiyor olabilir.

Okundu Olarak İşaretle
Bu İçerik Size Ne Hissettirdi?
  • İnanılmaz 3
  • Merak Uyandırıcı! 2
  • Tebrikler! 1
  • Korkutucu! 1
  • Muhteşem! 0
  • Bilim Budur! 0
  • Mmm... Çok sapyoseksüel! 0
  • Güldürdü 0
  • Umut Verici! 0
  • Üzücü! 0
  • Grrr... *@$# 0
  • İğrenç! 0
Kaynaklar ve İleri Okuma
Evrim Ağacı Akademi: Yapay Zeka Güvenliği Yazı Dizisi

Bu yazı, Yapay Zeka Güvenliği yazı dizisinin 3. yazısıdır. Bu yazı dizisini okumaya, serinin 1. yazısı olan "Yapay Zeka Güvenliği Neden Önemli Bir Araştırma Sahasıdır?" başlıklı makalemizden başlamanızı öneririz.

Yazı dizisi içindeki ilerleyişinizi kaydetmek için veya kayıt olun.

EA Akademi Hakkında Bilgi Al
Bu Reklamı Kapat

Evrim Ağacı'na her ay sadece 1 kahve ısmarlayarak destek olmak ister misiniz?

Şu iki siteden birini kullanarak şimdi destek olabilirsiniz:

kreosus.com/evrimagaci | patreon.com/evrimagaci

Çıktı Bilgisi: Bu sayfa, Evrim Ağacı yazdırma aracı kullanılarak 23/05/2022 17:44:50 tarihinde oluşturulmuştur. Evrim Ağacı'ndaki içeriklerin tamamı, birden fazla editör tarafından, durmaksızın elden geçirilmekte, güncellenmekte ve geliştirilmektedir. Dolayısıyla bu çıktının alındığı tarihten sonra yapılan güncellemeleri görmek ve bu içeriğin en güncel halini okumak için lütfen şu adrese gidiniz: https://evrimagaci.org/s/11367

İçerik Kullanım İzinleri: Evrim Ağacı'ndaki yazılı içerikler orijinallerine hiçbir şekilde dokunulmadığı müddetçe izin alınmaksızın paylaşılabilir, kopyalanabilir, yapıştırılabilir, çoğaltılabilir, basılabilir, dağıtılabilir, yayılabilir, alıntılanabilir. Ancak bu içeriklerin hiçbiri izin alınmaksızın değiştirilemez ve değiştirilmiş halleri Evrim Ağacı'na aitmiş gibi sunulamaz. Benzer şekilde, içeriklerin hiçbiri, söz konusu içeriğin açıkça belirtilmiş yazarlarından ve Evrim Ağacı'ndan başkasına aitmiş gibi sunulamaz. Bu sayfa izin alınmaksızın düzenlenemez, Evrim Ağacı logosu, yazar/editör bilgileri ve içeriğin diğer kısımları izin alınmaksızın değiştirilemez veya kaldırılamaz.

Bu Reklamı Kapat
Size Özel (Beta)
İçerikler
Sosyal
Kanser
Ay Görevleri
Sağlık Örgütü
Kök Hücre
Hastalık
Depresyon
Karbonhidrat
Okyanus
Skeptisizm
Paleontoloji
Nobel Ödülü
İnsan
Felsefe
Viral Enfeksiyon
Kromozom
Dalga
Kuvvet
Yıl
Yılan
Doğum
Şempanze
Örümcek
Biyocoğrafya
Amerika
Test
Aklımdan Geçen
Komünite Seç
Aklımdan Geçen
Fark Ettim ki...
Bugün Öğrendim ki...
İşe Yarar İpucu
Bilim Haberleri
Hikaye Fikri
Başlık
Bugün Türkiye'de bilime ve bilim okuryazarlığına neler katacaksın?
Bağlantı
Gönder
Ekle
Soru Sor
Daha Fazla İçerik Göster
Evrim Ağacı'na Destek Ol
Evrim Ağacı'nın %100 okur destekli bir bilim platformu olduğunu biliyor muydunuz? Evrim Ağacı'nın maddi destekçileri arasına katılarak Türkiye'de bilimin yayılmasına güç katmak için hemen buraya tıklayın.
Popüler Yazılar
30 gün
90 gün
1 yıl
EA Akademi
Evrim Ağacı Akademi (ya da kısaca EA Akademi), 2010 yılından beri ürettiğimiz makalelerden oluşan ve kendi kendinizi bilimin çeşitli dallarında eğitebileceğiniz bir çevirim içi eğitim girişimi! Evrim Ağacı Akademi'yi buraya tıklayarak görebilirsiniz. Daha fazla bilgi için buraya tıklayın.
Etkinlik & İlan
Bilim ile ilgili bir etkinlik mi düzenliyorsunuz? Yoksa bilim insanlarını veya bilimseverleri ilgilendiren bir iş, staj, çalıştay, makale çağrısı vb. bir duyurunuz mu var? Etkinlik & İlan Platformumuzda paylaşın, milyonlarca bilimsevere ulaşsın.
Podcast
Evrim Ağacı'nın birçok içeriğinin profesyonel ses sanatçıları tarafından seslendirildiğini biliyor muydunuz? Bunların hepsini Podcast Platformumuzda dinleyebilirsiniz. Ayrıca Spotify, iTunes, Google Podcast ve YouTube bağlantılarını da bir arada bulabilirsiniz.
Yazı Geçmişi
Okuma Geçmişi
Notlarım
İlerleme Durumunu Güncelle
Okudum
Sonra Oku
Not Ekle
Kaldığım Yeri İşaretle
Göz Attım

Evrim Ağacı tarafından otomatik olarak takip edilen işlemleri istediğin zaman durdurabilirsin.
[Site ayalarına git...]

Filtrele
Listele
Bu yazıdaki hareketlerin
Devamını Göster
Filtrele
Listele
Tüm Okuma Geçmişin
Devamını Göster
0/10000

Göster

Şifremi unuttum Üyelik Aktivasyonu

Göster

Şifrenizi mi unuttunuz? Lütfen e-posta adresinizi giriniz. E-posta adresinize şifrenizi sıfırlamak için bir bağlantı gönderilecektir.

Geri dön

Eğer aktivasyon kodunu almadıysanız lütfen e-posta adresinizi giriniz. Üyeliğinizi aktive etmek için e-posta adresinize bir bağlantı gönderilecektir.

Geri dön

Close
Geri Bildirim Gönder
Reklamsız Deneyim

Evrim Ağacı'nda reklamları 2 şekilde kapatabilirsiniz:

  1. Ücretsiz üye girişi yapmak: Sitedeki reklamların %50 kadarını kapatmak için ücretsiz bir Evrim Ağacı üyeliği açmanız ve sitemizi/uygulamamızı kullanmanız yeterli!

  2. Maddi destekçilerimiz arasına katılmak: Evrim Ağacı'nın çalışmalarına Kreosus, Patreon veya YouTube üzerinden maddi destekte bulunarak hem Türkiye'de bilim anlatıcılığının gelişmesine katkı sağlayabilirsiniz, hem de site ve uygulamamızı reklamsız olarak deneyimleyebilirsiniz. Reklamsız deneyim, sitemizin/uygulamamızın çeşitli kısımlarda gösterilen Google reklamlarını ve destek çağrılarını görmediğiniz, %100 reklamsız ve çok daha temiz bir site deneyimi sunmaktadır.

Kreosus

Kreosus'ta her 10₺'lik destek, 1 aylık reklamsız deneyime karşılık geliyor. Bu sayede, tek seferlik destekçilerimiz de, aylık destekçilerimiz de toplam destekleriyle doğru orantılı bir süre boyunca reklamsız deneyim elde edebiliyorlar.

Kreosus destekçilerimizin reklamsız deneyimi, destek olmaya başladıkları anda devreye girmektedir ve ek bir işleme gerek yoktur.

Patreon

Patreon destekçilerimiz, destek miktarından bağımsız olarak, Evrim Ağacı'na destek oldukları süre boyunca reklamsız deneyime erişmeyi sürdürebiliyorlar.

Patreon destekçilerimizin Patreon ile ilişkili e-posta hesapları, Evrim Ağacı'ndaki üyelik e-postaları ile birebir aynı olmalıdır. Patreon destekçilerimizin reklamsız deneyiminin devreye girmesi 24 saat alabilmektedir.

YouTube

YouTube destekçilerimizin hepsi otomatik olarak reklamsız deneyime şimdilik erişemiyorlar ve şu anda, YouTube üzerinden her destek seviyesine reklamsız deneyim ayrıcalığını sunamamaktayız. YouTube Destek Sistemi üzerinde sunulan farklı seviyelerin açıklamalarını okuyarak, hangi ayrıcalıklara erişebileceğinizi öğrenebilirsiniz.

Eğer seçtiğiniz seviye reklamsız deneyim ayrıcalığı sunuyorsa, destek olduktan sonra YouTube tarafından gösterilecek olan bağlantıdaki formu doldurarak reklamsız deneyime erişebilirsiniz. YouTube destekçilerimizin reklamsız deneyiminin devreye girmesi, formu doldurduktan sonra 24-72 saat alabilmektedir.

Diğer Platformlar

Bu 3 platform haricinde destek olan destekçilerimize ne yazık ki reklamsız deneyim ayrıcalığını sunamamaktayız. Destekleriniz sayesinde sistemlerimizi geliştirmeyi sürdürüyoruz ve umuyoruz bu ayrıcalıkları zamanla genişletebileceğiz.

Giriş yapmayı unutmayın!

Reklamsız deneyim için, maddi desteğiniz ile ilişkilendirilmiş olan Evrim Ağacı hesabınıza yapmanız gerekmektedir. Giriş yapmadığınız takdirde reklamları görmeye devam edeceksinizdir.

Destek Ol

Devamını Oku
Evrim Ağacı Uygulamasını
İndir
Chromium Tabanlı Mobil Tarayıcılar (Chrome, Edge, Brave vb.)
İlk birkaç girişinizde zaten tarayıcınız size uygulamamızı indirmeyi önerecek. Önerideki tuşa tıklayarak uygulamamızı kurabilirsiniz. Bu öneriyi, yukarıdaki videoda görebilirsiniz. Eğer bu öneri artık gözükmüyorsa, Ayarlar/Seçenekler (⋮) ikonuna tıklayıp, Uygulamayı Yükle seçeneğini kullanabilirsiniz.
Chromium Tabanlı Masaüstü Tarayıcılar (Chrome, Edge, Brave vb.)
Yeni uygulamamızı kurmak için tarayıcı çubuğundaki kurulum tuşuna tıklayın. "Yükle" (Install) tuşuna basarak kurulumu tamamlayın. Dilerseniz, Evrim Ağacı İleri Web Uygulaması'nı görev çubuğunuza sabitleyin. Uygulama logosuna sağ tıklayıp, "Görev Çubuğuna Sabitle" seçeneğine tıklayabilirsiniz. Eğer bu seçenek gözükmüyorsa, tarayıcının Ayarlar/Seçenekler (⋮) ikonuna tıklayıp, Uygulamayı Yükle seçeneğini kullanabilirsiniz.
Safari Mobil Uygulama
Sırasıyla Paylaş -> Ana Ekrana Ekle -> Ekle tuşlarına basarak yeni mobil uygulamamızı kurabilirsiniz. Bu basamakları görmek için yukarıdaki videoyu izleyebilirsiniz.

Daha fazla bilgi almak için tıklayın

Önizleme
Görseli Kaydet
Sıfırla
Vazgeç
Ara
Alıntı Ekle
Kurallar
Komünite Kuralları
Bu komünite, fark edildiğinde ufku genişleten tespitler içindir. Yapacağınız paylaşımlar Evrim Ağacı'nın kurallarına tabidir. Ayrıca bu komünitenin ek kurallarına da uymanız gerekmektedir.
1
Formu olabildiğince eksiksiz doldurun.
Girdiğiniz sözün/alıntının kaynağı ne kadar açıksa o kadar iyi. Açıklama kısmına kitabın sayfa sayısını veya filmin saat/dakika/saniye bilgisini girebilirsiniz.
2
Anonimden kaçının.
Bazı sözler/alıntılar anonim olabilir. Fakat sözün anonimliğini doğrulamaksızın, bilmediğiniz her söze/alıntıya anonim yazmayın. Bu tür girdiler silinebilir.
3
Kaynağı araştırın ve sorgulayın.
Sayısız söz/alıntı, gerçekte o sözü hiçbir zaman söylememiş/yazmamış kişilere, hatalı bir şekilde atfediliyor. Paylaşımınızın site geneline yayılabilmesi için kaliteli kaynaklar kullanın ve kaynaklarınızı sorgulayın.
4
Ofansif ve entelektüel düşünceden uzak sözler yasaktır.
Gerilim, tersleme, tahrik, taciz, alay, dedikodu, trollük, vurdumduymazlık, duyarsızlık, ırkçılık, bağnazlık, nefret söylemi, azınlıklara saldırı, fanatizm, holiganlık, sloganlar yasaktır.
5
Sözlerinizi tırnak (") içine almayın.
Sistemimiz formatı otomatik olarak ayarlayacaktır.
Gönder
Bu Eseri Neden Tavsiye Ediyorsun?
Aşağıdaki kutuya, isimli neden tavsiye ettiğini girebilirsin. Ne kadar detaylı ve kapsamlı bir analiz yaparsan, bu eseri [OKUMAK/İZLEMEK] isteyenleri o kadar doğru ve fazla bilgilendirmiş olacaksın. Tavsiyenin faydalı bulunması halinde Evrim Ağacı kullanıcılarından daha fazla UP kazanman mümkün olacak. Tavsiyenin sadece negatif içerikte olamayacağını, eğer bu sistemi kullanıyorsan tavsiye ettiğin içeriğin pozitif taraflarından bahsetmek zorunda olduğunu lütfen unutma. Yapıcı eleştiri hakkında daha fazla bilgi almak için burayı okuyabilirsin.
Tavsiye Et