Paylaşım Yap
Tüm Reklamları Kapat

Yapay Zeka Hizalama Problemi: Yapay Zekayı İnsan Değerleriyle Uyumlu Hale Getirmek ve Kontrol Altında Tutmak Mümkün mü?

Yapay Zeka Hizalama Problemi: Yapay Zekayı İnsan Değerleriyle Uyumlu Hale Getirmek ve Kontrol Altında Tutmak Mümkün mü? Free Code Camp
17 dakika
1,901
Evrim Ağacı Akademi: Yapay Zeka Güvenliği Yazı Dizisi

Bu yazı, Yapay Zeka Güvenliği yazı dizisinin 4. yazısıdır. Bu yazı dizisini okumaya, serinin 1. yazısı olan "Yapay Zekâ Nasıl Tehlikeli Olabilir? Yapay Genel Zekâ Güvenliği Neden Çok Önemlidir?" başlıklı makalemizden başlamanızı öneririz.

Yazı dizisi içindeki ilerleyişinizi kaydetmek için veya kayıt olun.

EA Akademi Hakkında Bilgi Al
Podcast
22:54
İbrahim Uzun
Seslendiren
Bionluk Logo sponsorluğunda seslendirildi.
47
  • İndir
  • Dış Sitelerde Paylaş
Tüm Reklamları Kapat

Yapay zeka araştırmaları ve yapay zeka felsefesinde yapay zeka hizalama problemi veya yapay zeka kontrol problemi olarak bilinen problem, yaratıcıları olan insanlara zarar vermekten ziyade onlara yardım edecek yapay zeka sistemlerinin nasıl inşa edilebileceğini inceleyen bir araştırma programıdır. Bir diğer deyişle bu yapay zeka hizalama problemi, insanların çıkarlarıyla yapay zekanın çıkarlarının programatik olarak nasıl hizalanacağı ile ilgilidir.[1]

Bu araştırmalar, şu temel gerçeğe dayanır: Yapay olarak bile olsa zeki olan bir sistem, insanların onu yaratma amaçlarının dışına çıkabilir. Bu, illâ Hollywood filmlerinde gösterildiği gibi kötücülleşen bir yapay zeka sistemi şeklinde olmak zorunda değildir. Basitçe, insanların iyi niyetle belirledikleri ve yapay zeka tarafından gerçekleştirilebilecek bir amacın, bu amaca ulaşma yolunda yapay zekanın başka insanlara zarar vermesi şeklinde de tezahür edebilir.

Buna bir örnek, yapay zekaya verilebilecek "olabildiğince verimli şekilde ataç üretme" işidir. Bu, hiçbir kötücül tarafı olmayan, sıradan bir endüstriyel yapay zeka problemidir. Ancak yapay zekaya verilen bu görev, eğer yeterince iyi tanımlanmazsa, yeterince güçlü ama içgörüsüz bir yapay zeka, sırf daha verimli bir şekilde ataç üretmek için ekosistemleri harap etmeyi göze alabilir, gerekirse bazı insanları köle etmeyi ve hatta öldürmeyi seçebilir.[2]

Tüm Reklamları Kapat

Burada içgüdüsel olarak geliştirilen bir çözüm önerisi, yapay zekanın programına basit kısıtlar eklemektir: "İnsanlara zarar verme" gibi... Ancak işin felsefesi üzerine biraz kafa yorulduğunda, bu tür kısıtların veya tanımların ne kadar zorlu ve muğlak olduğu görülür. Örneğin "İnsanlara zarar verme" komutu, bilgisayara nasıl tanımlanacaktır?

Bunu tanımlayabilmek için, "insan" kavramını yapay zekaya öğretmek gerekecektir; ancak yapay zeka, yoktan bilgi edinebilen bir sistem değildir. Yapay zekanın öğrendiği bilgileri insanlar üretmektedir ve insanın ne olduğu konusu günümüzde hâlen tartışılmakta olan bir konudur. Elbette genel bir insan tanımı yapılabilir; fakat özellikle de durumlarda problemler baş gösterecektir: Örneğin fetüs, insan mıdır? Bilinci kapanmış bir hasta, insan mıdır? Yapay zeka, ataç üretme işinin en verimli şekilde maksimize edecekse, bu kişilere zarar verebilir mi? Benzer şekilde, "zarar verme" tabiri de oldukça muğlaktır. Örneğin atılan adımlar, bir kişinin potansiyel faydalarını da engelliyorsa "zarar" sayılır mı? Eğer bu kadar katı bir korkaklıkta olacaksa, yapay zekanın insandan daha başarılı çözümler bulması mümkün müdür? "Zarar verme"nin sınırları, bilgisayara nasıl tanımlanır? İnsanlar gündelik işlerinde başkalarına hiçbir şekilde zarar vermeden mi işlemektedirler? Eğer öyle değilse, yapay zekadan bunu yapmasını beklemek gerçekçi midir?

Dolayısıyla yapay zekanın yapabilecekleri ile yapmasını istediklerimiz birbiriyle her zaman birebir aynı şey değildir. Bu durumda bir hizalama sorunu oluşmaktadır: Yapay zekanın belli sınırların dışına çıkmadan, onu üreten insanlara (ve genel olarak insanlığa) zarar vermeden kendisine verilen görevleri yapabilmesi gerekmektedir. Bu hizalama problemi, bir "ataç üretimini optimize etme" yapay zekası için çok büyük bir soruna işaret etmeyebilir; ancak nükleer füzeleri yönlendirecek sistemlerin arkasındaki yapay zeka veya bankacılık sistemlerinin temelinde yer alan yapay zekalar için düşünüldüğünde ne kadar büyük bir problem olduğu fark edilebilir.

İşte Hollywood filmlerinde kontrolden çıkan yapay zekalar da genellikle bu temel hizalanma problemiden ötürü "kötü yola" sapmaktadır. Bir kez hayata getirilen süpergüçlü bir yapay zeka, her ne kadar kodları tamamen insan yapımı olsa bile, bu kodların mümkün kıldığı olasılıklardan ötürü yaratıcılarına sırt çevirip, onlar üzerinde hâkimiyet kurabilirler.[3] Bunun olmasını engellemek için araştırmalar yürüten sahaya yapay zeka güvenliği mühendisliği denmektedir ve bu alandaki çalışmalar, sadece gelecekteki süperzeki yapay zekaların gayetlerinin insanlarınkiyle hizalanması için değil, aynı zamanda günümüzde her alanda faaliyet gösteren süperzeki-olmayan yapay zekaların da daha verimli ve düzgün çalışabilmesi için önemlidir.[4], [5]

Tüm Reklamları Kapat

Yapay Zeka Kontrol Edilebilir mi?

Günümüzde var olan yapay zeka sistemleri, kontrol dışı davranışlar sergilemeleri hâlinde kolaylıkla ve hızla kapatılabilir. Ayrıca şu anda var olan yapay zeka sistemlerinin yapacağı hataların maliyeti, gelecekteki süperzeki yapay zekaların verebileceği zarara nazaran oldukça düşüktür. Bu nedenle Dataizm yazımızda da anlattığımız gibi, günümüzdeki algoritmalar kusursuz olmasa bile, ortalamada bir insandan daha iyi olmaları şimdilik yeterlidir.

Ancak kötü veya yanlış programlanmış bir süperzeka, tanımı gereği kendisini kodlayan insanlardan daha zeki olacağı için, yaratıcılarının kendisini kapatma kararını da öngörecek ve kendisine tanımlanmış görevleri yerine getirebilmek adına, gerektiğinde kapatılmasına da engel olacak adımlar atacaktır. Bu nedenle süperzeki yapay zeka geliştiricilerinin, bu tür durumların önüne geçmek için önceden önlemler alması gerekmektedir; aksi takdirde hatalı davranan bir süperzekayı durdurmak mümkün olmayabilir.

Ne var ki bu alanda çalışmalar yürütenlerin vardığı genel sonuç şudur: Kötücül bir süperzeka yaratıldıktan sonra onu kapatma çabalarının başarılı olma ihtimali yok denecek kadar azdır; çünkü bu tür bir yapay zeka, kendi varlığını korumak adına her türlü stratejik planlamayı yapacak ve kendinden daha zayıf zekaya sahip yaratıcılarını alt etmesi pek de zor olmayacaktır. En nihayetinde bir süperzeka, sadece "zeki" olan insanlardan çok daha verimli ve hızlı bir şekilde kararlar alabilecek ve insanların yapmayı atmayı düşüneceği hemen her adımı öngörebilecektir.

Ayrıca bir süperzeki yapay zekanın düzeltilmek üzere kapatılmasının istenmesinin tek nedeni küresel bir yıkım yaratması olmak zorunda da değildir. Günlük hayatımızda karşılaştığımız ahlaki anlaşmazlıkları düşünecek olursak, yapay zeka sistemlerinde kime ait değer ve amaçların kullanılması gerektiği önemli bir soru olarak ortaya çıkmaktadır. Örneğin bir toplumda kadınlara daha az değer veriliyorsa, o toplumdan çıkacak süper yapay zekaların (veya o toplum içinde çalışacak süper yapay zekaların) kadınları kötüye kullanması kabul edilebilir midir? Yapay zekanın alacağı kararları yönlendirecek olan ahlâki pusular, batılı toplumların değerleriyle mi örtüşecektir, doğulu toplumlarınkiyle mi? Bunların örtüştüğü durumlarda mesele yok; ama çakıştığı durumlarda hangisi öncelikli olacak? Evrensel ahlâki değerlerin olmadığı bir ortamda, evrensel olarak kullanılabilecek süperzeki yapay zeka sistemlerinden söz edilebilir mi?

Evrim Ağacı'ndan Mesaj

İşte bu tür sorulara daha genel cevaplar verebileceğimiz noktaya gelene kadar, sorulması gereken soru şudur: Yazılımcılar ne tür önlemler alarak, süperzekanın yıkıcı ve kötücül davranışlar geliştirmesini önleyebilirler?

Yapay Zeka ve Değer Hizalama Problemi

Yapay zeka sistemleri insana fayda sağlayacak işlevleri yerine getiriyor olsa da, doğru davranışsal eğilimlere sahip olduğundan ve daha önemlisi gelecekte de olacağından emin olabilmek kolay değildir. En başında bir yapay zeka sistemi hedeflenen amaca yönelik çalışıyor bile olsa, bu sistemlerin gelişmeye ve öğrenmeye açık olduğu düşünülecek olursa, bu amaçların sabit kalacağını söylemek zordur. Bu da, yapay zekanın insani değerler ile ne kadar uyumlu hareket edebileceği konusunda geleceğe dönük oldukça büyük bir sorunu ortaya çıkarmaktadır.

İngiliz bilgisayar bilimci Stuart Jonathan Russell, bu duruma değer hizalama problemi adını vermiştir. Basit olarak değer hizalama; oldukça otonom olan yapay zeka sistemlerinin, operasyonları boyunca amaç ve davranışları bakımından insani değerlerle uyumlu olacak şekilde tasarlanmasını ifade eder. Ayrıca yalnızca insanlar için faydalı olan faaliyetlerin sürdürülmesine izin veren bir akıllı ajan özelliği olarak tanımlanır.

Sapkın Enstantane: Yanlışlıkla Bir Canavar Yaratmak...

Otonom ve süperzeki yapay zeka sistemlerinin kontrolden çıkması için illâ kötücül bir şekilde programlanmaları şart değildir; hiç kimse farkında olmadan tamamen hatalı görevler de verebiliriz ve bir felakete neden olabiliriz.[6] Örneğin daha önceden Amerikan Yapay Zekanın İlerleyişi Derneği başkanlığını yapmış iki önemli isim (Tom Dietterich ve Eric Horvitz), bu konudaki endişeyi şöyle anlatıyorlar:

İnsanlarla etkileşim hâlindeki herhangi bir yapay zeka sisteminin önemli parçalarından biri, motamot ve literal bir şekilde emirlerini yerine getirmektense, insanların yapmak istedikleri şeyi mantıklama yoluyla çözebilmektir.

Daha basit sistemlerde bu kritik bir risk yaratmayabilir; ancak buna rağmen, daha şimdiden yapay zeka sistemleri insanları öldürmeye veya onlara zarar vermeye başlamıştır. Örneğin 2015 yılında Almanya'da bir işçi, Volkswagen fabrikasındaki bir robot tarafından ezilerek öldürülmüştür. Robot, işçiyi bir araç parçası zannetmiştir; ancak yapılan incelemede, hatanın sebebinin insan kaynaklı olabileceği de görülmüştür.[7] 2016 yılında Microsoft tarafından hayata getirilen Tay isimli bir sohbet robotu, kısa sürede ırkçı ve seksist bir dil kullanmaya başlamıştır.

Ancak yapay zeka yazılımları gelişip, otonomluk ve esneklik kazandıkça bu sorun eksponansiyel olarak büyüyecektir.[8] Bu sorunların başında, sapkın enstantane problemi (İng: "the problem of perverse instantiation")gelmektedir: Bir yapay zeka daha zeki ve daha becerikli hâle geldikçe, kendisinden yapılması istenen işi en üst seviyede tatmin etmek için giderek daha istenmedik kısayollar keşfedebilecektir. Buna iki örnek verelim:

Tüm Reklamları Kapat

  • "Gelecekte elde etmesi beklenen başarısını maksimize etmesi" istenen bir süperzeki yapay zeka, maksimum güce ulaşmak için davranışları kolay kolay öngörülemeyen insanları yok ederek Dünya'nın yüzeyini bir kale ile kaplayarak, en düşük olasılıklı uzaylı saldırılarına karşı bile hazırlıklı bir şekilde kendini savunabilir. Buna enstrümantel yakınsama (İng: "instrumental convergence") denir.
  • "İnsan mutluluğunu maksimize etmesi" istenen bir süperzeki yapay zeka, insanların beyinlerindeki keyif alma bölgelerine elektrotlar yerleştirerek veya insan bilinçlerini makinalara yükleyerek, Evren'i sanal insan kopyalarıyla doldurabilirler ve her birini 3-5 saniyelik döngülerle mutluluğun zirvesine çıkarabilirler.

Bu örnekler ilk etapta kulağa ekstrem gelse de, sorunu matematiksel olarak göstermek mümkündür:[6]

nn adet değişkenden oluşan bir fonksiyonu optimize etmeye çalışan bir sistemde görev, k<nk<n şeklindeki bir alt kümeye bağlıysa, sistem genellikle sınırlı olmayan değişkenlere ekstrem değerler atayacaktır. Eğer o sınırsız değişkenlerden biri bizim değer verdiğimiz bir şeyse, elde edilen sonuç fazlasıyla istenmedik olabilir. Bu; lambadaki cin, büyücünün çırağı veya Kral Midas öyküsünde gördüğümüz olaydır: Tam olarak söylediğiniz şeyi alırsınız, gerçekte istediğinizi değil. Bu, ufak bir problem değildir.

Anlayacağınız Russell, yapay zeka sistemlerinin değer hizalaması problemini Kral Midas hikayesine benzetmektedir: Şarap tanrısı Dionisos, kralın bir dileğini gerçekleştireceğini söylediğinde, Kral Midas, dokunduğu her şeyin altına dönüşmesini istemiştir. Dileği gerçek olduğunda yemek için dokunduğu yiyecek ve içecekler, hatta kendisine ait ünlü gül bahçesi bile altına dönüşmüştür. Ardından bu korkunç gücün kendisinden alınmasını istemiştir. Aslında Midas bu dileği ile yalnızca zengin olmayı düşünmüştü, ama işler hiç de beklediği gibi olmamıştı.

İşte bizler ve yapay zeka arasındaki durum da buna benzetilebilir. Yapay zeka sistemleri, tasarımcısının isteklerini yerine getirirken insana ve ona ait süreçlere zarar vermeden gerçekleştirecek şekilde yapılandırılmalıdır. Şu anda halihazırda kullandığımız yapay zeka sistemleri çoğunlukla istenilen noktaya ulaşmak konusunda başarılıdır. Fakat bunu yaparken bir insanın sahip olduğu gibi ahlaki değerlere sahip değildir. İşte tam bu noktada yapay zekanın neden insani değerlerle uyumlu olması gerektiği ortaya çıkmaktaıdr. Russell’ın UC Berkeley’deki meslektaşı Anca Dragan şöyle diyor:

Tüm Reklamları Kapat

Robotlar insanlığa karşı isyan etmeye çalışmayacak. Sadece onlardan yapmalarını istediğimiz şeyi optimize etmeye çalışacaklar. Tam da bu sebepten bu sistemlere ‘gerçekten’ istediğimiz dünya için optimizasyon yapmalarını söylediğimizden emin olmalıyız.

Eğer optimize etmelerini istediğimiz şeyin optimizasyonu, öngöremeyeceğimiz bir şekilde felakete sebep olacaksa, yapay zeka bir kez optimizasyon sürecine başladığında onu durduramayabiliriz. Bu nedenle yapay zekanın, bizim isteklerimizi tam olarak anlayabilmesi ve sahip olduğumuz değerlere uyumlu hale getirilmesi oldukça önemlidir.

Ne var ki günümüzdeki yapay zeka sistemlerinin pek azı güvenlik ilkeleri gözetilerek tasarlanmaktadır. 2017 yılında DeepMind tarafından yayınlanan AI Safety Gridworlds, yapay zeka algoritmalarını 9 kategori çerçevesinde güvenlik açısından sınamaktadır. DeepMind tarafından yapılan incelemede, var olan algoritmaların neredeyse tamamının bu testte başarısız oldukları gösterilmiştir; çünkü bu yazılımların büyük bir kısmında güvenlik ilkeleri gözetilmemektedir. Elbette, bu algoritmaların aynı zamanda neredeyse hiçbiri kontrolden çıkabilecek yazılımlar değillerdir; dolayısıyla insanları köleleştirmeleri beklenmemektedir. Bu tür yapay zeka yönergelerine uyabilecek algoritmalar, muhtemelen gelecekte yazılacak ve bugünkü algoritmaların baştan yaratılmasıyla elde edilen yazılımlar olacaklardır. O gün geldiğinde, bu güvenlik yönergelerinin o algoritmaların kalbinde yer aldığından emin olmamız gerekmektedir.

Hizalama İlkeleri

Yapay zeka sistemlerinin, kendilerine verilen talimatları Kral Midas hikayesinde olduğu gibi son derece literal bir şekilde, harfi harfine takip etmesini istemediğimiz konusunda yapay zeka araştırmacıları arasında kısmen bir fikir birliği bulunmaktadır. Yine de sorunlar bundan ibaret değildir.

Örneğin herhangi bir yapay zekadan, yapmayı düşündüğümüz şeyi mi yapmasını isteriz yoksa bizim için en iyi olanı yapmasını mı? Beklentilerimizin açıkça anlaşılamadığı bir yapay zeka sayesinde istediğimiz şeye temelde ulaşmış ama daha kötü durumlar içine girmiş olabiliriz. Elbette bunun tersi durumlar da olabilir: Gerçekten yapmayı düşündüğümüz şeyi gerçekleştiren bir yapay zeka, insan değerleriyle uyumlu halde çalışarak ve bu değerleri önceliklendirerek hareket ettiğinde, bireysel beklentilerimiz konusunda oldukça yetersiz kalabilir. Ya da daha beklenmedik durumlar oluştuğunda, yapay zekaların çok hızlı çalıştığını düşündüğümüzde, yine bu durumlarda etik davranmak konusunda başarısız olabilir. Bu yüzden yalnızca yapay zekanın insani değerlerle uyumlu hale getirilmesi yetersiz de olabilir. Aynı zamanda öngörülemeyen durumlar için, anlık olarak bir insan tarafından talimat verilmediğinde de doğru kararlar alabilmesi gerekir.

Tüm Reklamları Kapat

Agora Bilim Pazarı
  • Dış Sitelerde Paylaş

Konuyu biraz daha basite indirgemek için şu örneği verelim: MIT Moral Machine testi, sizi bir aracın sürücüsü yerine koyarak ne gibi kararlar vereceğinizi görmek için çeşitli kaza senaryoları oluşturuyor. Basit bir ahlak testi gibi gözükse de günümüzde de popüler hale gelen akıllı arabalar düşünüldüğünde gelecekte bu kararların bizler yerine araçlar tarafından verileceği de öngörülebilir bir gerçektir. Buna benzer oldukça önemli kararlar vermek insanlar için bile oldukça zor olsa da bunun gibi testler yapay zekanın insani değerlerle uyumlu hale getirilmesinde kullanılabilecek önemli veriler oluşturabilir.

MIT Moral Machine
MIT Moral Machine
Live İnnovation

Ahlak testi örneğinden de anlaşılacağı gibi insanlar birbirinden farklı birçok ahlaki tercihte bulunabilir.[9], [1] Böyle olmasaydı bile, yani yalnızca tek bir ahlak teorisinin doğru olduğuna büyük bir güven duymuş olsaydık, bu sefer de bu gerçeği başka bir tutum sergileyen insanlara iletmenin zorluğu ile karşı karşıya kalacaktık. Filozof John Rawls’ın ifade ettiği gibi, insanlar değer konusunda çok çeşitli makul, fakat zıt inançlara sahiptir. Bu açıdan yapay zeka sistemlerinin tek bir ahlak teorisine uyumlu hale getirilmesi durumunda da bu düşünceden uzak birçok insana bu değerlerin dayatıldığı bir durum söz konusu olabilir. Elbette bu düşünce ve sorular, insanların özgür ve eşit olduğu inancından dolayı ortaya çıkmaktadır. Ahlakın temel doğası hakkında herhangi bir anlaşmaya varılamasa da belirli bir konu hakkında ortak uygun değerler üzerinde bir anlaşma sağlanabilmelidir. Uzlaşılmış bu fikirler yapay zeka üzerinde uygulanmak için farklı şekillerde belirlenebilir.

Cehalet Örtüsü ve Varsayımsal Anlaşma

Bu düşünce, çoğulcu değer uyumuna yönelik bir yaklaşımdır. Halihazırda üzerinde anlaşmaya varılan değerlerle değil, kimsenin görüşlerini bir başkasına empoze edemeyeceği bir konumdayken uzlaşmaya varılan değerlerle ilgilenir.

Cehalet örtüsü (İng: "veil of ignorance"), John Rawls tarafından ortaya atılmış bir kavramdır. Bu görüşe göre; farklı değer ve bakış açılarına sahip bir grup insan, bireylere verilecek haklar hakkında karar verecektir. Bu ilkeleri belirlerken sahip oldukları kimliklerden arınacak ve ilkelerin belirlenmesinden sonra hangi toplumda kim olacaklarını, hangi ahlaki tutuma sahip olacaklarını bilmeyeceklerdir. Sonuçta bu bilgilere sahip olmayan karar vericiler eşit ve adil kararlar vermek durumunda kalacaktır. Söz konusu kavrama benzer bir yaklaşım yapay zeka ilkelerinin belirlenmesinde de kullanılabilir.

Bu yaklaşım ile karar vericiler muhtemelen başlangıç olarak yapay zekanın, kaza ve yanlış kullanım gibi riskli durumları azaltacak şekilde tasarlanması gerektiğinde fikir birliği sağlayacaktır. Ayrıca kimsenin fayda sağlayamadığı eylem ve faaliyetlerin de çıkarılmasını isteyeceklerdir.

Küresel Kamu Ahlakı ve İnsan Hakları

Birbirinden farklı toplumların farklı kamusal adalet anlayışlarına sahip olduğu düşünüldüğünde, küresel ilkelerin benimsenmediği bir durumda farklı problemler ortaya çıkabilir. Örneğin belirli bir bölgeyi yöneten kişinin yapay zekayı nasıl kullanacağı konusunda kişisel bir hak elde etmesi birçok soruna yol açabilir. Baskıcı ve zararlı uygulamalar toplumun çoğunluğu tarafından destekleniyor olsa bile teknolojiler üzerinde belirli kısıtlamalar oluşturmak gerekebilir.

Toplumlar birbirinden farklı kültüre, inanca veya felsefeye sahip olsalar bile insanların hangi toplumda yaşadıkları fark etmeksizin hemfikir olduğu bazı düşünceler vardır. Bazı insan hakları farklı gruplar tarafından farklı nedenlerle benimsenebilir. Örneğin evrensel insan hakları bazı toplumlarda insan yaşamının kutsallığına inanıldığı için benimsenirken bazılarında bireyle devlet arasındaki sözleşmenin bir ürünü olarak düşünüldüğü için benimsenmiştir.

Bu nedenle insan hakları ile ilgili küresel olarak benimsenen ilkeler belirlenerek yapay zekanın insan haklarıyla uyumlu hale getirilmesi amaçlanabilir. Bu yaklaşımda karşılaşılan zorluk, elbette öncelikle bu hakların birey ve devletler arasındaki ilişkilerde uygulanması gerektiği olacaktır. Tüm bu fikirler ele alındığında yapay zeka hizalamasında bir fikir birliğinden bahsetmek erken olsa da bu tarz ilkeler üretme çabalarının kültürler arasında kapsayıcı olması ve rehberlik taşıması oldukça önemli olacaktır.

Değer Hizalamanın Önemi

Yapay zekanın dünya hakkında bilgi edinmek için büyük veriden faydalandığını ve bu zamana kadar ürettiğimiz veriler ile sonuca vardığını hatırlayalım. Ancak şimdiye kadarki tarihsel veriler, içinde yaşadığımız zamanı veya yapay zeka çalışmalarının uygulanacağı geleceği elbette temsil etmeyebilir, hatta etik olmayan sonuçlara sebep olabilir. Örneğin, bir işe alım modeli kadınlara veya azınlıklara karşı haksızlık oluşturacak bir sonuç ortaya çıkarabilir. Elbette yapay zeka insanlar arasında ayrımcılık yapmaz. Ancak geniş bir zamanda işe alınanların çoğunluğunun beyaz erkekler olduğunu bugüne kadar üretilmiş verilerden öğrenir ve bu modeli sürdürür. Bu örnek genişletildiğinde herhangi azınlık bir grup aslında belirli bir uygulama için tercih edilmesi gereken en uygun grup olsa bile adaletsiz bir sonuç ortaya çıkabilir.

Farklı bir örnek verecek olursak, Google Clips adındaki yeni bir teknoloji insanların hayatındaki önemli anları otomatik olarak yakalama fikri ile ortaya çıktı. Örneğin bebeğinin ilk adımlarını gören bir ebeveynin, anlık gerçekleşen bir olay olduğu için bu anı fotoğraflaması oldukça zordur. Herhangi bir odaya koyulan bu cihaz sayesinde bu özel anların otomatik olarak yakalanması fikri kulağa oldukça güzel geliyor. Ayrıca cihaz, makine öğrenimi sayesinde tanıdık yüzleri tanımlayabiliyor ve bu sayede neyi kaydetmesi gerektiğine karar verebiliyordu. Teoride oldukça iyi gibi gözükse de pratikte cihaz Google’ın vaat ettiklerini sunamadı. Birkaç haftalık testler kontrol edildiğinde özel denebilecek bir an ne yazık ki yakalanamadı. Cihazın çektiği 500’den fazla klipten belki yalnızca 10 tanesi başkalarıyla paylaşılabilecek düzeydeydi.

Tüm Reklamları Kapat

Bu örnekten de anlaşılacağı gibi yapay zekanın insan değerleriyle uyumlu hale getirilmesi yalnızca evrensel insan hakları gibi ciddi konular için de geçerli değil. İnsanların gerçekten ne istediğini, neyi sevdiğini ya da beklentilerini anlamayan bir yapay zeka elbette ortaya herhangi bir değer çıkaramayacaktır. Tabi ki şimdilik mükemmel olmasını beklemiyoruz ama insandan daha iyi, daha hızlı veya daha doğru olduğu sürece yeterli olacaktır.

Sonuç

Yapay zeka sistemlerinin faydalı olabilmesi için insan değerleriyle uyumlu olması tartışılamaz bir gerçektir. Elbette toplum ve kültürler arasındaki farklı ahlaki tutumlar ve hatta aynı toplumda yaşayan insanlar arasındaki farklı inançlar hatırlandığında yapay zekayı insan değerleriyle uyumlu hale getirmek oldukça zor olacaktır. Kaldı ki biz, bu yazımızda değer hizalamayı yalnızca felsefi yönüyle ele aldık. Bu ilkelerin yapay zeka üzerinde teknik olarak uygulanmasında da farklı problemler ile karşılaşılacaktır.

Lousville Üniversitesi’nde yapay zeka konusundaki çalışmaları ile bilinen bilgisayar bilimci Roman Yampolskiy’in ifade ettiğine göre, programlama dilinde insani değerleri kodlamak çok zordur. İnsanlık olarak ortak değerler üzerinde hemfikir olamadığımız ve zaman içinde hemfikir olduğumuz konularda dahi zamanla değişimler yaşandığı gerçeği, değer hizalama sorununu daha da zorlaştırmaktadır.

Yine de tüm bu sorunlara rağmen yapay zekayı ahlaki ilkelere uymaya ve bu tarz ilkeler yaratmaya zorlamak oldukça önemlidir. Gelecekte çok daha büyük gelişmelerin yaşanacağı kaçınılmaz olduğundan bu problemlerin şimdiden farkına vararak yeni teoriler üretmek oldukça yararlı olacaktır. Ayrıca yapay zeka sistemleri mutlaka ahlaki olarak hareket etmese bile potansiyel olarak ahlaki olmayan bazı tercihlerden vazgeçilmesi sağlanabilir. Henüz insanlık bunu başaramadıkça yapay zekayı da henüz kendisinin dahi emin olmadığı değerlere uyumlu hale getirmek oldukça zor olacağından, en azından şimdilik açıkça ahlaksız olan şeyler üzerinde bir anlaşmaya varmamız gerekiyor olabilir.

Bu Makaleyi Alıntıla
Okundu Olarak İşaretle
Evrim Ağacı Akademi: Yapay Zeka Güvenliği Yazı Dizisi

Bu yazı, Yapay Zeka Güvenliği yazı dizisinin 4. yazısıdır. Bu yazı dizisini okumaya, serinin 1. yazısı olan "Yapay Zekâ Nasıl Tehlikeli Olabilir? Yapay Genel Zekâ Güvenliği Neden Çok Önemlidir?" başlıklı makalemizden başlamanızı öneririz.

Yazı dizisi içindeki ilerleyişinizi kaydetmek için veya kayıt olun.

EA Akademi Hakkında Bilgi Al
20
0
  • Paylaş
  • Alıntıla
  • Alıntıları Göster
Paylaş
Sonra Oku
Notlarım
Yazdır / PDF Olarak Kaydet
Bize Ulaş
Yukarı Zıpla

İçeriklerimizin bilimsel gerçekleri doğru bir şekilde yansıtması için en üst düzey çabayı gösteriyoruz. Gözünüze doğru gelmeyen bir şey varsa, mümkünse güvenilir kaynaklarınızla birlikte bize ulaşın!

Bu içeriğimizle ilgili bir sorunuz mu var? Buraya tıklayarak sorabilirsiniz.

Soru & Cevap Platformuna Git
Bu İçerik Size Ne Hissettirdi?
  • Merak Uyandırıcı! 5
  • Tebrikler! 3
  • İnanılmaz 3
  • Mmm... Çok sapyoseksüel! 2
  • Korkutucu! 1
  • Muhteşem! 0
  • Bilim Budur! 0
  • Güldürdü 0
  • Umut Verici! 0
  • Üzücü! 0
  • Grrr... *@$# 0
  • İğrenç! 0
Kaynaklar ve İleri Okuma
Tüm Reklamları Kapat

Evrim Ağacı'na her ay sadece 1 kahve ısmarlayarak destek olmak ister misiniz?

Şu iki siteden birini kullanarak şimdi destek olabilirsiniz:

kreosus.com/evrimagaci | patreon.com/evrimagaci

Çıktı Bilgisi: Bu sayfa, Evrim Ağacı yazdırma aracı kullanılarak 19/04/2024 12:24:30 tarihinde oluşturulmuştur. Evrim Ağacı'ndaki içeriklerin tamamı, birden fazla editör tarafından, durmaksızın elden geçirilmekte, güncellenmekte ve geliştirilmektedir. Dolayısıyla bu çıktının alındığı tarihten sonra yapılan güncellemeleri görmek ve bu içeriğin en güncel halini okumak için lütfen şu adrese gidiniz: https://evrimagaci.org/s/11367

İçerik Kullanım İzinleri: Evrim Ağacı'ndaki yazılı içerikler orijinallerine hiçbir şekilde dokunulmadığı müddetçe izin alınmaksızın paylaşılabilir, kopyalanabilir, yapıştırılabilir, çoğaltılabilir, basılabilir, dağıtılabilir, yayılabilir, alıntılanabilir. Ancak bu içeriklerin hiçbiri izin alınmaksızın değiştirilemez ve değiştirilmiş halleri Evrim Ağacı'na aitmiş gibi sunulamaz. Benzer şekilde, içeriklerin hiçbiri, söz konusu içeriğin açıkça belirtilmiş yazarlarından ve Evrim Ağacı'ndan başkasına aitmiş gibi sunulamaz. Bu sayfa izin alınmaksızın düzenlenemez, Evrim Ağacı logosu, yazar/editör bilgileri ve içeriğin diğer kısımları izin alınmaksızın değiştirilemez veya kaldırılamaz.

Keşfet
Akış
İçerikler
Gündem
Mikoloji
Primatlar
Fare
Tahmin
Canlılık Ve Cansızlık Arasındaki Farklar
Etimoloji
Ekosistem
Çekirdek
Alkol
Embriyo
Veri
Algı
Afrika
İletişim
Bitkiler
Işık Yılı
Diş Sorunları
Kurbağa
Ayak
Bilişsel
Gen
Mucize
Beyin
Karbon
Seçilim
Aklımdan Geçen
Komünite Seç
Aklımdan Geçen
Fark Ettim ki...
Bugün Öğrendim ki...
İşe Yarar İpucu
Bilim Haberleri
Hikaye Fikri
Video Konu Önerisi
Başlık
Gündem
Bugün Türkiye'de bilime ve bilim okuryazarlığına neler katacaksın?
Bağlantı
Kurallar
Komünite Kuralları
Bu komünite, aklınızdan geçen düşünceleri Evrim Ağacı ailesiyle paylaşabilmeniz içindir. Yapacağınız paylaşımlar Evrim Ağacı'nın kurallarına tabidir. Ayrıca bu komünitenin ek kurallarına da uymanız gerekmektedir.
1
Bilim kimliğinizi önceleyin.
Evrim Ağacı bir bilim platformudur. Dolayısıyla aklınızdan geçen her şeyden ziyade, bilim veya yaşamla ilgili olabilecek düşüncelerinizle ilgileniyoruz.
2
Propaganda ve baskı amaçlı kullanmayın.
Herkesin aklından her şey geçebilir; fakat bu platformun amacı, insanların belli ideolojiler için propaganda yapmaları veya başkaları üzerinde baskı kurma amacıyla geliştirilmemiştir. Paylaştığınız fikirlerin değer kattığından emin olun.
3
Gerilim yaratmayın.
Gerilim, tersleme, tahrik, taciz, alay, dedikodu, trollük, vurdumduymazlık, duyarsızlık, ırkçılık, bağnazlık, nefret söylemi, azınlıklara saldırı, fanatizm, holiganlık, sloganlar yasaktır.
4
Değer katın; hassas konulardan ve öznel yoruma açık alanlardan uzak durun.
Bu komünitenin amacı okurlara hayatla ilgili keyifli farkındalıklar yaşatabilmektir. Din, politika, spor, aktüel konular gibi anlık tepkilere neden olabilecek konulardaki tespitlerden kaçının. Ayrıca aklınızdan geçenlerin Türkiye’deki bilim komünitesine değer katması beklenmektedir.
5
Cevap hakkı doğurmayın.
Bu platformda cevap veya yorum sistemi bulunmamaktadır. Dolayısıyla aklınızdan geçenlerin, tespit edilebilir kişilere cevap hakkı doğurmadığından emin olun.
Ekle
Soru Sor
Sosyal
Yeniler
Daha Fazla İçerik Göster
Popüler Yazılar
30 gün
90 gün
1 yıl
Evrim Ağacı'na Destek Ol

Evrim Ağacı'nın %100 okur destekli bir bilim platformu olduğunu biliyor muydunuz? Evrim Ağacı'nın maddi destekçileri arasına katılarak Türkiye'de bilimin yayılmasına güç katın.

Evrim Ağacı'nı Takip Et!
Yazı Geçmişi
Okuma Geçmişi
Notlarım
İlerleme Durumunu Güncelle
Okudum
Sonra Oku
Not Ekle
Kaldığım Yeri İşaretle
Göz Attım

Evrim Ağacı tarafından otomatik olarak takip edilen işlemleri istediğin zaman durdurabilirsin.
[Site ayalarına git...]

Filtrele
Listele
Bu yazıdaki hareketlerin
Devamını Göster
Filtrele
Listele
Tüm Okuma Geçmişin
Devamını Göster
0/10000
Bu Makaleyi Alıntıla
Evrim Ağacı Formatı
APA7
MLA9
Chicago
E. Kocabey, et al. Yapay Zeka Hizalama Problemi: Yapay Zekayı İnsan Değerleriyle Uyumlu Hale Getirmek ve Kontrol Altında Tutmak Mümkün mü?. (22 Ocak 2022). Alındığı Tarih: 19 Nisan 2024. Alındığı Yer: https://evrimagaci.org/s/11367
Kocabey, E., Bakırcı, Ç. M. (2022, January 22). Yapay Zeka Hizalama Problemi: Yapay Zekayı İnsan Değerleriyle Uyumlu Hale Getirmek ve Kontrol Altında Tutmak Mümkün mü?. Evrim Ağacı. Retrieved April 19, 2024. from https://evrimagaci.org/s/11367
E. Kocabey, et al. “Yapay Zeka Hizalama Problemi: Yapay Zekayı İnsan Değerleriyle Uyumlu Hale Getirmek ve Kontrol Altında Tutmak Mümkün mü?.” Edited by Çağrı Mert Bakırcı. Evrim Ağacı, 22 Jan. 2022, https://evrimagaci.org/s/11367.
Kocabey, Enes. Bakırcı, Çağrı Mert. “Yapay Zeka Hizalama Problemi: Yapay Zekayı İnsan Değerleriyle Uyumlu Hale Getirmek ve Kontrol Altında Tutmak Mümkün mü?.” Edited by Çağrı Mert Bakırcı. Evrim Ağacı, January 22, 2022. https://evrimagaci.org/s/11367.
ve seni takip ediyor

Göster

Şifrenizi mi unuttunuz? Lütfen e-posta adresinizi giriniz. E-posta adresinize şifrenizi sıfırlamak için bir bağlantı gönderilecektir.

Geri dön

Eğer aktivasyon kodunu almadıysanız lütfen e-posta adresinizi giriniz. Üyeliğinizi aktive etmek için e-posta adresinize bir bağlantı gönderilecektir.

Geri dön

Close