Yapay Zeka Hizalama Problemi: Yapay Zekayı İnsan Değerleriyle Uyumlu Hale Getirmek ve Kontrol Altında Tutmak Mümkün mü?
Yapay zeka araştırmaları ve yapay zeka felsefesinde yapay zeka hizalama problemi veya yapay zeka kontrol problemi olarak bilinen problem, yaratıcıları olan insanlara zarar vermekten ziyade onlara yardım edecek yapay zeka sistemlerinin nasıl inşa edilebileceğini inceleyen bir araştırma programıdır. Bir diğer deyişle bu yapay zeka hizalama problemi, insanların çıkarlarıyla yapay zekanın çıkarlarının programatik olarak nasıl hizalanacağı ile ilgilidir.[1]
Bu araştırmalar, şu temel gerçeğe dayanır: Yapay olarak bile olsa zeki olan bir sistem, insanların onu yaratma amaçlarının dışına çıkabilir. Bu, illâ Hollywood filmlerinde gösterildiği gibi kötücülleşen bir yapay zeka sistemi şeklinde olmak zorunda değildir. Basitçe, insanların iyi niyetle belirledikleri ve yapay zeka tarafından gerçekleştirilebilecek bir amacın, bu amaca ulaşma yolunda yapay zekanın başka insanlara zarar vermesi şeklinde de tezahür edebilir.
Buna bir örnek, yapay zekaya verilebilecek "olabildiğince verimli şekilde ataç üretme" işidir. Bu, hiçbir kötücül tarafı olmayan, sıradan bir endüstriyel yapay zeka problemidir. Ancak yapay zekaya verilen bu görev, eğer yeterince iyi tanımlanmazsa, yeterince güçlü ama içgörüsüz bir yapay zeka, sırf daha verimli bir şekilde ataç üretmek için ekosistemleri harap etmeyi göze alabilir, gerekirse bazı insanları köle etmeyi ve hatta öldürmeyi seçebilir.[2]
Burada içgüdüsel olarak geliştirilen bir çözüm önerisi, yapay zekanın programına basit kısıtlar eklemektir: "İnsanlara zarar verme" gibi... Ancak işin felsefesi üzerine biraz kafa yorulduğunda, bu tür kısıtların veya tanımların ne kadar zorlu ve muğlak olduğu görülür. Örneğin "İnsanlara zarar verme" komutu, bilgisayara nasıl tanımlanacaktır?
Bunu tanımlayabilmek için, "insan" kavramını yapay zekaya öğretmek gerekecektir; ancak yapay zeka, yoktan bilgi edinebilen bir sistem değildir. Yapay zekanın öğrendiği bilgileri insanlar üretmektedir ve insanın ne olduğu konusu günümüzde hâlen tartışılmakta olan bir konudur. Elbette genel bir insan tanımı yapılabilir; fakat özellikle de uç durumlarda problemler baş gösterecektir: Örneğin fetüs, insan mıdır? Bilinci kapanmış bir hasta, insan mıdır? Yapay zeka, ataç üretme işinin en verimli şekilde maksimize edecekse, bu kişilere zarar verebilir mi? Benzer şekilde, "zarar verme" tabiri de oldukça muğlaktır. Örneğin atılan adımlar, bir kişinin potansiyel faydalarını da engelliyorsa "zarar" sayılır mı? Eğer bu kadar katı bir korkaklıkta olacaksa, yapay zekanın insandan daha başarılı çözümler bulması mümkün müdür? "Zarar verme"nin sınırları, bilgisayara nasıl tanımlanır? İnsanlar gündelik işlerinde başkalarına hiçbir şekilde zarar vermeden mi işlemektedirler? Eğer öyle değilse, yapay zekadan bunu yapmasını beklemek gerçekçi midir?
Dolayısıyla yapay zekanın yapabilecekleri ile yapmasını istediklerimiz birbiriyle her zaman birebir aynı şey değildir. Bu durumda bir hizalama sorunu oluşmaktadır: Yapay zekanın belli sınırların dışına çıkmadan, onu üreten insanlara (ve genel olarak insanlığa) zarar vermeden kendisine verilen görevleri yapabilmesi gerekmektedir. Bu hizalama problemi, bir "ataç üretimini optimize etme" yapay zekası için çok büyük bir soruna işaret etmeyebilir; ancak nükleer füzeleri yönlendirecek sistemlerin arkasındaki yapay zeka veya bankacılık sistemlerinin temelinde yer alan yapay zekalar için düşünüldüğünde ne kadar büyük bir problem olduğu fark edilebilir.
İşte Hollywood filmlerinde kontrolden çıkan yapay zekalar da genellikle bu temel hizalanma problemiden ötürü "kötü yola" sapmaktadır. Bir kez hayata getirilen süpergüçlü bir yapay zeka, her ne kadar kodları tamamen insan yapımı olsa bile, bu kodların mümkün kıldığı olasılıklardan ötürü yaratıcılarına sırt çevirip, onlar üzerinde hâkimiyet kurabilirler.[3] Bunun olmasını engellemek için araştırmalar yürüten sahaya yapay zeka güvenliği mühendisliği denmektedir ve bu alandaki çalışmalar, sadece gelecekteki süperzeki yapay zekaların gayetlerinin insanlarınkiyle hizalanması için değil, aynı zamanda günümüzde her alanda faaliyet gösteren süperzeki-olmayan yapay zekaların da daha verimli ve düzgün çalışabilmesi için önemlidir.[4], [5]
Yapay Zeka Kontrol Edilebilir mi?
Günümüzde var olan yapay zeka sistemleri, kontrol dışı davranışlar sergilemeleri hâlinde kolaylıkla ve hızla kapatılabilir. Ayrıca şu anda var olan yapay zeka sistemlerinin yapacağı hataların maliyeti, gelecekteki süperzeki yapay zekaların verebileceği zarara nazaran oldukça düşüktür. Bu nedenle Dataizm yazımızda da anlattığımız gibi, günümüzdeki algoritmalar kusursuz olmasa bile, ortalamada bir insandan daha iyi olmaları şimdilik yeterlidir.
Ancak kötü veya yanlış programlanmış bir süperzeka, tanımı gereği kendisini kodlayan insanlardan daha zeki olacağı için, yaratıcılarının kendisini kapatma kararını da öngörecek ve kendisine tanımlanmış görevleri yerine getirebilmek adına, gerektiğinde kapatılmasına da engel olacak adımlar atacaktır. Bu nedenle süperzeki yapay zeka geliştiricilerinin, bu tür durumların önüne geçmek için önceden önlemler alması gerekmektedir; aksi takdirde hatalı davranan bir süperzekayı durdurmak mümkün olmayabilir.
Ne var ki bu alanda çalışmalar yürütenlerin vardığı genel sonuç şudur: Kötücül bir süperzeka yaratıldıktan sonra onu kapatma çabalarının başarılı olma ihtimali yok denecek kadar azdır; çünkü bu tür bir yapay zeka, kendi varlığını korumak adına her türlü stratejik planlamayı yapacak ve kendinden daha zayıf zekaya sahip yaratıcılarını alt etmesi pek de zor olmayacaktır. En nihayetinde bir süperzeka, sadece "zeki" olan insanlardan çok daha verimli ve hızlı bir şekilde kararlar alabilecek ve insanların yapmayı atmayı düşüneceği hemen her adımı öngörebilecektir.
Ayrıca bir süperzeki yapay zekanın düzeltilmek üzere kapatılmasının istenmesinin tek nedeni küresel bir yıkım yaratması olmak zorunda da değildir. Günlük hayatımızda karşılaştığımız ahlaki anlaşmazlıkları düşünecek olursak, yapay zeka sistemlerinde kime ait değer ve amaçların kullanılması gerektiği önemli bir soru olarak ortaya çıkmaktadır. Örneğin bir toplumda kadınlara daha az değer veriliyorsa, o toplumdan çıkacak süper yapay zekaların (veya o toplum içinde çalışacak süper yapay zekaların) kadınları kötüye kullanması kabul edilebilir midir? Yapay zekanın alacağı kararları yönlendirecek olan ahlâki pusular, batılı toplumların değerleriyle mi örtüşecektir, doğulu toplumlarınkiyle mi? Bunların örtüştüğü durumlarda mesele yok; ama çakıştığı durumlarda hangisi öncelikli olacak? Evrensel ahlâki değerlerin olmadığı bir ortamda, evrensel olarak kullanılabilecek süperzeki yapay zeka sistemlerinden söz edilebilir mi?
Evrim Ağacı'nın çalışmalarına Kreosus, Patreon veya YouTube üzerinden maddi destekte bulunarak hem Türkiye'de bilim anlatıcılığının gelişmesine katkı sağlayabilirsiniz, hem de site ve uygulamamızı reklamsız olarak deneyimleyebilirsiniz. Reklamsız deneyim, sitemizin/uygulamamızın çeşitli kısımlarda gösterilen Google reklamlarını ve destek çağrılarını görmediğiniz, %100 reklamsız ve çok daha temiz bir site deneyimi sunmaktadır.
KreosusKreosus'ta her 10₺'lik destek, 1 aylık reklamsız deneyime karşılık geliyor. Bu sayede, tek seferlik destekçilerimiz de, aylık destekçilerimiz de toplam destekleriyle doğru orantılı bir süre boyunca reklamsız deneyim elde edebiliyorlar.
Kreosus destekçilerimizin reklamsız deneyimi, destek olmaya başladıkları anda devreye girmektedir ve ek bir işleme gerek yoktur.
PatreonPatreon destekçilerimiz, destek miktarından bağımsız olarak, Evrim Ağacı'na destek oldukları süre boyunca reklamsız deneyime erişmeyi sürdürebiliyorlar.
Patreon destekçilerimizin Patreon ile ilişkili e-posta hesapları, Evrim Ağacı'ndaki üyelik e-postaları ile birebir aynı olmalıdır. Patreon destekçilerimizin reklamsız deneyiminin devreye girmesi 24 saat alabilmektedir.
YouTubeYouTube destekçilerimizin hepsi otomatik olarak reklamsız deneyime şimdilik erişemiyorlar ve şu anda, YouTube üzerinden her destek seviyesine reklamsız deneyim ayrıcalığını sunamamaktayız. YouTube Destek Sistemi üzerinde sunulan farklı seviyelerin açıklamalarını okuyarak, hangi ayrıcalıklara erişebileceğinizi öğrenebilirsiniz.
Eğer seçtiğiniz seviye reklamsız deneyim ayrıcalığı sunuyorsa, destek olduktan sonra YouTube tarafından gösterilecek olan bağlantıdaki formu doldurarak reklamsız deneyime erişebilirsiniz. YouTube destekçilerimizin reklamsız deneyiminin devreye girmesi, formu doldurduktan sonra 24-72 saat alabilmektedir.
Diğer PlatformlarBu 3 platform haricinde destek olan destekçilerimize ne yazık ki reklamsız deneyim ayrıcalığını sunamamaktayız. Destekleriniz sayesinde sistemlerimizi geliştirmeyi sürdürüyoruz ve umuyoruz bu ayrıcalıkları zamanla genişletebileceğiz.
Giriş yapmayı unutmayın!Reklamsız deneyim için, maddi desteğiniz ile ilişkilendirilmiş olan Evrim Ağacı hesabınıza üye girişi yapmanız gerekmektedir. Giriş yapmadığınız takdirde reklamları görmeye devam edeceksinizdir.
İşte bu tür sorulara daha genel cevaplar verebileceğimiz noktaya gelene kadar, sorulması gereken soru şudur: Yazılımcılar ne tür önlemler alarak, süperzekanın yıkıcı ve kötücül davranışlar geliştirmesini önleyebilirler?
Yapay Zeka ve Değer Hizalama Problemi
Yapay zeka sistemleri insana fayda sağlayacak işlevleri yerine getiriyor olsa da, doğru davranışsal eğilimlere sahip olduğundan ve daha önemlisi gelecekte de olacağından emin olabilmek kolay değildir. En başında bir yapay zeka sistemi hedeflenen amaca yönelik çalışıyor bile olsa, bu sistemlerin gelişmeye ve öğrenmeye açık olduğu düşünülecek olursa, bu amaçların sabit kalacağını söylemek zordur. Bu da, yapay zekanın insani değerler ile ne kadar uyumlu hareket edebileceği konusunda geleceğe dönük oldukça büyük bir sorunu ortaya çıkarmaktadır.
İngiliz bilgisayar bilimci Stuart Jonathan Russell, bu duruma değer hizalama problemi adını vermiştir. Basit olarak değer hizalama; oldukça otonom olan yapay zeka sistemlerinin, operasyonları boyunca amaç ve davranışları bakımından insani değerlerle uyumlu olacak şekilde tasarlanmasını ifade eder. Ayrıca yalnızca insanlar için faydalı olan faaliyetlerin sürdürülmesine izin veren bir akıllı ajan özelliği olarak tanımlanır.
Sapkın Enstantane: Yanlışlıkla Bir Canavar Yaratmak...
Otonom ve süperzeki yapay zeka sistemlerinin kontrolden çıkması için illâ kötücül bir şekilde programlanmaları şart değildir; hiç kimse farkında olmadan tamamen hatalı görevler de verebiliriz ve bir felakete neden olabiliriz.[6] Örneğin daha önceden Amerikan Yapay Zekanın İlerleyişi Derneği başkanlığını yapmış iki önemli isim (Tom Dietterich ve Eric Horvitz), bu konudaki endişeyi şöyle anlatıyorlar:
İnsanlarla etkileşim hâlindeki herhangi bir yapay zeka sisteminin önemli parçalarından biri, motamot ve literal bir şekilde emirlerini yerine getirmektense, insanların yapmak istedikleri şeyi mantıklama yoluyla çözebilmektir.
Daha basit sistemlerde bu kritik bir risk yaratmayabilir; ancak buna rağmen, daha şimdiden yapay zeka sistemleri insanları öldürmeye veya onlara zarar vermeye başlamıştır. Örneğin 2015 yılında Almanya'da bir işçi, Volkswagen fabrikasındaki bir robot tarafından ezilerek öldürülmüştür. Robot, işçiyi bir araç parçası zannetmiştir; ancak yapılan incelemede, hatanın sebebinin insan kaynaklı olabileceği de görülmüştür.[7] 2016 yılında Microsoft tarafından hayata getirilen Tay isimli bir sohbet robotu, kısa sürede ırkçı ve seksist bir dil kullanmaya başlamıştır.
Ancak yapay zeka yazılımları gelişip, otonomluk ve esneklik kazandıkça bu sorun eksponansiyel olarak büyüyecektir.[8] Bu sorunların başında, sapkın enstantane problemi (İng: "the problem of perverse instantiation")gelmektedir: Bir yapay zeka daha zeki ve daha becerikli hâle geldikçe, kendisinden yapılması istenen işi en üst seviyede tatmin etmek için giderek daha istenmedik kısayollar keşfedebilecektir. Buna iki örnek verelim:
- "Gelecekte elde etmesi beklenen başarısını maksimize etmesi" istenen bir süperzeki yapay zeka, maksimum güce ulaşmak için davranışları kolay kolay öngörülemeyen insanları yok ederek Dünya'nın yüzeyini bir kale ile kaplayarak, en düşük olasılıklı uzaylı saldırılarına karşı bile hazırlıklı bir şekilde kendini savunabilir. Buna enstrümantel yakınsama (İng: "instrumental convergence") denir.
- "İnsan mutluluğunu maksimize etmesi" istenen bir süperzeki yapay zeka, insanların beyinlerindeki keyif alma bölgelerine elektrotlar yerleştirerek veya insan bilinçlerini makinalara yükleyerek, Evren'i sanal insan kopyalarıyla doldurabilirler ve her birini 3-5 saniyelik döngülerle mutluluğun zirvesine çıkarabilirler.
Bu örnekler ilk etapta kulağa ekstrem gelse de, sorunu matematiksel olarak göstermek mümkündür:[6]
nn adet değişkenden oluşan bir fonksiyonu optimize etmeye çalışan bir sistemde görev, k<nk<n şeklindeki bir alt kümeye bağlıysa, sistem genellikle sınırlı olmayan değişkenlere ekstrem değerler atayacaktır. Eğer o sınırsız değişkenlerden biri bizim değer verdiğimiz bir şeyse, elde edilen sonuç fazlasıyla istenmedik olabilir. Bu; lambadaki cin, büyücünün çırağı veya Kral Midas öyküsünde gördüğümüz olaydır: Tam olarak söylediğiniz şeyi alırsınız, gerçekte istediğinizi değil. Bu, ufak bir problem değildir.
Anlayacağınız Russell, yapay zeka sistemlerinin değer hizalaması problemini Kral Midas hikayesine benzetmektedir: Şarap tanrısı Dionisos, kralın bir dileğini gerçekleştireceğini söylediğinde, Kral Midas, dokunduğu her şeyin altına dönüşmesini istemiştir. Dileği gerçek olduğunda yemek için dokunduğu yiyecek ve içecekler, hatta kendisine ait ünlü gül bahçesi bile altına dönüşmüştür. Ardından bu korkunç gücün kendisinden alınmasını istemiştir. Aslında Midas bu dileği ile yalnızca zengin olmayı düşünmüştü, ama işler hiç de beklediği gibi olmamıştı.
İşte bizler ve yapay zeka arasındaki durum da buna benzetilebilir. Yapay zeka sistemleri, tasarımcısının isteklerini yerine getirirken insana ve ona ait süreçlere zarar vermeden gerçekleştirecek şekilde yapılandırılmalıdır. Şu anda halihazırda kullandığımız yapay zeka sistemleri çoğunlukla istenilen noktaya ulaşmak konusunda başarılıdır. Fakat bunu yaparken bir insanın sahip olduğu gibi ahlaki değerlere sahip değildir. İşte tam bu noktada yapay zekanın neden insani değerlerle uyumlu olması gerektiği ortaya çıkmaktaıdr. Russell’ın UC Berkeley’deki meslektaşı Anca Dragan şöyle diyor:
Robotlar insanlığa karşı isyan etmeye çalışmayacak. Sadece onlardan yapmalarını istediğimiz şeyi optimize etmeye çalışacaklar. Tam da bu sebepten bu sistemlere ‘gerçekten’ istediğimiz dünya için optimizasyon yapmalarını söylediğimizden emin olmalıyız.
Eğer optimize etmelerini istediğimiz şeyin optimizasyonu, öngöremeyeceğimiz bir şekilde felakete sebep olacaksa, yapay zeka bir kez optimizasyon sürecine başladığında onu durduramayabiliriz. Bu nedenle yapay zekanın, bizim isteklerimizi tam olarak anlayabilmesi ve sahip olduğumuz değerlere uyumlu hale getirilmesi oldukça önemlidir.
Ne var ki günümüzdeki yapay zeka sistemlerinin pek azı güvenlik ilkeleri gözetilerek tasarlanmaktadır. 2017 yılında DeepMind tarafından yayınlanan AI Safety Gridworlds, yapay zeka algoritmalarını 9 kategori çerçevesinde güvenlik açısından sınamaktadır. DeepMind tarafından yapılan incelemede, var olan algoritmaların neredeyse tamamının bu testte başarısız oldukları gösterilmiştir; çünkü bu yazılımların büyük bir kısmında güvenlik ilkeleri gözetilmemektedir. Elbette, bu algoritmaların aynı zamanda neredeyse hiçbiri kontrolden çıkabilecek yazılımlar değillerdir; dolayısıyla insanları köleleştirmeleri beklenmemektedir. Bu tür yapay zeka yönergelerine uyabilecek algoritmalar, muhtemelen gelecekte yazılacak ve bugünkü algoritmaların baştan yaratılmasıyla elde edilen yazılımlar olacaklardır. O gün geldiğinde, bu güvenlik yönergelerinin o algoritmaların kalbinde yer aldığından emin olmamız gerekmektedir.
Hizalama İlkeleri
Yapay zeka sistemlerinin, kendilerine verilen talimatları Kral Midas hikayesinde olduğu gibi son derece literal bir şekilde, harfi harfine takip etmesini istemediğimiz konusunda yapay zeka araştırmacıları arasında kısmen bir fikir birliği bulunmaktadır. Yine de sorunlar bundan ibaret değildir.
Örneğin herhangi bir yapay zekadan, yapmayı düşündüğümüz şeyi mi yapmasını isteriz yoksa bizim için en iyi olanı yapmasını mı? Beklentilerimizin açıkça anlaşılamadığı bir yapay zeka sayesinde istediğimiz şeye temelde ulaşmış ama daha kötü durumlar içine girmiş olabiliriz. Elbette bunun tersi durumlar da olabilir: Gerçekten yapmayı düşündüğümüz şeyi gerçekleştiren bir yapay zeka, insan değerleriyle uyumlu halde çalışarak ve bu değerleri önceliklendirerek hareket ettiğinde, bireysel beklentilerimiz konusunda oldukça yetersiz kalabilir. Ya da daha beklenmedik durumlar oluştuğunda, yapay zekaların çok hızlı çalıştığını düşündüğümüzde, yine bu durumlarda etik davranmak konusunda başarısız olabilir. Bu yüzden yalnızca yapay zekanın insani değerlerle uyumlu hale getirilmesi yetersiz de olabilir. Aynı zamanda öngörülemeyen durumlar için, anlık olarak bir insan tarafından talimat verilmediğinde de doğru kararlar alabilmesi gerekir.
Konuyu biraz daha basite indirgemek için şu örneği verelim: MIT Moral Machine testi, sizi bir aracın sürücüsü yerine koyarak ne gibi kararlar vereceğinizi görmek için çeşitli kaza senaryoları oluşturuyor. Basit bir ahlak testi gibi gözükse de günümüzde de popüler hale gelen akıllı arabalar düşünüldüğünde gelecekte bu kararların bizler yerine araçlar tarafından verileceği de öngörülebilir bir gerçektir. Buna benzer oldukça önemli kararlar vermek insanlar için bile oldukça zor olsa da bunun gibi testler yapay zekanın insani değerlerle uyumlu hale getirilmesinde kullanılabilecek önemli veriler oluşturabilir.
Ahlak testi örneğinden de anlaşılacağı gibi insanlar birbirinden farklı birçok ahlaki tercihte bulunabilir.[9], [1] Böyle olmasaydı bile, yani yalnızca tek bir ahlak teorisinin doğru olduğuna büyük bir güven duymuş olsaydık, bu sefer de bu gerçeği başka bir tutum sergileyen insanlara iletmenin zorluğu ile karşı karşıya kalacaktık. Filozof John Rawls’ın ifade ettiği gibi, insanlar değer konusunda çok çeşitli makul, fakat zıt inançlara sahiptir. Bu açıdan yapay zeka sistemlerinin tek bir ahlak teorisine uyumlu hale getirilmesi durumunda da bu düşünceden uzak birçok insana bu değerlerin dayatıldığı bir durum söz konusu olabilir. Elbette bu düşünce ve sorular, insanların özgür ve eşit olduğu inancından dolayı ortaya çıkmaktadır. Ahlakın temel doğası hakkında herhangi bir anlaşmaya varılamasa da belirli bir konu hakkında ortak uygun değerler üzerinde bir anlaşma sağlanabilmelidir. Uzlaşılmış bu fikirler yapay zeka üzerinde uygulanmak için farklı şekillerde belirlenebilir.
Cehalet Örtüsü ve Varsayımsal Anlaşma
Bu düşünce, çoğulcu değer uyumuna yönelik bir yaklaşımdır. Halihazırda üzerinde anlaşmaya varılan değerlerle değil, kimsenin görüşlerini bir başkasına empoze edemeyeceği bir konumdayken uzlaşmaya varılan değerlerle ilgilenir.
Cehalet örtüsü (İng: "veil of ignorance"), John Rawls tarafından ortaya atılmış bir kavramdır. Bu görüşe göre; farklı değer ve bakış açılarına sahip bir grup insan, bireylere verilecek haklar hakkında karar verecektir. Bu ilkeleri belirlerken sahip oldukları kimliklerden arınacak ve ilkelerin belirlenmesinden sonra hangi toplumda kim olacaklarını, hangi ahlaki tutuma sahip olacaklarını bilmeyeceklerdir. Sonuçta bu bilgilere sahip olmayan karar vericiler eşit ve adil kararlar vermek durumunda kalacaktır. Söz konusu kavrama benzer bir yaklaşım yapay zeka ilkelerinin belirlenmesinde de kullanılabilir.
Bu yaklaşım ile karar vericiler muhtemelen başlangıç olarak yapay zekanın, kaza ve yanlış kullanım gibi riskli durumları azaltacak şekilde tasarlanması gerektiğinde fikir birliği sağlayacaktır. Ayrıca kimsenin fayda sağlayamadığı eylem ve faaliyetlerin de çıkarılmasını isteyeceklerdir.
Küresel Kamu Ahlakı ve İnsan Hakları
Birbirinden farklı toplumların farklı kamusal adalet anlayışlarına sahip olduğu düşünüldüğünde, küresel ilkelerin benimsenmediği bir durumda farklı problemler ortaya çıkabilir. Örneğin belirli bir bölgeyi yöneten kişinin yapay zekayı nasıl kullanacağı konusunda kişisel bir hak elde etmesi birçok soruna yol açabilir. Baskıcı ve zararlı uygulamalar toplumun çoğunluğu tarafından destekleniyor olsa bile teknolojiler üzerinde belirli kısıtlamalar oluşturmak gerekebilir.
Toplumlar birbirinden farklı kültüre, inanca veya felsefeye sahip olsalar bile insanların hangi toplumda yaşadıkları fark etmeksizin hemfikir olduğu bazı düşünceler vardır. Bazı insan hakları farklı gruplar tarafından farklı nedenlerle benimsenebilir. Örneğin evrensel insan hakları bazı toplumlarda insan yaşamının kutsallığına inanıldığı için benimsenirken bazılarında bireyle devlet arasındaki sözleşmenin bir ürünü olarak düşünüldüğü için benimsenmiştir.
Bu nedenle insan hakları ile ilgili küresel olarak benimsenen ilkeler belirlenerek yapay zekanın insan haklarıyla uyumlu hale getirilmesi amaçlanabilir. Bu yaklaşımda karşılaşılan zorluk, elbette öncelikle bu hakların birey ve devletler arasındaki ilişkilerde uygulanması gerektiği olacaktır. Tüm bu fikirler ele alındığında yapay zeka hizalamasında bir fikir birliğinden bahsetmek erken olsa da bu tarz ilkeler üretme çabalarının kültürler arasında kapsayıcı olması ve rehberlik taşıması oldukça önemli olacaktır.
Değer Hizalamanın Önemi
Yapay zekanın dünya hakkında bilgi edinmek için büyük veriden faydalandığını ve bu zamana kadar ürettiğimiz veriler ile sonuca vardığını hatırlayalım. Ancak şimdiye kadarki tarihsel veriler, içinde yaşadığımız zamanı veya yapay zeka çalışmalarının uygulanacağı geleceği elbette temsil etmeyebilir, hatta etik olmayan sonuçlara sebep olabilir. Örneğin, bir işe alım modeli kadınlara veya azınlıklara karşı haksızlık oluşturacak bir sonuç ortaya çıkarabilir. Elbette yapay zeka insanlar arasında ayrımcılık yapmaz. Ancak geniş bir zamanda işe alınanların çoğunluğunun beyaz erkekler olduğunu bugüne kadar üretilmiş verilerden öğrenir ve bu modeli sürdürür. Bu örnek genişletildiğinde herhangi azınlık bir grup aslında belirli bir uygulama için tercih edilmesi gereken en uygun grup olsa bile adaletsiz bir sonuç ortaya çıkabilir.
Farklı bir örnek verecek olursak, Google Clips adındaki yeni bir teknoloji insanların hayatındaki önemli anları otomatik olarak yakalama fikri ile ortaya çıktı. Örneğin bebeğinin ilk adımlarını gören bir ebeveynin, anlık gerçekleşen bir olay olduğu için bu anı fotoğraflaması oldukça zordur. Herhangi bir odaya koyulan bu cihaz sayesinde bu özel anların otomatik olarak yakalanması fikri kulağa oldukça güzel geliyor. Ayrıca cihaz, makine öğrenimi sayesinde tanıdık yüzleri tanımlayabiliyor ve bu sayede neyi kaydetmesi gerektiğine karar verebiliyordu. Teoride oldukça iyi gibi gözükse de pratikte cihaz Google’ın vaat ettiklerini sunamadı. Birkaç haftalık testler kontrol edildiğinde özel denebilecek bir an ne yazık ki yakalanamadı. Cihazın çektiği 500’den fazla klipten belki yalnızca 10 tanesi başkalarıyla paylaşılabilecek düzeydeydi.
Bu örnekten de anlaşılacağı gibi yapay zekanın insan değerleriyle uyumlu hale getirilmesi yalnızca evrensel insan hakları gibi ciddi konular için de geçerli değil. İnsanların gerçekten ne istediğini, neyi sevdiğini ya da beklentilerini anlamayan bir yapay zeka elbette ortaya herhangi bir değer çıkaramayacaktır. Tabi ki şimdilik mükemmel olmasını beklemiyoruz ama insandan daha iyi, daha hızlı veya daha doğru olduğu sürece yeterli olacaktır.
Sonuç
Yapay zeka sistemlerinin faydalı olabilmesi için insan değerleriyle uyumlu olması tartışılamaz bir gerçektir. Elbette toplum ve kültürler arasındaki farklı ahlaki tutumlar ve hatta aynı toplumda yaşayan insanlar arasındaki farklı inançlar hatırlandığında yapay zekayı insan değerleriyle uyumlu hale getirmek oldukça zor olacaktır. Kaldı ki biz, bu yazımızda değer hizalamayı yalnızca felsefi yönüyle ele aldık. Bu ilkelerin yapay zeka üzerinde teknik olarak uygulanmasında da farklı problemler ile karşılaşılacaktır.
Lousville Üniversitesi’nde yapay zeka konusundaki çalışmaları ile bilinen bilgisayar bilimci Roman Yampolskiy’in ifade ettiğine göre, programlama dilinde insani değerleri kodlamak çok zordur. İnsanlık olarak ortak değerler üzerinde hemfikir olamadığımız ve zaman içinde hemfikir olduğumuz konularda dahi zamanla değişimler yaşandığı gerçeği, değer hizalama sorununu daha da zorlaştırmaktadır.
Yine de tüm bu sorunlara rağmen yapay zekayı ahlaki ilkelere uymaya ve bu tarz ilkeler yaratmaya zorlamak oldukça önemlidir. Gelecekte çok daha büyük gelişmelerin yaşanacağı kaçınılmaz olduğundan bu problemlerin şimdiden farkına vararak yeni teoriler üretmek oldukça yararlı olacaktır. Ayrıca yapay zeka sistemleri mutlaka ahlaki olarak hareket etmese bile potansiyel olarak ahlaki olmayan bazı tercihlerden vazgeçilmesi sağlanabilir. Henüz insanlık bunu başaramadıkça yapay zekayı da henüz kendisinin dahi emin olmadığı değerlere uyumlu hale getirmek oldukça zor olacağından, en azından şimdilik açıkça ahlaksız olan şeyler üzerinde bir anlaşmaya varmamız gerekiyor olabilir.
İçeriklerimizin bilimsel gerçekleri doğru bir şekilde yansıtması için en üst düzey çabayı gösteriyoruz. Gözünüze doğru gelmeyen bir şey varsa, mümkünse güvenilir kaynaklarınızla birlikte bize ulaşın!
Bu içeriğimizle ilgili bir sorunuz mu var? Buraya tıklayarak sorabilirsiniz.
Soru & Cevap Platformuna Git- 5
- 3
- 3
- 2
- 1
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- ^ a b B. Christian. (2021). The Alignment Problem. ISBN: 9781786494320. Yayınevi: Atlantic Books.
- ^ S. Russell. (2019). Human Compatible: Artificial Intelligence And The Problem Of Control. ISBN: 9780525558620. Yayınevi: Viking.
- ^ N. Bostrom. (2014). Superintelligence: Paths, Dangers, Strategies. ISBN: 9780199678112. Yayınevi: Oxford University Press.
- ^ R. Yampolskiy. (2012). Leakproofing The Singularity Artificial Intelligence Confinement Problem. Journal of Consciousness Studies. | Arşiv Bağlantısı
- ^ BBC News. Google Developing Kill Switch For Ai. (8 Haziran 2016). Alındığı Tarih: 21 Ocak 2022. Alındığı Yer: BBC News | Arşiv Bağlantısı
- ^ a b S. J. Russell, et al. (2010). Artificial Intelligence. ISBN: 9780136042594. Yayınevi: Prentice Hall.
- ^ B. Guarino. ‘Press The Big Red Button’: Computer Experts Want Kill Switch To Stop Robots From Going Rogue. (9 Haziran 2016). Alındığı Tarih: 21 Ocak 2022. Alındığı Yer: The Washington Post | Arşiv Bağlantısı
- ^ D. G., et al. (2015). Rise Of Concerns About Ai. Communications of the ACM, sf: 38-40. doi: 10.1145/2770869. | Arşiv Bağlantısı
- ^ I. Gabriel. (2020). Artificial Intelligence, Values, And Alignment. Minds and Machines, sf: 411-437. doi: 10.1007/s11023-020-09539-2. | Arşiv Bağlantısı
- M. C. Tai. (2020). The Impact Of Artificial Intelligence On Human Society And Bioethics. Tzu Chi Medical Journal, sf: 339. doi: 10.4103/tcmj.tcmj_71_20. | Arşiv Bağlantısı
- M. Sutrop. (2020). Challenges Of Aligning Artificial Intelligence With Human Values. Department of Law - Tallinn University of Technology, sf: 54-72. doi: 10.11590/abhps.2020.2.04. | Arşiv Bağlantısı
- S. Han, et al. (2021). Aligning Artificial Intelligence With Human Values: Reflections From A Phenomenological Perspective. AI & SOCIETY, sf: 1-13. doi: 10.1007/s00146-021-01247-4. | Arşiv Bağlantısı
- D. Hendrycks, et al. (2020). Aligning Ai With Shared Human Values. ResearchGate. | Arşiv Bağlantısı
- J. Anderson, et al. Artificial Intelligence And The Future Of Humans. (10 Aralık 2018). Alındığı Tarih: 20 Ocak 2022. Alındığı Yer: Pew Research Center: Internet, Science & Tech | Arşiv Bağlantısı
- A. Conn. How Do We Align Artificial Intelligence With Human Values? - Future Of Life Institute. (3 Şubat 2017). Alındığı Tarih: 20 Ocak 2022. Alındığı Yer: Future of Life Institute | Arşiv Bağlantısı
- A. Conn. Artificial Intelligence And The King Midas Problem - Future Of Life Institute. (12 Aralık 2016). Alındığı Tarih: 20 Ocak 2022. Alındığı Yer: Future of Life Institute | Arşiv Bağlantısı
- N. Piet. Ux Challenges For Ai/Ml Products [3/3]: Value Alignment. (15 Mart 2021). Alındığı Tarih: 20 Ocak 2022. Alındığı Yer: Medium | Arşiv Bağlantısı
- J. Peters. Google Clips Is Dead. (16 Ekim 2019). Alındığı Tarih: 20 Ocak 2022. Alındığı Yer: The Verge | Arşiv Bağlantısı
Evrim Ağacı'na her ay sadece 1 kahve ısmarlayarak destek olmak ister misiniz?
Şu iki siteden birini kullanarak şimdi destek olabilirsiniz:
kreosus.com/evrimagaci | patreon.com/evrimagaci
Çıktı Bilgisi: Bu sayfa, Evrim Ağacı yazdırma aracı kullanılarak 21/11/2024 12:00:29 tarihinde oluşturulmuştur. Evrim Ağacı'ndaki içeriklerin tamamı, birden fazla editör tarafından, durmaksızın elden geçirilmekte, güncellenmekte ve geliştirilmektedir. Dolayısıyla bu çıktının alındığı tarihten sonra yapılan güncellemeleri görmek ve bu içeriğin en güncel halini okumak için lütfen şu adrese gidiniz: https://evrimagaci.org/s/11367
İçerik Kullanım İzinleri: Evrim Ağacı'ndaki yazılı içerikler orijinallerine hiçbir şekilde dokunulmadığı müddetçe izin alınmaksızın paylaşılabilir, kopyalanabilir, yapıştırılabilir, çoğaltılabilir, basılabilir, dağıtılabilir, yayılabilir, alıntılanabilir. Ancak bu içeriklerin hiçbiri izin alınmaksızın değiştirilemez ve değiştirilmiş halleri Evrim Ağacı'na aitmiş gibi sunulamaz. Benzer şekilde, içeriklerin hiçbiri, söz konusu içeriğin açıkça belirtilmiş yazarlarından ve Evrim Ağacı'ndan başkasına aitmiş gibi sunulamaz. Bu sayfa izin alınmaksızın düzenlenemez, Evrim Ağacı logosu, yazar/editör bilgileri ve içeriğin diğer kısımları izin alınmaksızın değiştirilemez veya kaldırılamaz.