İnsanlar, Yapay Zekaya ve Robotlara Neden Güvenmiyor?
- İndir
- Dış Sitelerde Paylaş
Yapay zeka üzerine kurulu teknolojiler insan hayatını kökten değiştirmektedir. Bu makineler günlük hayatımızla gitgide bütünleştikçe, onların vereceği kararlar da sadece faydacı olmanın ötesine geçip ahlaki bir hâl alacaktır. Kaçınılmaz bir kaza ile karşı karşıya kaldığında, sürücüsüz bir araba yolcuları mı korumalıdır, yoksa toplamda kaybedilecek canları en aza indirgemenin yollarını mı aramalıdır? İnsansız bir hava aracı, sonucunda sivil kayıplar olsa bile, saldırı düzenleyen teröristleri vurmalı mıdır? Yapay zekaya sahip olan makineler bağımsız hale geldikçe, bu tür soruları göz ardı etmek imkansızlaşmaktadır.
Bazı ahlaki kararların neden bilgisayarlara bırakılması gerektiğine dair güçlü iddialar bulunmaktadır. İnsanlardan farklı olarak, makineler bilişsel önyargılar tarafından yanlış yönlendirilmezler, yorgunluk hissetmezler ve bir düşmana karşı nefret beslemezler. Etik bir yapay zeka, ilke olarak ideal bir ahlak temsilcisinin değerlerini ve kurallarını yansıtacak biçimde programlanabilir. İnsan kısıtlamalarından arınmış olan bu tür makinelerin, biz insanlardan daha iyi ahlaki kararlar verdiği bile söylenebilir. Ancak bir makinenin ahlaki karar verme sürecinde özgür bir şekilde hüküm süreceği fikri pek çok insanı tedirgin etmektedir. Öyle ki, kimisi için makinelerin kullanımı insan onuruna karşı önemli bir tehdit oluşturmaktadır. Peki, iş ahlaki kararlar vermeye gelince neden makinelere güvenmekten çekiniyoruz? Bir psikoloji araştırması bize şu ipucunu veriyor: Bilgisayarlar gibi fayda ve zararları hesaplayarak ahlaki kararlar veren bireylere karşı temel bir güvensizliğimiz var gibi görünüyor.
Bu bulgular, felsefede uzun süredir devam eden ve ahlaki kararlar alınırken yapılması gereken asıl şeyin sonuçları hesaplamak olduğunu savunan gelenekle hiç de uyumlu değildir. Sonuççuluk olarak da adlandırılan bu düşünce ekolü, bir kararın ancak ve ancak daha iyi sonuçlara yol açması halinde ahlaki anlamda doğru bir karar olduğunu savunur. Ancak filozof olmayan pek çok insan ahlaki yargıya böyle bir yaklaşımı yetersiz bulur. Bunun yerine insanların ahlaki sezgisi, iyi sonuçlar doğursa bile belirli eylemlerin “kesinlikle yanlış” kabul edildiği birtakım ahlaki kurallara uyma eğilimindedir.
Sonuççuluğa karşı hissedilen bu hoşnutsuzluk, katılımcılara sonuççuluk ile daha kurala dayalı ahlakı karşı karşıya getiren varsayımsal ahlaki ikilemlerin verildiği birkaç çalışmada gözlemlenmiştir. Örneğin "Tren İkilemi"nde katılımcılara kontrolden çıkmış bir trenin, tren raylarında mahsur kalan 5 masum insana doğru ve onları kesinlikle öldürecek şekilde hareket ettiği söylenir. Trenin ilerleyişi, küçük bir üstgeçitten aşağıdaki raylara bakan iri bir adamın aşağıya -diğer 5 kişiyi öldürmeden önce vücudunun treni durduracağı yere- ölümüne itilmesiyle durdurulabilir. Çoğu insan, iyi sonuçlarına rağmen bu durumda üstgeçitteki adamı aşağıya itmenin yanlış olduğuna inanır.
Peki, o zaman, "çoğunluğun iyiliği" için soğukkanlılıkla bir kişinin canını feda etmeye hazır olan azınlığa ne gözle bakıyoruz? 2016’da Journal of Experimental Psychology dergisinde yayınlanan bir makalede, toplumsal ilişkiler söz konusu olduğunda sonuççuluğun bir zaaf olabileceğine dair kanıtlar sunduk. Diğer bir deyişle sonuççu biri olmak insanları diğer insanlar tarafından daha az sevilen bireyler haline getiriyor.
Bazen daha kötü sonuçlar doğurabilecek olmasına rağmen belirli ahlaki kurallara bağlı kalan insanların sosyal partner olarak tercih edildiği sonucuna vardık. Bu oldukça mantıklıdır çünkü bir arkadaş veya partnerin aldatma, yalan söyleme veya çoğunluğun iyiliği için birini ölüme sürüklemenin fayda ve zararlarını hesaplaması düşüncesi bize ters düşmektedir. Kurallara dayalı kararlarımız, diğer insanlara karşı davranış şekillerimizde belirli duygusal tepkilerimizin rol oynadığını kısmen de olsa gösterdiği için bağlılıklarımıza ilişkin önemli bir işarettir.
2400'den fazla katılımcı ile 9 deney sonucunda tam olarak şu sonuçlara ulaştık: Tren İkilemi de dahil olmak üzere feda etmeye dayalı birtakım ahlaki ikilemlerde kurallara dayalı yaklaşımı tercih eden insanlar, kararlarını bir eylemin sonuçlarına dayandıran kişilerden daha güvenilir olarak görülmektedir. Mutlak ahlaki kurallara bağlı kalmak insanlara maddi bir fayda da sağlamaktadır. Güveni test etmek için tasarlanmış ekonomi ile ilgili bir oyunda katılımcıların sonuçlara dayalı olarak ahlaki kararlar veren kişilere nazaran çoğunluğun iyiliği için birini feda etmeyi reddeden insanlarla muhatap oldukları zaman daha fazla para verdikleri ve verdikleri parayı geri alacaklarına daha çok güvendikleri sonucuna vardık.
Ancak sonuççu olan kişilerin hepsi toplumdan eşit oranda dışlanmamışlardır. Çoğunluğu korumak için bir kişiyi feda etmeyi desteklemenin kendileri için zor olduğunu belirtenlere de, böyle yapmanın asla kabul edilebilir olmadığını söyleyen kararlı kişilere güvenildiği kadar güvenilmiştir. Böyle durumlarda karar çatışmasının varlığı, kişi hakkında olumlu bir işaret olarak görülmüş, belki de kişinin kararına rağmen ahlaki kuralları da uygulama zorunluluğunu hissettiğini göstermiştir.
Peki, bu bulguların robotlarla ne ilgisi var? Birincisi bu bulgular, ahlak söz konusu olduğunda makinelere olan güvensizliğimizin olası bir nedenine dikkat çekmektedir: Yapay zeka, başkalarının güvenilir olup olmadığını ayırt etmekte kullandığımız özelliklerden yoksundur. Sonuçları ne olursa olsun insanların belirli ahlaki kurallara -tartışmaya açık da olsa- mantıksız bir şekilde bağlı kalmasını ve ahlaki kararları verirken suçluluk ve empati gibi sosyal duygularla yönlendirilmesini tercih ederiz. Kurallara aşırı bağlı olmak insan psikolojisine dair önemli ipuçları verir. Makineler insanların ahlaki yargılarını kusursuz bir şekilde taklit edebilse bile, onların bu yargılara bizimle aynı sebeplerden ötürü varmadığını biliriz. Verecekleri karar ne olursa olsun, robotların hesaplama yaparak karar verme yöntemi, insanların ahlak bağlamında güvenilmez buldukları bir şeydir. İnsan Hakları İzleme Örgütü’nün en son raporu da Katil Robot yaratmayı amaçlayan araştırmanın ertelenmesi gerektiğini savunmuştur çünkü bu tarz robotlar, “insanların bir başka insanı öldürmelerini veya incitmelerini engelleyen içgüdüye” sahip değillerdir.
Başka bir deyişle, makinelerin doğru ve hatta ideal kararlar vermesi bizim için yeterli olmayabilir. Bu kararların, onları vermemizi sağlayan psikolojik süreçlerle aynısının bir sonucu olarak, yani bizi ayırt edilebilir şekilde ahlaki varlıklar haline getiren duygusal tepkiler ve sezgisel yanıtların sonucundaverilmesini istiyoruz. Teknoloji bu başarıyı elde edene kadar, ahlaki anlamda bağımsız makine yapmaya yönelik herhangi bir girişim kuşkuyla karşılanacaktır. Belki de sorunun aslında robotlarda değil de kendi psikolojimizde yattığının farkına varırız.
Teşekkür: Bu yazıyı çeviren Melike Sultan İşcan ve Büşra Nur Güner'e teşekkür ederiz.
İçeriklerimizin bilimsel gerçekleri doğru bir şekilde yansıtması için en üst düzey çabayı gösteriyoruz. Gözünüze doğru gelmeyen bir şey varsa, mümkünse güvenilir kaynaklarınızla birlikte bize ulaşın!
Bu içeriğimizle ilgili bir sorunuz mu var? Buraya tıklayarak sorabilirsiniz.
İçerikle İlgili Sorular
Soru & Cevap Platformuna Git- 13
- 10
- 5
- 3
- 2
- 1
- 1
- 1
- 0
- 0
- 0
- 0
- Çeviri Kaynağı: The Guardian | Arşiv Bağlantısı
Evrim Ağacı'na her ay sadece 1 kahve ısmarlayarak destek olmak ister misiniz?
Şu iki siteden birini kullanarak şimdi destek olabilirsiniz:
kreosus.com/evrimagaci | patreon.com/evrimagaci
Çıktı Bilgisi: Bu sayfa, Evrim Ağacı yazdırma aracı kullanılarak 10/12/2024 23:56:15 tarihinde oluşturulmuştur. Evrim Ağacı'ndaki içeriklerin tamamı, birden fazla editör tarafından, durmaksızın elden geçirilmekte, güncellenmekte ve geliştirilmektedir. Dolayısıyla bu çıktının alındığı tarihten sonra yapılan güncellemeleri görmek ve bu içeriğin en güncel halini okumak için lütfen şu adrese gidiniz: https://evrimagaci.org/s/5279
İçerik Kullanım İzinleri: Evrim Ağacı'ndaki yazılı içerikler orijinallerine hiçbir şekilde dokunulmadığı müddetçe izin alınmaksızın paylaşılabilir, kopyalanabilir, yapıştırılabilir, çoğaltılabilir, basılabilir, dağıtılabilir, yayılabilir, alıntılanabilir. Ancak bu içeriklerin hiçbiri izin alınmaksızın değiştirilemez ve değiştirilmiş halleri Evrim Ağacı'na aitmiş gibi sunulamaz. Benzer şekilde, içeriklerin hiçbiri, söz konusu içeriğin açıkça belirtilmiş yazarlarından ve Evrim Ağacı'ndan başkasına aitmiş gibi sunulamaz. Bu sayfa izin alınmaksızın düzenlenemez, Evrim Ağacı logosu, yazar/editör bilgileri ve içeriğin diğer kısımları izin alınmaksızın değiştirilemez veya kaldırılamaz.
This work is an exact translation of the article originally published in The Guardian. Evrim Ağacı is a popular science organization which seeks to increase scientific awareness and knowledge in Turkey, and this translation is a part of those efforts. If you are the author/owner of this article and if you choose it to be taken down, please contact us and we will immediately remove your content. Thank you for your cooperation and understanding.