Paylaşım Yap
Tüm Reklamları Kapat

İnsanlar, Yapay Zekaya ve Robotlara Neden Güvenmiyor?

5 dakika
6,084
İnsanlar, Yapay Zekaya ve Robotlara Neden Güvenmiyor? Fortune
Evrim Ağacı Akademi: Yapay Zeka Felsefesi Yazı Dizisi

Bu yazı, Yapay Zeka Felsefesi yazı dizisinin 5 . yazısıdır. Bu yazı dizisini okumaya, serinin 1. yazısı olan " Yapay Zekanın Bilinç Kazanması Mümkün Olabilir mi? Eğer Mümkünse, Yapay Zeka Nasıl Bilinç Kazanabilir?" başlıklı makalemizden başlamanızı öneririz.

Yazı dizisi içindeki ilerleyişinizi kaydetmek için veya kayıt olun.

EA Akademi Hakkında Bilgi Al
Podcast
8:30
Emre Akman
Seslendiren
67
  • İndir
  • Dış Sitelerde Paylaş
Tüm Reklamları Kapat

Yapay zeka üzerine kurulu teknolojiler insan hayatını kökten değiştirmektedir. Bu makineler günlük hayatımızla gitgide bütünleştikçe, onların vereceği kararlar da sadece faydacı olmanın ötesine geçip ahlaki bir hâl alacaktır. Kaçınılmaz bir kaza ile karşı karşıya kaldığında, sürücüsüz bir araba yolcuları mı korumalıdır, yoksa toplamda kaybedilecek canları en aza indirgemenin yollarını mı aramalıdır? İnsansız bir hava aracı, sonucunda sivil kayıplar olsa bile, saldırı düzenleyen teröristleri vurmalı mıdır? Yapay zekaya sahip olan makineler bağımsız hale geldikçe, bu tür soruları göz ardı etmek imkansızlaşmaktadır.

Bazı ahlaki kararların neden bilgisayarlara bırakılması gerektiğine dair güçlü iddialar bulunmaktadır. İnsanlardan farklı olarak, makineler bilişsel önyargılar tarafından yanlış yönlendirilmezler, yorgunluk hissetmezler ve bir düşmana karşı nefret beslemezler. Etik bir yapay zeka, ilke olarak ideal bir ahlak temsilcisinin değerlerini ve kurallarını yansıtacak biçimde programlanabilir. İnsan kısıtlamalarından arınmış olan bu tür makinelerin, biz insanlardan daha iyi ahlaki kararlar verdiği bile söylenebilir. Ancak bir makinenin ahlaki karar verme sürecinde özgür bir şekilde hüküm süreceği fikri pek çok insanı tedirgin etmektedir. Öyle ki, kimisi için makinelerin kullanımı insan onuruna karşı önemli bir tehdit oluşturmaktadır. Peki, iş ahlaki kararlar vermeye gelince neden makinelere güvenmekten çekiniyoruz? Bir psikoloji araştırması bize şu ipucunu veriyor: Bilgisayarlar gibi fayda ve zararları hesaplayarak ahlaki kararlar veren bireylere karşı temel bir güvensizliğimiz var gibi görünüyor.

Bu bulgular, felsefede uzun süredir devam eden ve ahlaki kararlar alınırken yapılması gereken asıl şeyin sonuçları hesaplamak olduğunu savunan gelenekle hiç de uyumlu değildir. Sonuççuluk olarak da adlandırılan bu düşünce ekolü, bir kararın ancak ve ancak daha iyi sonuçlara yol açması halinde ahlaki anlamda doğru bir karar olduğunu savunur. Ancak filozof olmayan pek çok insan ahlaki yargıya böyle bir yaklaşımı yetersiz bulur. Bunun yerine insanların ahlaki sezgisi, iyi sonuçlar doğursa bile belirli eylemlerin “kesinlikle yanlış” kabul edildiği birtakım ahlaki kurallara uyma eğilimindedir.

Tüm Reklamları Kapat

Sonuççuluğa karşı hissedilen bu hoşnutsuzluk, katılımcılara sonuççuluk ile daha kurala dayalı ahlakı karşı karşıya getiren varsayımsal ahlaki ikilemlerin verildiği birkaç çalışmada gözlemlenmiştir. Örneğin "Tren İkilemi"nde katılımcılara kontrolden çıkmış bir trenin, tren raylarında mahsur kalan 5 masum insana doğru ve onları kesinlikle öldürecek şekilde hareket ettiği söylenir. Trenin ilerleyişi, küçük bir üstgeçitten aşağıdaki raylara bakan iri bir adamın aşağıya -diğer 5 kişiyi öldürmeden önce vücudunun treni durduracağı yere- ölümüne itilmesiyle durdurulabilir. Çoğu insan, iyi sonuçlarına rağmen bu durumda üstgeçitteki adamı aşağıya itmenin yanlış olduğuna inanır.

Peki, o zaman, "çoğunluğun iyiliği" için soğukkanlılıkla bir kişinin canını feda etmeye hazır olan azınlığa ne gözle bakıyoruz? 2016’da Journal of Experimental Psychology dergisinde yayınlanan bir makalede, toplumsal ilişkiler söz konusu olduğunda sonuççuluğun bir zaaf olabileceğine dair kanıtlar sunduk. Diğer bir deyişle sonuççu biri olmak insanları diğer insanlar tarafından daha az sevilen bireyler haline getiriyor.

Bazen daha kötü sonuçlar doğurabilecek olmasına rağmen belirli ahlaki kurallara bağlı kalan insanların sosyal partner olarak tercih edildiği sonucuna vardık. Bu oldukça mantıklıdır çünkü bir arkadaş veya partnerin aldatma, yalan söyleme veya çoğunluğun iyiliği için birini ölüme sürüklemenin fayda ve zararlarını hesaplaması düşüncesi bize ters düşmektedir. Kurallara dayalı kararlarımız, diğer insanlara karşı davranış şekillerimizde belirli duygusal tepkilerimizin rol oynadığını kısmen de olsa gösterdiği için bağlılıklarımıza ilişkin önemli bir işarettir.

2400'den fazla katılımcı ile 9 deney sonucunda tam olarak şu sonuçlara ulaştık: Tren İkilemi de dahil olmak üzere feda etmeye dayalı birtakım ahlaki ikilemlerde kurallara dayalı yaklaşımı tercih eden insanlar, kararlarını bir eylemin sonuçlarına dayandıran kişilerden daha güvenilir olarak görülmektedir. Mutlak ahlaki kurallara bağlı kalmak insanlara maddi bir fayda da sağlamaktadır. Güveni test etmek için tasarlanmış ekonomi ile ilgili bir oyunda katılımcıların sonuçlara dayalı olarak ahlaki kararlar veren kişilere nazaran çoğunluğun iyiliği için birini feda etmeyi reddeden insanlarla muhatap oldukları zaman daha fazla para verdikleri ve verdikleri parayı geri alacaklarına daha çok güvendikleri sonucuna vardık.

Tüm Reklamları Kapat

Ancak sonuççu olan kişilerin hepsi toplumdan eşit oranda dışlanmamışlardır. Çoğunluğu korumak için bir kişiyi feda etmeyi desteklemenin kendileri için zor olduğunu belirtenlere de, böyle yapmanın asla kabul edilebilir olmadığını söyleyen kararlı kişilere güvenildiği kadar güvenilmiştir. Böyle durumlarda karar çatışmasının varlığı, kişi hakkında olumlu bir işaret olarak görülmüş, belki de kişinin kararına rağmen ahlaki kuralları da uygulama zorunluluğunu hissettiğini göstermiştir.

Peki, bu bulguların robotlarla ne ilgisi var? Birincisi bu bulgular, ahlak söz konusu olduğunda makinelere olan güvensizliğimizin olası bir nedenine dikkat çekmektedir: Yapay zeka, başkalarının güvenilir olup olmadığını ayırt etmekte kullandığımız özelliklerden yoksundur. Sonuçları ne olursa olsun insanların belirli ahlaki kurallara -tartışmaya açık da olsa- mantıksız bir şekilde bağlı kalmasını ve ahlaki kararları verirken suçluluk ve empati gibi sosyal duygularla yönlendirilmesini tercih ederiz. Kurallara aşırı bağlı olmak insan psikolojisine dair önemli ipuçları verir. Makineler insanların ahlaki yargılarını kusursuz bir şekilde taklit edebilse bile, onların bu yargılara bizimle aynı sebeplerden ötürü varmadığını biliriz. Verecekleri karar ne olursa olsun, robotların hesaplama yaparak karar verme yöntemi, insanların ahlak bağlamında güvenilmez buldukları bir şeydir. İnsan Hakları İzleme Örgütü’nün en son raporu da Katil Robot yaratmayı amaçlayan araştırmanın ertelenmesi gerektiğini savunmuştur çünkü bu tarz robotlar, “insanların bir başka insanı öldürmelerini veya incitmelerini engelleyen içgüdüye” sahip değillerdir.

Başka bir deyişle, makinelerin doğru ve hatta ideal kararlar vermesi bizim için yeterli olmayabilir. Bu kararların, onları vermemizi sağlayan psikolojik süreçlerle aynısının bir sonucu olarak, yani bizi ayırt edilebilir şekilde ahlaki varlıklar haline getiren duygusal tepkiler ve sezgisel yanıtların sonucundaverilmesini istiyoruz. Teknoloji bu başarıyı elde edene kadar, ahlaki anlamda bağımsız makine yapmaya yönelik herhangi bir girişim kuşkuyla karşılanacaktır. Belki de sorunun aslında robotlarda değil de kendi psikolojimizde yattığının farkına varırız.

Teşekkür: Bu yazıyı çeviren Melike Sultan İşcan ve Büşra Nur Güner'e teşekkür ederiz.

Bu Makaleyi Alıntıla
Okundu Olarak İşaretle
Evrim Ağacı Akademi: Yapay Zeka Felsefesi Yazı Dizisi

Bu yazı, Yapay Zeka Felsefesi yazı dizisinin 5 . yazısıdır. Bu yazı dizisini okumaya, serinin 1. yazısı olan " Yapay Zekanın Bilinç Kazanması Mümkün Olabilir mi? Eğer Mümkünse, Yapay Zeka Nasıl Bilinç Kazanabilir?" başlıklı makalemizden başlamanızı öneririz.

Yazı dizisi içindeki ilerleyişinizi kaydetmek için veya kayıt olun.

EA Akademi Hakkında Bilgi Al
Özetini Oku
28
0
  • Paylaş
  • Alıntıla
  • Alıntıları Göster
Paylaş
Sonra Oku
Notlarım
Yazdır / PDF Olarak Kaydet
Bize Ulaş
Yukarı Zıpla

İçeriklerimizin bilimsel gerçekleri doğru bir şekilde yansıtması için en üst düzey çabayı gösteriyoruz. Gözünüze doğru gelmeyen bir şey varsa, mümkünse güvenilir kaynaklarınızla birlikte bize ulaşın!

Bu içeriğimizle ilgili bir sorunuz mu var? Buraya tıklayarak sorabilirsiniz.

İçerikle İlgili Sorular
Soru & Cevap Platformuna Git
Bu İçerik Size Ne Hissettirdi?
  • Bilim Budur! 13
  • Merak Uyandırıcı! 10
  • Tebrikler! 5
  • Mmm... Çok sapyoseksüel! 3
  • Muhteşem! 2
  • İnanılmaz 1
  • Umut Verici! 1
  • Grrr... *@$# 1
  • Güldürdü 0
  • Üzücü! 0
  • İğrenç! 0
  • Korkutucu! 0
Kaynaklar ve İleri Okuma
  1. Çeviri Kaynağı: The Guardian | Arşiv Bağlantısı
Tüm Reklamları Kapat

Evrim Ağacı'na her ay sadece 1 kahve ısmarlayarak destek olmak ister misiniz?

Şu iki siteden birini kullanarak şimdi destek olabilirsiniz:

kreosus.com/evrimagaci | patreon.com/evrimagaci

Çıktı Bilgisi: Bu sayfa, Evrim Ağacı yazdırma aracı kullanılarak 21/11/2024 12:00:38 tarihinde oluşturulmuştur. Evrim Ağacı'ndaki içeriklerin tamamı, birden fazla editör tarafından, durmaksızın elden geçirilmekte, güncellenmekte ve geliştirilmektedir. Dolayısıyla bu çıktının alındığı tarihten sonra yapılan güncellemeleri görmek ve bu içeriğin en güncel halini okumak için lütfen şu adrese gidiniz: https://evrimagaci.org/s/5279

İçerik Kullanım İzinleri: Evrim Ağacı'ndaki yazılı içerikler orijinallerine hiçbir şekilde dokunulmadığı müddetçe izin alınmaksızın paylaşılabilir, kopyalanabilir, yapıştırılabilir, çoğaltılabilir, basılabilir, dağıtılabilir, yayılabilir, alıntılanabilir. Ancak bu içeriklerin hiçbiri izin alınmaksızın değiştirilemez ve değiştirilmiş halleri Evrim Ağacı'na aitmiş gibi sunulamaz. Benzer şekilde, içeriklerin hiçbiri, söz konusu içeriğin açıkça belirtilmiş yazarlarından ve Evrim Ağacı'ndan başkasına aitmiş gibi sunulamaz. Bu sayfa izin alınmaksızın düzenlenemez, Evrim Ağacı logosu, yazar/editör bilgileri ve içeriğin diğer kısımları izin alınmaksızın değiştirilemez veya kaldırılamaz.

Keşfet
Akış
İçerikler
Gündem
Eşey
Genler
Evrim Ağacı Duyurusu
Yeşil
Asteroid
Beslenme Bilimi
Kalıtım
Sendrom
Kanser
Dağılım
Ağrı
Nöronlar
Deniz
Sars
Ara Tür
Renk
Embriyo
Tür
Periyodik Tablo
Hukuk
Ortak Ata
Carl Sagan
Evrimsel Tarih
Hayatta Kalma
Kanser Tedavisi
Aklımdan Geçen
Komünite Seç
Aklımdan Geçen
Fark Ettim ki...
Bugün Öğrendim ki...
İşe Yarar İpucu
Bilim Haberleri
Hikaye Fikri
Video Konu Önerisi
Başlık
Bugün bilimseverlerle ne paylaşmak istersin?
Gündem
Bağlantı
Ekle
Soru Sor
Stiller
Kurallar
Komünite Kuralları
Bu komünite, aklınızdan geçen düşünceleri Evrim Ağacı ailesiyle paylaşabilmeniz içindir. Yapacağınız paylaşımlar Evrim Ağacı'nın kurallarına tabidir. Ayrıca bu komünitenin ek kurallarına da uymanız gerekmektedir.
1
Bilim kimliğinizi önceleyin.
Evrim Ağacı bir bilim platformudur. Dolayısıyla aklınızdan geçen her şeyden ziyade, bilim veya yaşamla ilgili olabilecek düşüncelerinizle ilgileniyoruz.
2
Propaganda ve baskı amaçlı kullanmayın.
Herkesin aklından her şey geçebilir; fakat bu platformun amacı, insanların belli ideolojiler için propaganda yapmaları veya başkaları üzerinde baskı kurma amacıyla geliştirilmemiştir. Paylaştığınız fikirlerin değer kattığından emin olun.
3
Gerilim yaratmayın.
Gerilim, tersleme, tahrik, taciz, alay, dedikodu, trollük, vurdumduymazlık, duyarsızlık, ırkçılık, bağnazlık, nefret söylemi, azınlıklara saldırı, fanatizm, holiganlık, sloganlar yasaktır.
4
Değer katın; hassas konulardan ve öznel yoruma açık alanlardan uzak durun.
Bu komünitenin amacı okurlara hayatla ilgili keyifli farkındalıklar yaşatabilmektir. Din, politika, spor, aktüel konular gibi anlık tepkilere neden olabilecek konulardaki tespitlerden kaçının. Ayrıca aklınızdan geçenlerin Türkiye’deki bilim komünitesine değer katması beklenmektedir.
5
Cevap hakkı doğurmayın.
Aklınızdan geçenlerin bu platformda bulunmuyor olabilecek kişilere cevap hakkı doğurmadığından emin olun.
Sosyal
Yeniler
Daha Fazla İçerik Göster
Popüler Yazılar
30 gün
90 gün
1 yıl
Evrim Ağacı'na Destek Ol

Evrim Ağacı'nın %100 okur destekli bir bilim platformu olduğunu biliyor muydunuz? Evrim Ağacı'nın maddi destekçileri arasına katılarak Türkiye'de bilimin yayılmasına güç katın.

Evrim Ağacı'nı Takip Et!
Yazı Geçmişi
Okuma Geçmişi
Notlarım
İlerleme Durumunu Güncelle
Okudum
Sonra Oku
Not Ekle
Kaldığım Yeri İşaretle
Göz Attım

Evrim Ağacı tarafından otomatik olarak takip edilen işlemleri istediğin zaman durdurabilirsin.
[Site ayalarına git...]

Filtrele
Listele
Bu yazıdaki hareketlerin
Devamını Göster
Filtrele
Listele
Tüm Okuma Geçmişin
Devamını Göster
0/10000
Bu Makaleyi Alıntıla
Evrim Ağacı Formatı
APA7
MLA9
Chicago
J. Everett, et al. İnsanlar, Yapay Zekaya ve Robotlara Neden Güvenmiyor?. (22 Aralık 2017). Alındığı Tarih: 21 Kasım 2024. Alındığı Yer: https://evrimagaci.org/s/5279
Everett, J., Ağacı, E., Bakırcı, Ç. M. (2017, December 22). İnsanlar, Yapay Zekaya ve Robotlara Neden Güvenmiyor?. Evrim Ağacı. Retrieved November 21, 2024. from https://evrimagaci.org/s/5279
J. Everett, et al. “İnsanlar, Yapay Zekaya ve Robotlara Neden Güvenmiyor?.” Edited by Çağrı Mert Bakırcı. Translated by Evrim Ağacı, Evrim Ağacı, 22 Dec. 2017, https://evrimagaci.org/s/5279.
Everett, Jim. Ağacı, Evrim. Bakırcı, Çağrı Mert. “İnsanlar, Yapay Zekaya ve Robotlara Neden Güvenmiyor?.” Edited by Çağrı Mert Bakırcı. Translated by Evrim Ağacı. Evrim Ağacı, December 22, 2017. https://evrimagaci.org/s/5279.
ve seni takip ediyor

Göster

Şifremi unuttum Üyelik Aktivasyonu

Göster

Şifrenizi mi unuttunuz? Lütfen e-posta adresinizi giriniz. E-posta adresinize şifrenizi sıfırlamak için bir bağlantı gönderilecektir.

Geri dön

Eğer aktivasyon kodunu almadıysanız lütfen e-posta adresinizi giriniz. Üyeliğinizi aktive etmek için e-posta adresinize bir bağlantı gönderilecektir.

Geri dön

Close