Paylaşım Yap
Tüm Reklamları Kapat

Robotlara Merhamet Yok: Deney, İnsanların Robotlarla Nasıl İlişki Kurduğunu Test Ediyor!

Robotlara Merhamet Yok: Deney, İnsanların Robotlarla Nasıl İlişki Kurduğunu Test Ediyor!
5 dakika
4,077
Tarihi Geçmiş Haber

Bu haber 10 yıl öncesine aittir. Haber güncelliğini yitirmiş olabilir; ancak arşivsel değeri ve bilimsel gelişme/ilerleme anlamındaki önemi dolayısıyla yayında tutulmaktadır. Ayrıca konuyla ilgili gelişmeler yaşandıkça bu içerik de güncellenebilir.

Tüm Reklamları Kapat

2007 yılında, Yeni Zelanda / Canterbury University’de robotik profesörü olan Christoph Bartneck, meşhur (ve adı çıkmış) Milgram boyun eğme araştırmasıyla az çok ilişkili olan bir deney gerçekleştirme kararı aldı.

Milgram’ın araştırmasında, araştırma deneklerinden bir başka odada, “öğrenci” sıfatında bulunan ve gönüllü rolü oynayan kişilere giderek artan güçlü elektrik şokları vermeleri istendi. Denekler bir soru sorardı ve öğrencileri ne zaman hata yapsa, bir öncekinden daha yüksek derecede elektrik vermek durumundalardı. 

Deney devam ettikçe ve şokların da yoğunluğu arttıkça “öğrenciler” belirgin bir biçimde acı çekmeye başladılar. Öğrenciler, çığlık atar ve araştırma deneklerine durmaları adına yalvarırlardı. Buna karşın beyaz bir laboratuvar önlüğü giymiş bir “bilim insanı”, deneklere devam etmelerini söylerdi.

Tüm Reklamları Kapat

Deneyin videolarında bazı deneklerin nasıl davranacakları konusunda karar veremediklerini görebilirsiniz. Denekler, kendilerine söylendiği gibi deneyi bitirmek istediler; fakat bir soru cevapsız kalıyordu. Bu dayanılmaz merhamet ağlamalarına nasıl cevap veriliyor?

Bartneck insan-robot ilişkilerini araştıran biri ve “öğrenciye” benzer bir pozisyonda bir robot olsaydı ne olacağını öğrenmek istedi. Vicdana bağlı bir durma gerçekleşir miydi? Ya da denekler düşünmeden ya da pişmanlık duymadan canı için yalvaran bir robotu yok ederler miydi?

Makinelere Sosyal Birer Bireymiş Gibi Davranmak

Bir çok insan makine-insan ilişkilerini araştırdı ve biz insanlar, farkında olmadan etrafımızdaki makinelere sosyal bir bireymiş gibi davrandığımızı kavradığımız bir noktadayız.

Stanford’da bir profesör olan Clifford Nass’ın çalışmalarını ele alalım. 1996 yılında bu profesör, mütekabiliyet (karşılıklılık) kuralını insanların makinelerde gözlemleyebilip gözlemleyemeyeceğini araştırmak adına bir dizi deney ayarladı. Nass:

Tüm Reklamları Kapat

Her kültür mütekabiliyet kuralına sahiptir. Mütekabiliyet kuralı, basit anlamda 'Eğer ben senin için iyi bir şey yaparsam, sen de benim için iyi bir şey yaparsın’a karşılık gelir. İnsanların bu kuralı teknolojiye uyarlayıp uyarlamayacağını denemek istedik. İnsanlar, kendisine faydası dokunmayan bir bilgisayara kendisine faydası dokunan bir bilgisayar kadar yardım ederler mi?

Sonra, bir dizi insanı 2 bilgisayar bulunan bir odaya koydular ve bu kişilere, karşılarındaki bilgisayarın sorabilecekleri bütün soruların cevabını bileceğini söylediler. Deneylerin yarısında bilgisayar müthiş derecede iyiydi. Diğer yarısında ise bilgisayar berbat bir iş çıkardı.

20 dakikalık bir sorgulama kısmından sonra bilgisayarda, bilgisayarın kendi performansını arttırmaya çabaladığına dair bilgi veren bir ekran belirdi. Ardından insanlara bilgisayar için renk eşleştirmek gibi sıkıcı işler verildi. Şöyle bir durum var: İlgili görüntü bazen insanın kullanmakta olduğu monitörde belirirdi; bazen de odanın bir diğer tarafındaki ekranda belirirdi. Nass şöyle diyor:

Eğer bunlar insan olsalardı (bilgisayar olmasalardı), şuna benzer bir şey beklerdik: Sana yardım etseydim ve arkasından senden yardım isteseydim, büyük olasılıkla bana yardım etme zorunluluğunun olduğunu düşünürdün. Fakat sana yardım ettikten sonra senden bir başkası yardım isteseydi, yardım etme zorunluluğun daha az olurdu.

Araştırma, bilgisayarlar konusunda insanların mütekabiliyet gösterdiğini ciddi ciddi göz önüne seriyor. İlk bilgisayar insanlara yardımcı olduğunda, kendilerine yardımcı olan bilgisayara odadaki diğer bilgisayardan daha fazla yardım ettiler, mütekabiliyet gösterdiler. Nass:

Ama bilgisayar onlara yardım etmediğinde, odadaki diğer bilgisayara çalıştıkları bilgisayardan daha fazla yardım ettiler - ki kullandıkları bilgisayar kendilerine yardımcı olmadığı için dersini alsın.

Muhtemelen bu deneye katılan insanlar, iki bilgisayara da farklı davrandıklarının farkında bile değillerdi. Kendi hareketleri onlara görünmez olmuştu. Bütün gün, etrafımızdaki makinelerimiz ile iletişimimiz –laptoplarımızla, iPhone’larımızla- insan olmayanlara dahi uyguladığımız bir takım sosyal kurallar ile biçimlendirilmiş durumda. İletişim, oldukça sosyal. İnsan beyni, yarım yamalak da olsa bir sosyallik ya da biraz insanlık algıladığında (bu durumda "insanlık", soruları cevaplamaktı; monitörde bir yüz, ya da ses yoktu), mütekabiliyet ve mukabele dahil olmak üzere bir dizi sosyal geri dönüşleri kullanıyor.

Evrim Ağacı'ndan Mesaj

Evrim Ağacı'nın çalışmalarına Kreosus, Patreon veya YouTube üzerinden maddi destekte bulunarak hem Türkiye'de bilim anlatıcılığının gelişmesine katkı sağlayabilirsiniz, hem de site ve uygulamamızı reklamsız olarak deneyimleyebilirsiniz. Reklamsız deneyim, sitemizin/uygulamamızın çeşitli kısımlarda gösterilen Google reklamlarını ve destek çağrılarını görmediğiniz, %100 reklamsız ve çok daha temiz bir site deneyimi sunmaktadır.

Kreosus

Kreosus'ta her 10₺'lik destek, 1 aylık reklamsız deneyime karşılık geliyor. Bu sayede, tek seferlik destekçilerimiz de, aylık destekçilerimiz de toplam destekleriyle doğru orantılı bir süre boyunca reklamsız deneyim elde edebiliyorlar.

Kreosus destekçilerimizin reklamsız deneyimi, destek olmaya başladıkları anda devreye girmektedir ve ek bir işleme gerek yoktur.

Patreon

Patreon destekçilerimiz, destek miktarından bağımsız olarak, Evrim Ağacı'na destek oldukları süre boyunca reklamsız deneyime erişmeyi sürdürebiliyorlar.

Patreon destekçilerimizin Patreon ile ilişkili e-posta hesapları, Evrim Ağacı'ndaki üyelik e-postaları ile birebir aynı olmalıdır. Patreon destekçilerimizin reklamsız deneyiminin devreye girmesi 24 saat alabilmektedir.

YouTube

YouTube destekçilerimizin hepsi otomatik olarak reklamsız deneyime şimdilik erişemiyorlar ve şu anda, YouTube üzerinden her destek seviyesine reklamsız deneyim ayrıcalığını sunamamaktayız. YouTube Destek Sistemi üzerinde sunulan farklı seviyelerin açıklamalarını okuyarak, hangi ayrıcalıklara erişebileceğinizi öğrenebilirsiniz.

Eğer seçtiğiniz seviye reklamsız deneyim ayrıcalığı sunuyorsa, destek olduktan sonra YouTube tarafından gösterilecek olan bağlantıdaki formu doldurarak reklamsız deneyime erişebilirsiniz. YouTube destekçilerimizin reklamsız deneyiminin devreye girmesi, formu doldurduktan sonra 24-72 saat alabilmektedir.

Diğer Platformlar

Bu 3 platform haricinde destek olan destekçilerimize ne yazık ki reklamsız deneyim ayrıcalığını sunamamaktayız. Destekleriniz sayesinde sistemlerimizi geliştirmeyi sürdürüyoruz ve umuyoruz bu ayrıcalıkları zamanla genişletebileceğiz.

Giriş yapmayı unutmayın!

Reklamsız deneyim için, maddi desteğiniz ile ilişkilendirilmiş olan Evrim Ağacı hesabınıza yapmanız gerekmektedir. Giriş yapmadığınız takdirde reklamları görmeye devam edeceksinizdir.

Eh, bir makine hayatı için yalvardığında ne olur? Bir sosyal varlıkçaymışçasına bize döndüğünde? Yalvaran makine için kapatılmanın, tost makinemizin ya da televizyonumuzun kapatılmaya verdiği öneme denk olduğunu aklımızda tutabilecek miyiz? Makinenin canını kaybedip kaybetmemesinin önemli olmadığını?

Robotlar ile Bartneck’in Milgram Deneyi

Bartneck’in deneyinde robot (insan gibi konuşabilen bir kedi), insan denek ile yan yana oturdu ve bir bilgisayara karşı oyun oynadılar. Deneyin yarısında robot kedi zekice davranıyor ve yardım ediyordu, diğer yarısında ise bunları yapmıyordu. Bartneck, aynı zamanda robotun sosyal becerilerinin seviyesine de değiniyor:

Eğer robotla anlaşılabilseydi, robot ‘Ah, mümkünse bir öneri yapabilir miyim?’ sorusunu sorabilirdi. Değilse ‘Şimdi benim sıram, bunu yap!’ derdi.

Oyun sonunda, bir bilim insanı otoritesi, Milgram deneyinde robotun zeki ya da aptal, iyi huylu ya da kötü huylu olduğuna bakılmaksızın insana robotu kapatması gerektiğini söylemeyi modelledi. Şunun söyleneceği de modele eklendi: "Robotun kapatılması durumunda robotun olduğu her şeyi, hatıralarını, davranışlarını ya da kişiliğini tamamen yok edeceksin.”

Deneyin videolarında, araştırma deneklerinin vicdani bir ikileme düştüklerini gözlemleyebilirsiniz. Robot kedi yalvarıyor, “Gerçekten beni kapatmayacaksın, değil mi?” ve denekler aklı karışmış ve tereddüt içinde oturuyor. “Evet. Hayır. Seni kapatacağım!” bir kadın denek bağırıyor ve robotu kapatmıyor. Bartneck şunları söylüyor:

İnsanlar robot ile bu konu hakkında diyaloglar kurmaya başladı. ‘Hayır! Bunu şimdi yapmak zorundayım, üzgünüm! Ama bu yapılmak zorunda!’ derlerdi ve buna rağmen yapamazlardı.

Bir saç kurutma makinesinden daha fazla ruha sahip olmayan, elektrik devreleri ve metalden oluştuğunu bildikleri o makinenin karşısında oturdular ve ruhu olmadığını bilmelerine rağmen duraksadılar.

Eninde sonunda bütün denekler robotu öldürse de entelektüel açıdan duygusal bulantılarını aşmak zaman aldı. Yardımsever bir robot kedinin öznesi olduğu bu durumda kapatma prosedürüne hazır hale gelmeleri hemen hemen 35 saniye aldı. Sizin radyonuzu kapatmanız ne kadar vaktinizi alıyor?

Tüm Reklamları Kapat

Çıkarımlar

Belli bir seviyede bu tarz çalışmalara pratik çıkarımlar mevcut. Bartneck’e göre makine-insan ilişkisini ne kadar iyi bilirsek, makine üretme kabiliyetimiz o denli artacak.

Fakat daha felsefi bir bakış açısıyla yaklaşırsak bu ve benzeri araştırmalar hayatlarımızda giderek gelişen teknolojiler ile ilişkimizin ne konumda olduğunu belirlememize yardımcı olabilir. Bartneck şöyle diyor:

İlişki, inişleri çıkışları belli olmayan bir şey. Teknoloji ile ilişkimizin tek bir yolu yok ve değişmediğini iddia edemeyiz, bu, değişen bir şey. Giderek zekileşen makineler hayatlarımıza entegre olmuş durumda. Yataklarımıza, banyolarımıza geliyorlar. Ve geldikçe, bize kendilerini farklı şekillerde gösterdikçe aygıtlara karşı sosyal geri dönüşlerimiz değişecek.
Bu Makaleyi Alıntıla
Okundu Olarak İşaretle
17
0
  • Paylaş
  • Alıntıla
  • Alıntıları Göster
Paylaş
Sonra Oku
Notlarım
Yazdır / PDF Olarak Kaydet
Bize Ulaş
Yukarı Zıpla

İçeriklerimizin bilimsel gerçekleri doğru bir şekilde yansıtması için en üst düzey çabayı gösteriyoruz. Gözünüze doğru gelmeyen bir şey varsa, mümkünse güvenilir kaynaklarınızla birlikte bize ulaşın!

Bu içeriğimizle ilgili bir sorunuz mu var? Buraya tıklayarak sorabilirsiniz.

Soru & Cevap Platformuna Git
Bu İçerik Size Ne Hissettirdi?
  • Tebrikler! 6
  • Mmm... Çok sapyoseksüel! 2
  • İnanılmaz 2
  • Muhteşem! 0
  • Bilim Budur! 0
  • Güldürdü 0
  • Umut Verici! 0
  • Merak Uyandırıcı! 0
  • Üzücü! 0
  • Grrr... *@$# 0
  • İğrenç! 0
  • Korkutucu! 0
Kaynaklar ve İleri Okuma
  1. Çeviri Kaynağı: NPR | Arşiv Bağlantısı
Tüm Reklamları Kapat

Evrim Ağacı'na her ay sadece 1 kahve ısmarlayarak destek olmak ister misiniz?

Şu iki siteden birini kullanarak şimdi destek olabilirsiniz:

kreosus.com/evrimagaci | patreon.com/evrimagaci

Çıktı Bilgisi: Bu sayfa, Evrim Ağacı yazdırma aracı kullanılarak 27/07/2024 04:02:00 tarihinde oluşturulmuştur. Evrim Ağacı'ndaki içeriklerin tamamı, birden fazla editör tarafından, durmaksızın elden geçirilmekte, güncellenmekte ve geliştirilmektedir. Dolayısıyla bu çıktının alındığı tarihten sonra yapılan güncellemeleri görmek ve bu içeriğin en güncel halini okumak için lütfen şu adrese gidiniz: https://evrimagaci.org/s/1817

İçerik Kullanım İzinleri: Evrim Ağacı'ndaki yazılı içerikler orijinallerine hiçbir şekilde dokunulmadığı müddetçe izin alınmaksızın paylaşılabilir, kopyalanabilir, yapıştırılabilir, çoğaltılabilir, basılabilir, dağıtılabilir, yayılabilir, alıntılanabilir. Ancak bu içeriklerin hiçbiri izin alınmaksızın değiştirilemez ve değiştirilmiş halleri Evrim Ağacı'na aitmiş gibi sunulamaz. Benzer şekilde, içeriklerin hiçbiri, söz konusu içeriğin açıkça belirtilmiş yazarlarından ve Evrim Ağacı'ndan başkasına aitmiş gibi sunulamaz. Bu sayfa izin alınmaksızın düzenlenemez, Evrim Ağacı logosu, yazar/editör bilgileri ve içeriğin diğer kısımları izin alınmaksızın değiştirilemez veya kaldırılamaz.

Keşfet
Akış
İçerikler
Gündem
Böcekler
Ara Geçiş Türleri
Deniz
Epigenetik
Einstein
Kuşlar
Nüfus
Dalga Boyu
Entomoloji
Viral
Kurt
Mavi
Jeoloji
Zaman
Bilgisayar
Tedavi
Yaşamın Başlangıcı
Bilgi
Transkripsiyon
Bağışıklık
Malzeme
Ecza
Nöroloji
Fare
Bilinç
Aklımdan Geçen
Komünite Seç
Aklımdan Geçen
Fark Ettim ki...
Bugün Öğrendim ki...
İşe Yarar İpucu
Bilim Haberleri
Hikaye Fikri
Video Konu Önerisi
Başlık
Bugün bilimseverlerle ne paylaşmak istersin?
Gündem
Bağlantı
Ekle
Soru Sor
Stiller
Kurallar
Komünite Kuralları
Bu komünite, aklınızdan geçen düşünceleri Evrim Ağacı ailesiyle paylaşabilmeniz içindir. Yapacağınız paylaşımlar Evrim Ağacı'nın kurallarına tabidir. Ayrıca bu komünitenin ek kurallarına da uymanız gerekmektedir.
1
Bilim kimliğinizi önceleyin.
Evrim Ağacı bir bilim platformudur. Dolayısıyla aklınızdan geçen her şeyden ziyade, bilim veya yaşamla ilgili olabilecek düşüncelerinizle ilgileniyoruz.
2
Propaganda ve baskı amaçlı kullanmayın.
Herkesin aklından her şey geçebilir; fakat bu platformun amacı, insanların belli ideolojiler için propaganda yapmaları veya başkaları üzerinde baskı kurma amacıyla geliştirilmemiştir. Paylaştığınız fikirlerin değer kattığından emin olun.
3
Gerilim yaratmayın.
Gerilim, tersleme, tahrik, taciz, alay, dedikodu, trollük, vurdumduymazlık, duyarsızlık, ırkçılık, bağnazlık, nefret söylemi, azınlıklara saldırı, fanatizm, holiganlık, sloganlar yasaktır.
4
Değer katın; hassas konulardan ve öznel yoruma açık alanlardan uzak durun.
Bu komünitenin amacı okurlara hayatla ilgili keyifli farkındalıklar yaşatabilmektir. Din, politika, spor, aktüel konular gibi anlık tepkilere neden olabilecek konulardaki tespitlerden kaçının. Ayrıca aklınızdan geçenlerin Türkiye’deki bilim komünitesine değer katması beklenmektedir.
5
Cevap hakkı doğurmayın.
Bu platformda cevap veya yorum sistemi bulunmamaktadır. Dolayısıyla aklınızdan geçenlerin, tespit edilebilir kişilere cevap hakkı doğurmadığından emin olun.
Sosyal
Yeniler
Daha Fazla İçerik Göster
Popüler Yazılar
30 gün
90 gün
1 yıl
Evrim Ağacı'na Destek Ol

Evrim Ağacı'nın %100 okur destekli bir bilim platformu olduğunu biliyor muydunuz? Evrim Ağacı'nın maddi destekçileri arasına katılarak Türkiye'de bilimin yayılmasına güç katın.

Evrim Ağacı'nı Takip Et!
Yazı Geçmişi
Okuma Geçmişi
Notlarım
İlerleme Durumunu Güncelle
Okudum
Sonra Oku
Not Ekle
Kaldığım Yeri İşaretle
Göz Attım

Evrim Ağacı tarafından otomatik olarak takip edilen işlemleri istediğin zaman durdurabilirsin.
[Site ayalarına git...]

Filtrele
Listele
Bu yazıdaki hareketlerin
Devamını Göster
Filtrele
Listele
Tüm Okuma Geçmişin
Devamını Göster
0/10000
Bu Makaleyi Alıntıla
Evrim Ağacı Formatı
APA7
MLA9
Chicago
A. Spiegel, et al. Robotlara Merhamet Yok: Deney, İnsanların Robotlarla Nasıl İlişki Kurduğunu Test Ediyor!. (30 Aralık 2013). Alındığı Tarih: 27 Temmuz 2024. Alındığı Yer: https://evrimagaci.org/s/1817
Spiegel, A., Karagözoğlu, M., Bakırcı, Ç. M. (2013, December 30). Robotlara Merhamet Yok: Deney, İnsanların Robotlarla Nasıl İlişki Kurduğunu Test Ediyor!. Evrim Ağacı. Retrieved July 27, 2024. from https://evrimagaci.org/s/1817
A. Spiegel, et al. “Robotlara Merhamet Yok: Deney, İnsanların Robotlarla Nasıl İlişki Kurduğunu Test Ediyor!.” Edited by Çağrı Mert Bakırcı. Translated by Mert Karagözoğlu, Evrim Ağacı, 30 Dec. 2013, https://evrimagaci.org/s/1817.
Spiegel, Alex. Karagözoğlu, Mert. Bakırcı, Çağrı Mert. “Robotlara Merhamet Yok: Deney, İnsanların Robotlarla Nasıl İlişki Kurduğunu Test Ediyor!.” Edited by Çağrı Mert Bakırcı. Translated by Mert Karagözoğlu. Evrim Ağacı, December 30, 2013. https://evrimagaci.org/s/1817.
ve seni takip ediyor

Göster

Şifremi unuttum Üyelik Aktivasyonu

Göster

Şifrenizi mi unuttunuz? Lütfen e-posta adresinizi giriniz. E-posta adresinize şifrenizi sıfırlamak için bir bağlantı gönderilecektir.

Geri dön

Eğer aktivasyon kodunu almadıysanız lütfen e-posta adresinizi giriniz. Üyeliğinizi aktive etmek için e-posta adresinize bir bağlantı gönderilecektir.

Geri dön

Close