Bilgi Kıyameti: Felsefeciler, Deepfake'i Neden Tehlikeli Buluyorlar?
Bir kişiye ait fotoğraf veya video üzerine, bir başka kişinin yüzünün veya jest/mimiklerinin yapay zeka teknolojileri yardımıyla hipergerçekçi bir şekilde oturtulması olarak tanımlanabilecek deepfake, son yılların en ilgi çekici teknolojik gelişmelerinden biri olmayı başardı. Yapay zekâ çalışmalarında elde edilen başarının neticesi olarak Deepfake, artık sıradan kullanıcıların dahi erişebildiği bir video manipülasyon tekniği haline geldi.
Gelgelelim, akademik felsefeciler bu durumdan pek hoşnut değiller. Peki, Deepfake'i felsefeciler için can sıkıcı yapan unsurlar neler? Deepfake, felsefi açıdan hangi tehlikelere yol açabilir?
Nesnel Teminat Tehdit Altında!
Bu soruya değinmeden önce geçmişe kısa bir yolculuk yapalım. Binlerce sene evvel Sümerliler yazılı sözleşmeler hazırlarken bu sözleşmeleri kil tabletlere yazıyor, sonra da bu tabletlerin etrafına tıpkı bir zarf gibi (ve tabii ki yine kilden) katmanlar ekliyorlardı. Bu katmanların yoğunluğu farklıydı, bu sebeple herhangi bir anlaşmazlık halinde bu katmanları söküp korumaya alınan sözleşmeye bakabiliyorlardı. Böylece, eğer taraflardan biri sözleşmeye aykırı beyanda bulunuyorsa, bu beyanın geçersizliği nesnel bir delilin varlığıyla ispatlanabiliyordu. Bu, belki de insanlığın keşfettiği ve insan beyanından bağımsız ilk epistemik teminattı. İlerleyen satırlarda "epistemik teminat" kavramından daha detaylı olarak bahsedeceğiz.
Sümerler'den beri insanlık, nesnel teminat yöntemleri geliştirmeye devam etti. Daha kolay muhafaza edilebilen yazılı sözleşmeler ortaya çıktı. Elbette bu sözleşmelerin güvenilirliğini sağlayan mühürler de gerekliydi. O günün teknolojisiyle manipüle etmenin çok zor, belki de imkânsız olduğu yöntemler üzerinde durmaksızın çalışıldı. Fotoğrafın yaygınlaşmasıyla ilk defa belli bir mekânın belli bir anda nasıl göründüğünü nesnel olarak kaydetmeyi başardık. Haliyle, anlaşmazlık halindeki iki taraftan biri eğer diğer tarafın beyanını geçersiz kılabilecek bir fotoğraf karesi öne sürebilirse, bu delil başka hiçbir yöntemin sağlamadığı bir güvence sağlayabiliyordu ve karşı tarafın beyanı oldukça zayıflıyordu. Bu durum halen (kısmen de olsa) geçerli olabilir; ancak foto manipülasyon tekniklerinin gelişmesiyle, fotoğraf teknolojisinin güvenilirliği de ciddi şekilde azaldı. Bilhassa bilgisayar kullanımının yaygınlaşması ve fotoğraf düzenleme araçlarının kullanımının kolaylaşmasıyla, bir fotoğrafın manipüle edildiğini iddia etmek sıra dışı bir durum olmaktan çıktı.
Aynı durum, fotoğraf teknolojisini takip eden video teknolojisi için de geçerli oldu. Birbirini hızla takip eden fotoğraf karelerinden oluşan video kayıtları da, her ne kadar insan gözüne en yakın nesnel teminatı sağlıyor olsalar da, koşulsuz şartsız güvenilir olma özelliklerini kaybettiler. Bu durum, elbette Deepfake teknolojisinden çok daha önce meydana geldi; fakat günümüzde iyi manipüle edilmiş bir fotoğrafın insan gözüyle anlaşılması neredeyse imkansızken, aynı durum video kayıtları için henüz geçerli değil. Bugüne kadar ne kadar iyi manipüle edilmiş olursa olsun bir video kaydının gerçeği temsil edip etmediğini, manipüle edilip edilmediğini anlamak için dikkatli bir insan olmak (ve belki de iyi bir seyirci olmak) yeterliydi. Deepfake'in çok yüksek ihtimalle önümüzdeki yıllarda elde etmiş olacağı teknolojik başarıyla birlikte, bu durum da söz konusu olmaktan çıkabilir.
Bu arka plan bilgileri ışığında, esas sorumuza dönebiliriz.
Deepfake Neydi?
Deepfake, geçtiğimiz yıllarda ortaya çıkmış ve video kayıtlarında mevcut bulunan insanların yüzlerini yapay zekâ yardımıyla esasında orada olmayan insanların yüzleriyle değiştirip bu yolla gerçeği yansıtmayan video kayıtları yaratabilen bir video manipülasyon tekniği. Deepfake ile, aslında belli bir zaman ve mekânda bulunmamış bir insanı orada bulunmuş ve aslında söylemediği şeyleri söylemiş gibi göstermek mümkün. Tabii ki, bunu tamamen ayırt edilemez bir şekilde yapabildiğini söylemek halen zor; ancak bu durumun değişeceğine ve bir video kaydının asıl kayıt olup olmadığını anlamanın imkânsız hale gelebileceğine inanmak oldukça makul.
Bu durumun ne tarz sorunlara yol açabileceğini tahmin etmek elbette zor değil. Bu yüzden, Deepfake'in ortaya çıkışıyla hem medyada hem de felsefeciler arasında "infopocalypse" yani Türkçeye "bilgi kıyameti" olarak çevrilebilecek durumun mümkün olduğu konuşulmaya başlandı.
Peki, felsefeciler neden bilgi kıyametinin mümkün olduğunu düşünüyorlar?
Bir Bilgi Taşıma Aracı Olarak Video
Not: Bu noktada, daha fazla ilerlemeden önce bir parantez açıp, oldukça elzem bir uyarıda bulunmamız gerekiyor: Türkçede "yanlış bilgi" dediğimiz zaman kulağımıza tuhaf gelmiyor, değil mi? İşte bu durum İngilizcede böyle değil. İngilizcede ve aynı zamanda akademik felsefede "bilgi" denen şey, tanımı gereği doğrudur. Türkçede "yanlış bilgi" dediğimiz zaman işaret ettiğimiz şey ise, esasında hatalı enformasyondur. Fakat, günlük dilde "enformasyon" yerine "bilgi" kelimesinin kullanımı çok yaygın olduğu için, bu yazıda da "bilgi" kelimesi kullanılmıştır.
***
Evrim Ağacı'nın çalışmalarına Kreosus, Patreon veya YouTube üzerinden maddi destekte bulunarak hem Türkiye'de bilim anlatıcılığının gelişmesine katkı sağlayabilirsiniz, hem de site ve uygulamamızı reklamsız olarak deneyimleyebilirsiniz. Reklamsız deneyim, sitemizin/uygulamamızın çeşitli kısımlarda gösterilen Google reklamlarını ve destek çağrılarını görmediğiniz, %100 reklamsız ve çok daha temiz bir site deneyimi sunmaktadır.
KreosusKreosus'ta her 10₺'lik destek, 1 aylık reklamsız deneyime karşılık geliyor. Bu sayede, tek seferlik destekçilerimiz de, aylık destekçilerimiz de toplam destekleriyle doğru orantılı bir süre boyunca reklamsız deneyim elde edebiliyorlar.
Kreosus destekçilerimizin reklamsız deneyimi, destek olmaya başladıkları anda devreye girmektedir ve ek bir işleme gerek yoktur.
PatreonPatreon destekçilerimiz, destek miktarından bağımsız olarak, Evrim Ağacı'na destek oldukları süre boyunca reklamsız deneyime erişmeyi sürdürebiliyorlar.
Patreon destekçilerimizin Patreon ile ilişkili e-posta hesapları, Evrim Ağacı'ndaki üyelik e-postaları ile birebir aynı olmalıdır. Patreon destekçilerimizin reklamsız deneyiminin devreye girmesi 24 saat alabilmektedir.
YouTubeYouTube destekçilerimizin hepsi otomatik olarak reklamsız deneyime şimdilik erişemiyorlar ve şu anda, YouTube üzerinden her destek seviyesine reklamsız deneyim ayrıcalığını sunamamaktayız. YouTube Destek Sistemi üzerinde sunulan farklı seviyelerin açıklamalarını okuyarak, hangi ayrıcalıklara erişebileceğinizi öğrenebilirsiniz.
Eğer seçtiğiniz seviye reklamsız deneyim ayrıcalığı sunuyorsa, destek olduktan sonra YouTube tarafından gösterilecek olan bağlantıdaki formu doldurarak reklamsız deneyime erişebilirsiniz. YouTube destekçilerimizin reklamsız deneyiminin devreye girmesi, formu doldurduktan sonra 24-72 saat alabilmektedir.
Diğer PlatformlarBu 3 platform haricinde destek olan destekçilerimize ne yazık ki reklamsız deneyim ayrıcalığını sunamamaktayız. Destekleriniz sayesinde sistemlerimizi geliştirmeyi sürdürüyoruz ve umuyoruz bu ayrıcalıkları zamanla genişletebileceğiz.
Giriş yapmayı unutmayın!Reklamsız deneyim için, maddi desteğiniz ile ilişkilendirilmiş olan Evrim Ağacı hesabınıza üye girişi yapmanız gerekmektedir. Giriş yapmadığınız takdirde reklamları görmeye devam edeceksinizdir.
Fred Dretske'ye göre bir şey (CC diyelim) bir başka şeyin bilgisini (buna da II diyelim) taşıyorsa, bu ancak ve ancak CC'nin II'nın doğruluğunu garanti edebildiği durumda geçerlidir.[3] Örneğin, bir insan kapınızı çaldığında, kapı zilinin size, "kapınızda bir insan olduğu" bilgisini taşıdığını söyleyebilmemiz için, kapınızın çaldığı ancak kapıyı çalan bir insanın var olmadığı durumun ihtimal dışı olması gerekir. Yani, kapınızın bir insan tarafından çalındığı durumun objektif olasılığının %100 veya 1 (bir) olması gerekir.
Cohen ve Meskin'e göre ise CC'nin II'yı taşıyor olması için II'nın doğru olmadığı durumda CC'nin mümkün olmaması gerekir.[4] Yani, kapınızın çalınmadığı durumda kapı zilinizin çalmasının mümkün olmaması gerekir.
Bu iki ana akım tanımın haricinde tanımlar yapmak da oldukça mümkün. Ancak ne olursa olsun, bir aracının "bilgi" taşıdığını kabul edebilmemiz için, sezgisel olarak bu iki tanımın birlikte işaret ettikleri özelliğe, yani kesinliğe ihtiyaç duyarız. Bu durumda, örneğin bir video kaydının bilgi taşıdığı iddia edildiğinde, eğer bu video taşıdığı iddia edilen bilginin doğruluğunu garanti edebilecek güvenilirlikteyse veya taşıdığı iddia edilen bilginin doğru olmadığı durumda bu videonun varlığı mümkün değilse, o zaman bu videonun bilgi taşıdığına inanabiliriz. Sümerliler'in kil tabletlerine kıyasla çok daha güvenilir bir bilgi taşıma aracımız var, ne güzel!
Bu tanımların ne olursa olsun tam olarak kenara atılmıyor olmalarının temel bir sebebi var: Düşünün, bir bilgi taşıma aracının sunduğu teminat kesinlikten yoksunsa, o zaman bu aracın bilgi taşıdığına inanmaya devam edebilecek miyiz? Ortalama her 100 durumdan 99'unda bilgi taşıdığını bildiğimiz bir bilgi taşıma aracı hayal edin. Bu oran, muhtemelen geniş kitlelerin taşınan bilgiye dair çok güçlü inançlar inşa etmesini mümkün kılacaktır. Peki ya bu oran %80 olsaydı? Peki ya %70? Hangi noktada geniş kitleler bu aracıya güvenmeyi bırakır?
Esasında bu soru şimdilik önemli değil, çünkü dezenformasyonun doğru bilgiden çok daha hızlı yayıldığını biliyoruz.[2] Bu farkın arkasında yatan yegâne gerekçenin güvenilir bilgi taşıma araçları olmadığını da biliyoruz. Dolayısıyla, kitlelerin neye inanıp neye inanmayacağını kestirebilmek bu bağlamda mümkün görünmüyor.
Deepfake, Epistemik Teminat ve Epistemik Zarar...
Önemli olan soru, Deepfake teknolojisinin an itibariyle sahip olduğumuz muazzam bir bilgi taşıma aracı olan video kayıtlarını tehlikeye atıp atmayacağı yönünde. Az önce bahsettiğimiz iki temel tanım üzerinden düşünürsek, video kayıtlarının güvenilir kaynaklar olmaktan çıkabileceğini söylemek oldukça mümkün. Başka bir deyişle, video kayıtları güvenilir bilgi taşıyıcıları olmaktan çıkıp, olası bilgi taşıyıcılarına dönüşebilirler. Bu da siz bir gün televizyonda bir siyasetçinin konuşmasını izlerken, bir kişiyle video konferans yaparken veya gizli kalmış gerçeklere dair olduğu iddia edilen video kayıtlarına ulaştığınızda geçmişte elinizde tuttuğunuz "epistemik teminatı" kaybetmiş olabileceğiniz için, eskiye kıyasla daha kısıtlı bir bilgi alanına sahip olacaksınız demek olabilir.
"Epistemik teminat" kavramına tam da bu noktada değinebiliriz. Epistemik teminat, bir inancın doğruluğunu teminat altına alabilecek nesnel bir dayanak noktası olarak anlaşılabilir. Regina Rini'ye göre video kayıtları birer epistemik teminat işlevi görmektedir.[1] Dolayısıyla, Deepfake teknolojisi bu epistemik teminatı tehlikeye atabilir. Rini'ye göre kötü niyetli kişiler, Deepfake yardımıyla dezenformasyona başvurabilir.
Teyit mekanizmalarının zayıflaması, bilebileceğimiz şeyler kümesinin daralması anlamına gelebilir. Örneğin, geçmişte hiçbir gözleyicinin mevcut bulunmadığı bir konum ve zamana dair bilgi edinmek ya oldukça zor ya da imkansızken video teknolojisiyle birlikte o zamanda o mekânın görüntüsünü kaydetmek ve gelecekte izlemek suretiyle bilgi edinmek mümkün hale geldi. Aynı şekilde, güvenilir tanıkların bulunmadığı bir zaman ve mekânda olan bir olaya dair güvenilir bilgi edinmek (elbette eğer bir video kaydı varsa, güvenlik kamerası gibi) mümkün oldu. İşte bahsedilen "bilgi kıyameti", bu teminatın kaybolduğu bir dünyadan başka bir şey değil. Bu bağlamda Deepfake'in oluşturabileceği (iddia edilen) zarara bir çeşit "epistemik zarar" diyoruz.
Popüler mecralarda Deepfake'e dair ortaya konan endişeler ise genellikle "etik" veya "ahlaki" açıdan değerlendirilen problemler. Deepfake ile birlikte bir insanın rızası olmaksızın o insan bir videoya yerleştirilebiliyor ve bu görüntüler tüm dünyaya yayılabiliyor. Bu da kişi haklarına direkt bir ihlal oluşturuyor.
Bunun yanında, Deepfake ile üretilebilecek videolar neticesinde büyük toplumsal zararların ortaya çıkabileceği, demokratik düzenin tehlikeye girebileceği ve insanların video kayıtlarına olan güveni azalacağı için hakikatin bilgisi aktarıldığında dahi video aracılığıyla olduğu sürece güven sağlanamayacağı çokça konuşuluyor.
Keith Raymond Harris gibi felsefeciler ise bu kaygıların abartıldığını, fakat Deepfake'in yine de tamamen tehlikesiz olmadığını öne sürüyorlar.[5]
Sonuç
Bu endişelerin Deepfake ve benzeri teknolojik yeniliklere karşı çıkmak veya inovasyonun önünü tıkamak gibi bir gayesi yok. Genel anlamda, ne felsefenin ne de felsefecilerin böyle bir gayesi olabilir – teknolojiyi oldukça zararlı bulan birtakım filozofları saymazsak. Ancak olası tehlikelere karşı bir adım önde olmak ve atılan her adımı akılcı bir değerlendirmeden geçirmek de sorumlu araştırma ve inovasyonun olmazsa olmazı. Yapay Zeka Güvenliği sahası, bunun en öne çıktığı sahalardan biri.
İçeriklerimizin bilimsel gerçekleri doğru bir şekilde yansıtması için en üst düzey çabayı gösteriyoruz. Gözünüze doğru gelmeyen bir şey varsa, mümkünse güvenilir kaynaklarınızla birlikte bize ulaşın!
Bu içeriğimizle ilgili bir sorunuz mu var? Buraya tıklayarak sorabilirsiniz.
Soru & Cevap Platformuna Git- 7
- 7
- 4
- 2
- 2
- 2
- 0
- 0
- 0
- 0
- 0
- 0
- ^ R. Rini. Deepfakes And The Epistemic Backstop. (5 Şubat 2020). Alındığı Yer: philarchive.org | Arşiv Bağlantısı
- ^ S. Vosoughi, et al. (2018). The Spread Of True And False News Online. Science. doi: 10.1126/science.aap9559. | Arşiv Bağlantısı
- ^ F. I. Dretske. Knowledge And The Flow Of Information. (5 Şubat 1981). Alındığı Yer: PhilPapers doi: 10.2307/2184492. | Arşiv Bağlantısı
- ^ J. Cohen, et al. (2004). On The Epistemic Value Of Photographs. The Journal of Aesthetics and Art Criticism, sf: 197-210. doi: 10.1111/j.1540-594X.2004.00152.x. | Arşiv Bağlantısı
- ^ K. R. Harris. (2021). Video On Demand: What Deepfakes Do And How They Harm. Synthese, sf: 13373-13391. doi: 10.1007/s11229-021-03379-y. | Arşiv Bağlantısı
Evrim Ağacı'na her ay sadece 1 kahve ısmarlayarak destek olmak ister misiniz?
Şu iki siteden birini kullanarak şimdi destek olabilirsiniz:
kreosus.com/evrimagaci | patreon.com/evrimagaci
Çıktı Bilgisi: Bu sayfa, Evrim Ağacı yazdırma aracı kullanılarak 10/10/2024 06:54:24 tarihinde oluşturulmuştur. Evrim Ağacı'ndaki içeriklerin tamamı, birden fazla editör tarafından, durmaksızın elden geçirilmekte, güncellenmekte ve geliştirilmektedir. Dolayısıyla bu çıktının alındığı tarihten sonra yapılan güncellemeleri görmek ve bu içeriğin en güncel halini okumak için lütfen şu adrese gidiniz: https://evrimagaci.org/s/11445
İçerik Kullanım İzinleri: Evrim Ağacı'ndaki yazılı içerikler orijinallerine hiçbir şekilde dokunulmadığı müddetçe izin alınmaksızın paylaşılabilir, kopyalanabilir, yapıştırılabilir, çoğaltılabilir, basılabilir, dağıtılabilir, yayılabilir, alıntılanabilir. Ancak bu içeriklerin hiçbiri izin alınmaksızın değiştirilemez ve değiştirilmiş halleri Evrim Ağacı'na aitmiş gibi sunulamaz. Benzer şekilde, içeriklerin hiçbiri, söz konusu içeriğin açıkça belirtilmiş yazarlarından ve Evrim Ağacı'ndan başkasına aitmiş gibi sunulamaz. Bu sayfa izin alınmaksızın düzenlenemez, Evrim Ağacı logosu, yazar/editör bilgileri ve içeriğin diğer kısımları izin alınmaksızın değiştirilemez veya kaldırılamaz.