Gece Modu

Bu yazı, Evrim Ağacı'na ait, özgün bir içeriktir. Konu akışı, anlatım ve detaylar, Evrim Ağacı yazarı/yazarları tarafından hazırlanmış ve/veya derlenmiştir. Bu içerik için kullanılan kaynaklar, yazının sonunda gösterilmiştir. Bu içerik, diğer tüm içeriklerimiz gibi, İçerik Kullanım İzinleri'ne tabidir.

Bireysel zekayı "çarpan etkisi" ile yapabilirliğin doruklarına ulaştıran yapay zeka teknolojisi, belki henüz insanı birebir kopyalamıyor. Ama yapay zeka artık insan yüzünü “inanılmaz yüksek bir inandırıcılıkta” dijital olarak kopyalayıp, canlandırabiliyor. DeepFake, yapay zekanın “derin öğrenme” ve “gerçek dışı gerçeklik üretebilme” yeteneğinin bir ürünü.

DeepFake teknolojisi adını 2000’li yılların en gözde dijital platformlarından reddit.com’daki "Deepfakes" lakaplı bir kullanıcıdan alıyor. Bu kullanıcı, yapay zeka teknolojisinin makine öğrenmesini içeren, genel kullanıma açılmış bir faceswap (yüz değiştirme) uygulamasını geliştirmeye odaklanınca, bu yepyeni teknolojinin de fitilini ateşlemiş oldu. Her ne kadar bu hesap daha sonra kapatılmış olsa da, kıvılcım bir yangına dönüşmüştü bir kere...

DeepFake nedir?

DeepFake sözcüğü, "deep learning" ("derin öğrenme") ve "fake" ("sahte") kavramlarından türetilmiştir. Yapay zeka terminolojisi dahilinde, "derin öğrenme" tekniği kullanarak oluşturulan sahte videolar “DeepFake” olarak adlandırılmaktadır. Bugün yapay zeka teknolojisi yardımıyla, dijital bir görüntüyü, birkaç tıkla değiştirip, yüzü, sesi, mimikleri ve konuşması ile kişilerin kendisinden ayırt edilemeyecek kadar inandırıcı, gerçek dışı videolarını üretmek mümkün!

Basit bir yolla anlatacak olursak, DeepFake video oluşturmak isteyen bir kişi, yüzünü başka bir hedef videoya yapıştırmak istediği kişiye ait pek çok görüntüye sahip olması gerekiyor. Kaynak görüntüdeki yüz, derin öğrenme teknolojisiyle eğitilerek hedef videodaki kişinin yüzüne yapıştırılıyor. Bu sayede, hedef videoda konuşan kişinin söylediği şeyleri, kaynak videodaki kişi söylüyormuş algısı oluşturuluyor. Ne kadar çok kaynak görüntüye sahip olunursa ve bu görüntüler aracı programlarla ne kadar çok eğitilirse, o kadar iyi sonuç alınıyor.

İlk DeepFake videolarında Hollywood yıldızlarının yüzlerinin kullanılması da, internette bu ünlülerin pek çok fotoğraf ve videolarına kolayca ulaşabiliyor olmasından kaynaklanıyor. Her gün paylaştığımız fotoğraflarımız, bizi de gelecekte DeepFake kurbanı olmaya bir adım daha yaklaştırıyor.

DeepFake’in arkasındaki teknoloji nedir?

Bilinenin aksine, DeepFake videolarda kullanılan teknoloji GAN adı verilen bir algoritma değil, temelinde bir veri sıkıştırma algoritması olan autoencoder adı verilen yapay sinir ağlarıdır.

DeepFake Bizi Neden Endişelendirmeli ve Kimler Tehdit Altında?

Bir haber düşünün: Göz önünde olan bir politikacı, bir suça bulaşmış görünüyor. Ama siz, haber görüntüsünün gerçek mi sahte mi olduğu konusunda emin olamıyorsunuz. Korkunç, öyle değil mi? Peki kendi yüzünüzü bir porno filminde görseniz tepkiniz ne olurdu?

Bu tarz içerikler pek çok kez üretildi ve üretilmeye devam ediliyor. DeepFake videolar henüz yeni olsa da, her geçen gün daha da gerçekçi bir hale gelmeye devam ediyor. Daha korkutucu olan tarafı ise çok yakında bu tarz videoların herkes tarafından kolayca üretilebilecek olması.

Durum böyle olunca Instagram hesabında kendi halinde fotoğraflarını paylaşan sıradan bir vatandaştan, ülkeyi yöneten bir politikacıya kadar herkes tehdit altında... Gelin bu tehditlerin olası kaynaklarına bir bakış atalım:

Siber Zorbalık

İlk olarak, DeepFake'in bireysel düzeyde kötüye kullanılması olası. DeepFake; siber zorbalık, hakaret ve şantaj için kullanılabilir. 2017 yılında, aktrislerin ve ünlülerin yüzleriyle DeepFake "ünlü pornografisi" büyük bir trend haline geldi. Bu videolar, Reddit ve çeşitli pornografi sitelerinde paylaşıldı.

Ancak bu, ünlülerle sınırlı kalmak zorunda değil; herhangi bir insan için de yapılabilir. Bir kişi, sizin pornografik bir görüntünüzü veya videonuzu, arkadaşlarınızla ve ailenizle paylaştıysa, bundan sonra sahte olup olmadığının bir önemi kalır mı? Kimliğinize çoktan büyük bir hasar verilmiştir.

Seçimlerdeki DeepFake Tehlikesi

DeepFake videolar politikacıların söylemediği şeyleri söylemiş gibi gösterebildiği için, seçimlerde kitleleri manipüle etmeye çok müsait siyasi bir saldırı aracıdır. 2016 yılında hala tartışılan bir seçim yaşamış olan Amerika Birleşik Devletleri için, bu konu daha da önem kazanmış durumda. Pek çok eyalet bu tarz içerikleri paylaşıp yayanları sorumlu tutabilecek yasaları aktif hale getirmeye başladı. Eğer gerekli önlemler alınmaz ise, 2020 yılındaki ABD seçimlerinde DeepFake tehlikesinin etkisine birebir şahit olacağız. Muhtemelen bu tehdit, sadece ABD'deki seçimlerle sınırlı kalmayacak ve ülkemizi de etkileyecek.

Market (Borsa) Manipülasyonu

Siber zorbalığa ve seçimlere yönelik tehlikesine ek olarak, DeepFake aynı zamanda serbest piyasanın manipüle edilmesine yönelik saldırıların artmasında da önemli bir potansiyele sahip. Böyle bir durum, örneğin ABD Başkanı Donald Trump'ın, bir şirketin hisse senedi fiyatının düşmesine veya yükselmesine neden olacak şekilde, çelik ithalatı için yeni tarifeler getirmeyi veya artırmayı ifade eden bir videosunun yayınlanması ile gerçekleşebilir. Benzer bir şekilde, diğer ülkelerin başkanlarının veya milletvekillerinin görüntüleri de DeepFake ile manipüle edilerek politik krizlerin önü açılabilir, borsa bundan doğrudan etkilenebilir, art niyetli aktörler bundan kazanç sağlayabilir.

Adalet Sistemi

Herkesin ihtiyaç duyduğu adalet sistemi de DeepFake tehdidi altında büyük zararlar görebilir. Sahte kanıtlar mahkemelerde kullanılarak, dava süreçleri manipüle edilebilir ve kişiler bu şekilde insanlar, işlemedikleri suçlarla suçlanabilir. Bu nedenle masum insanlar, haksız biçimde hapse girebilir.

Öte yandan, benzer şekilde, gerçek suçlular da sahte kanıtlara dayanarak serbest bırakılabilirler ve cezadan kurtulabilirler. DeepFake'in yarattığı bu ürkütücü olasılıklar adalete duyulan güvene karşı da büyük bir tehdit oluşturuyor diyebiliriz.

Hileli Rekabet

Rakipler birbirlerine zarar vermek için DeepFake algoritmalarını bir araç olarak kullanabilirler. Bir firma, diğer bir firmayı itibarsızlaştırmak veya istikrarını bozmak için onun hakkında yanlış bir algı yayıyor olabilir. Kötü niyetli aktörler, şirketinizin tüketici sahtekarlığı, rüşvet, cinsel taciz veya aklınıza gelebilecek herhangi bir suça karıştığı hakkında sahte haberler üretip yayabilirler. Bu suçları işleyen kişiyi de, sizmişsiniz veya firmanızdan biriymiş gibi gösterebilirler. Bu tür gerçek dışı haberler, şirketinizin itibarını zedeleyebilir ve bunun aksini kanıtlamanızı zorlaştırabilir.

Dünya Çapında DeepFake Tehlikesine Karşı Atılan Gerçekçi Adımlar Neler?

Dünya çapında DeepFake tehlikesine karşı sorumluluk duyması gereken pek çok kurum ve kuruluş var. Bunların bazıları hükümet seviyesinde kurumlar, bazıları ise özel şirketlerdir. Şu ana kadar Amerika Birleşik Devletleri’nde bazı eyaletler DeepFake tehlikesine karşı yasal yaptırımlar getirmeye başladı. 

Diğer yandan Facebook, Microsoft ve Amazon DeepFake tehlikesine çözüm bulmaya çalışan siber güvenlik üreticisi şirketlere ödüllü yarışma düzenliyor. DeepFake üzerinde çalışan şirketlere yaptıkları veri yardımı yapan teknoloji devleri, ayrıca yarışmada başarılı olan şirkete 10 milyon dolar para ödülü ve 1 milyon dolar değerinde Amazon Web Services platformunda depolama servisi sağlıyorlar.

Bu yarışmaya iddialı bir şekilde katılan Türkiye’nin ödüllü çevrimiçi güvenlik çözümleri sağlayıcısı Zemana, DeepFake tehdidi karşısında da öncü olma görevini üstlendi. Zemana, dünya çapında bir ilki başararak herhangi bir videonun taratılarak DeepFake olup olmadığını anlayabileceğiniz bir platform oluşturdu. 2018-2019 yılları arasını bu konudaki araştırmalara ayıran firma, geliştirdiği çözüm sayesinde daha çok yeni olan ama kısa sürede büyük zararlar verebileceğini kanıtlayan DeepFake tehlikesine karşı, güçlü bir savunma oluşturdu. Çevrimiçi kullanıcıların aktif kullanımına sunulan platform’a Deepware üzerinden ulaşılabilir. Aynı zamanda bu çözüm, geliştirici kiti olarak, sosyal medya platformlarına, anlık mesajlaşma ve görüntülü konuşma uygulamalarına, ve medya şirketlerine büyük avantaj sağlayacak. 

Yapay Zeka temelli oluşturulan DeepFake içeriklerin en etkili halini Amerika Birleşik Devletleri’nde yapılacak olan 2020 seçimlerinde göreceğiz. Orada alınan önlemler ve kullanılan yöntemler, bize gelecek dönemde DeepFake siber saldırılarını önlemede ne kadar başarılı olabileceğimiz hakkında bir resim çizecek.

Konuyla ilgili çok daha fazla bilgi almak için buradaki yazımızı okuyabilirsiniz.

Bu İçerik Size Ne Hissettirdi?
  • Muhteşem! 5
  • Tebrikler! 8
  • Bilim Budur! 2
  • Mmm... Çok sapyoseksüel! 3
  • Güldürdü 1
  • İnanılmaz 3
  • Umut Verici! 2
  • Merak Uyandırıcı! 2
  • Üzücü! 2
  • Grrr... *@$# 2
  • İğrenç! 2
  • Korkutucu! 10

Evrim Ağacı'na her ay sadece 1 kahve ısmarlayarak destek olmak ister misiniz?

Şu iki siteden birini kullanarak şimdi destek olabilirsiniz:

kreosus.com/evrimagaci | patreon.com/evrimagaci

Çıktı Bilgisi: Bu sayfa, Evrim Ağacı yazdırma aracı kullanılarak 08/12/2019 12:26:46 tarihinde oluşturulmuştur. Evrim Ağacı'ndaki içeriklerin tamamı, birden fazla editör tarafından, durmaksızın elden geçirilmekte, güncellenmekte ve geliştirilmektedir. Dolayısıyla bu çıktının alındığı tarihten sonra yapılan güncellemeleri görmek ve bu içeriğin en güncel halini okumak için lütfen şu adrese gidiniz: https://evrimagaci.org/s/8086

İçerik Kullanım İzinleri: Evrim Ağacı'ndaki yazılı içerikler orijinallerine hiçbir şekilde dokunulmadığı müddetçe izin alınmaksızın paylaşılabilir, kopyalanabilir, yapıştırılabilir, çoğaltılabilir, basılabilir, dağıtılabilir, yayılabilir, alıntılanabilir. Ancak bu içeriklerin hiçbiri izin alınmaksızın değiştirilemez ve değiştirilmiş halleri Evrim Ağacı'na aitmiş gibi sunulamaz. Benzer şekilde, içeriklerin hiçbiri, söz konusu içeriğin açıkça belirtilmiş yazarlarından ve Evrim Ağacı'ndan başkasına aitmiş gibi sunulamaz. Bu sayfa izin alınmaksızın düzenlenemez, Evrim Ağacı logosu, yazar/editör bilgileri ve içeriğin diğer kısımları izin alınmaksızın değiştirilemez veya kaldırılamaz.

Soru Sorun!
Öğrenmeye Devam Edin!
Evrim Ağacı %100 okur destekli bir bilim platformudur. Maddi destekte bulunarak Türkiye'de modern bilimin gelişmesine güç katmak ister misiniz?
Destek Ol
Gizle
Türkiye'deki bilimseverlerin buluşma noktasına hoşgeldiniz!

Göster

Şifremi unuttum Üyelik Aktivasyonu

Göster

Şifrenizi mi unuttunuz? Lütfen e-posta adresinizi giriniz. E-posta adresinize şifrenizi sıfırlamak için bir bağlantı gönderilecektir.

Geri dön

Eğer aktivasyon kodunu almadıysanız lütfen e-posta adresinizi giriniz. Üyeliğinizi aktive etmek için e-posta adresinize bir bağlantı gönderilecektir.

Geri dön

Close
“Hatalar sayesinde öğreniriz, başarılar sayesinde değil.”
Bram Stoker
Geri Bildirim Gönder