Paylaşım Yap
Tüm Reklamları Kapat
Tüm Reklamları Kapat

Bugüne Kadar Karşılaşılan En Güçlü Siber Tehlike: DeepFake Nedir?

Bugüne Kadar Karşılaşılan En Güçlü Siber Tehlike: DeepFake Nedir?
6 dakika
24,490
Tüm Reklamları Kapat

Bireysel zekayı "çarpan etkisi" ile yapabilirliğin doruklarına ulaştıran yapay zeka teknolojisi, belki henüz insanı birebir kopyalamıyor. Ama yapay zeka artık insan yüzünü “inanılmaz yüksek bir inandırıcılıkta” dijital olarak kopyalayıp, canlandırabiliyor. DeepFake, yapay zekanın “derin öğrenme” ve “gerçek dışı gerçeklik üretebilme” yeteneğinin bir ürünü.

DeepFake teknolojisi adını 2000’li yılların en gözde dijital platformlarından reddit.com’daki "Deepfakes" lakaplı bir kullanıcıdan alıyor. Bu kullanıcı, yapay zeka teknolojisinin makine öğrenmesini içeren, genel kullanıma açılmış bir faceswap (yüz değiştirme) uygulamasını geliştirmeye odaklanınca, bu yepyeni teknolojinin de fitilini ateşlemiş oldu. Her ne kadar bu hesap daha sonra kapatılmış olsa da, kıvılcım bir yangına dönüşmüştü bir kere...

Tüm Reklamları Kapat

DeepFake nedir?

DeepFake sözcüğü, "deep learning" ("derin öğrenme") ve "fake" ("sahte") kavramlarından türetilmiştir. Yapay zeka terminolojisi dahilinde, "derin öğrenme" tekniği kullanarak oluşturulan sahte videolar “DeepFake” olarak adlandırılmaktadır. Bugün yapay zeka teknolojisi yardımıyla, dijital bir görüntüyü, birkaç tıkla değiştirip, yüzü, sesi, mimikleri ve konuşması ile kişilerin kendisinden ayırt edilemeyecek kadar inandırıcı, gerçek dışı videolarını üretmek mümkün!

Basit bir yolla anlatacak olursak, DeepFake video oluşturmak isteyen bir kişi, yüzünü başka bir hedef videoya yapıştırmak istediği kişiye ait pek çok görüntüye sahip olması gerekiyor. Kaynak görüntüdeki yüz, derin öğrenme teknolojisiyle eğitilerek hedef videodaki kişinin yüzüne yapıştırılıyor. Bu sayede, hedef videoda konuşan kişinin söylediği şeyleri, kaynak videodaki kişi söylüyormuş algısı oluşturuluyor. Ne kadar çok kaynak görüntüye sahip olunursa ve bu görüntüler aracı programlarla ne kadar çok eğitilirse, o kadar iyi sonuç alınıyor.

Tüm Reklamları Kapat

İlk DeepFake videolarında Hollywood yıldızlarının yüzlerinin kullanılması da, internette bu ünlülerin pek çok fotoğraf ve videolarına kolayca ulaşabiliyor olmasından kaynaklanıyor. Her gün paylaştığımız fotoğraflarımız, bizi de gelecekte DeepFake kurbanı olmaya bir adım daha yaklaştırıyor.

DeepFake’in arkasındaki teknoloji nedir?

Bilinenin aksine, DeepFake videolarda kullanılan teknoloji GAN adı verilen bir algoritma değil, temelinde bir veri sıkıştırma algoritması olan autoencoder adı verilen yapay sinir ağlarıdır.

DeepFake Bizi Neden Endişelendirmeli ve Kimler Tehdit Altında?

Bir haber düşünün: Göz önünde olan bir politikacı, bir suça bulaşmış görünüyor. Ama siz, haber görüntüsünün gerçek mi sahte mi olduğu konusunda emin olamıyorsunuz. Korkunç, öyle değil mi? Peki kendi yüzünüzü uygunsuz bir filimde görseniz tepkiniz ne olurdu?

Evrim Ağacı'ndan Mesaj

Bu tarz içerikler pek çok kez üretildi ve üretilmeye devam ediliyor. DeepFake videolar henüz yeni olsa da, her geçen gün daha da gerçekçi bir hale gelmeye devam ediyor. Daha korkutucu olan tarafı ise çok yakında bu tarz videoların herkes tarafından kolayca üretilebilecek olması.

Durum böyle olunca Instagram hesabında kendi halinde fotoğraflarını paylaşan sıradan bir vatandaştan, ülkeyi yöneten bir politikacıya kadar herkes tehdit altında... Gelin bu tehditlerin olası kaynaklarına bir bakış atalım:

Siber Zorbalık

İlk olarak, DeepFake'in bireysel düzeyde kötüye kullanılması olası. DeepFake; siber zorbalık, hakaret ve şantaj için kullanılabilir. 2017 yılında, aktrislerin ve ünlülerin yüzleriyle DeepFake "ünlü pornografisi" büyük bir trend haline geldi. Bu videolar, Reddit ve çeşitli pornografi sitelerinde paylaşıldı.

Ancak bu, ünlülerle sınırlı kalmak zorunda değil; herhangi bir insan için de yapılabilir. Bir kişi, sizin pornografik bir görüntünüzü veya videonuzu, arkadaşlarınızla ve ailenizle paylaştıysa, bundan sonra sahte olup olmadığının bir önemi kalır mı? Kimliğinize çoktan büyük bir hasar verilmiştir.

Seçimlerdeki DeepFake Tehlikesi

DeepFake videolar politikacıların söylemediği şeyleri söylemiş gibi gösterebildiği için, seçimlerde kitleleri manipüle etmeye çok müsait siyasi bir saldırı aracıdır. 2016 yılında hala tartışılan bir seçim yaşamış olan Amerika Birleşik Devletleri için, bu konu daha da önem kazanmış durumda. Pek çok eyalet bu tarz içerikleri paylaşıp yayanları sorumlu tutabilecek yasaları aktif hale getirmeye başladı. Eğer gerekli önlemler alınmaz ise, 2020 yılındaki ABD seçimlerinde DeepFake tehlikesinin etkisine birebir şahit olacağız. Muhtemelen bu tehdit, sadece ABD'deki seçimlerle sınırlı kalmayacak ve ülkemizi de etkileyecek.

Tüm Reklamları Kapat

Market (Borsa) Manipülasyonu

Siber zorbalığa ve seçimlere yönelik tehlikesine ek olarak, DeepFake aynı zamanda serbest piyasanın manipüle edilmesine yönelik saldırıların artmasında da önemli bir potansiyele sahip. Böyle bir durum, örneğin ABD Başkanı Donald Trump'ın, bir şirketin hisse senedi fiyatının düşmesine veya yükselmesine neden olacak şekilde, çelik ithalatı için yeni tarifeler getirmeyi veya artırmayı ifade eden bir videosunun yayınlanması ile gerçekleşebilir. Benzer bir şekilde, diğer ülkelerin başkanlarının veya milletvekillerinin görüntüleri de DeepFake ile manipüle edilerek politik krizlerin önü açılabilir, borsa bundan doğrudan etkilenebilir, art niyetli aktörler bundan kazanç sağlayabilir.

Adalet Sistemi

Herkesin ihtiyaç duyduğu adalet sistemi de DeepFake tehdidi altında büyük zararlar görebilir. Sahte kanıtlar mahkemelerde kullanılarak, dava süreçleri manipüle edilebilir ve kişiler bu şekilde insanlar, işlemedikleri suçlarla suçlanabilir. Bu nedenle masum insanlar, haksız biçimde hapse girebilir.

Öte yandan, benzer şekilde, gerçek suçlular da sahte kanıtlara dayanarak serbest bırakılabilirler ve cezadan kurtulabilirler. DeepFake'in yarattığı bu ürkütücü olasılıklar adalete duyulan güvene karşı da büyük bir tehdit oluşturuyor diyebiliriz.

Hileli Rekabet

Rakipler birbirlerine zarar vermek için DeepFake algoritmalarını bir araç olarak kullanabilirler. Bir firma, diğer bir firmayı itibarsızlaştırmak veya istikrarını bozmak için onun hakkında yanlış bir algı yayıyor olabilir. Kötü niyetli aktörler, şirketinizin tüketici sahtekarlığı, rüşvet, cinsel taciz veya aklınıza gelebilecek herhangi bir suça karıştığı hakkında sahte haberler üretip yayabilirler. Bu suçları işleyen kişiyi de, sizmişsiniz veya firmanızdan biriymiş gibi gösterebilirler. Bu tür gerçek dışı haberler, şirketinizin itibarını zedeleyebilir ve bunun aksini kanıtlamanızı zorlaştırabilir.

Tüm Reklamları Kapat

Dünya Çapında DeepFake Tehlikesine Karşı Atılan Gerçekçi Adımlar Neler?

Dünya çapında DeepFake tehlikesine karşı sorumluluk duyması gereken pek çok kurum ve kuruluş var. Bunların bazıları hükümet seviyesinde kurumlar, bazıları ise özel şirketlerdir. Şu ana kadar Amerika Birleşik Devletleri’nde bazı eyaletler DeepFake tehlikesine karşı yasal yaptırımlar getirmeye başladı. 

Diğer yandan Facebook, Microsoft ve Amazon DeepFake tehlikesine çözüm bulmaya çalışan siber güvenlik üreticisi şirketlere ödüllü yarışma düzenliyor. DeepFake üzerinde çalışan şirketlere yaptıkları veri yardımı yapan teknoloji devleri, ayrıca yarışmada başarılı olan şirkete 10 milyon dolar para ödülü ve 1 milyon dolar değerinde Amazon Web Services platformunda depolama servisi sağlıyorlar.

Bu yarışmaya iddialı bir şekilde katılan Türkiye’nin ödüllü çevrimiçi güvenlik çözümleri sağlayıcısı Zemana, DeepFake tehdidi karşısında da öncü olma görevini üstlendi. Zemana, dünya çapında bir ilki başararak herhangi bir videonun taratılarak DeepFake olup olmadığını anlayabileceğiniz bir platform oluşturdu. 2018-2019 yılları arasını bu konudaki araştırmalara ayıran firma, geliştirdiği çözüm sayesinde daha çok yeni olan ama kısa sürede büyük zararlar verebileceğini kanıtlayan DeepFake tehlikesine karşı, güçlü bir savunma oluşturdu. Çevrimiçi kullanıcıların aktif kullanımına sunulan platform’a Deepware üzerinden ulaşılabilir. Aynı zamanda bu çözüm, geliştirici kiti olarak, sosyal medya platformlarına, anlık mesajlaşma ve görüntülü konuşma uygulamalarına, ve medya şirketlerine büyük avantaj sağlayacak. 

Yapay Zeka temelli oluşturulan DeepFake içeriklerin en etkili halini Amerika Birleşik Devletleri’nde yapılacak olan 2020 seçimlerinde göreceğiz. Orada alınan önlemler ve kullanılan yöntemler, bize gelecek dönemde DeepFake siber saldırılarını önlemede ne kadar başarılı olabileceğimiz hakkında bir resim çizecek.

Konuyla ilgili çok daha fazla bilgi almak için buradaki yazımızı okuyabilirsiniz.

Bu Makaleyi Alıntıla
Okundu Olarak İşaretle
62
0
  • Paylaş
  • Alıntıla
  • Alıntıları Göster
Paylaş
Sonra Oku
Notlarım
Yazdır / PDF Olarak Kaydet
Bize Ulaş
Yukarı Zıpla

İçeriklerimizin bilimsel gerçekleri doğru bir şekilde yansıtması için en üst düzey çabayı gösteriyoruz. Gözünüze doğru gelmeyen bir şey varsa, mümkünse güvenilir kaynaklarınızla birlikte bize ulaşın!

Bu içeriğimizle ilgili bir sorunuz mu var? Buraya tıklayarak sorabilirsiniz.

Soru & Cevap Platformuna Git
Bu İçerik Size Ne Hissettirdi?
  • Tebrikler! 26
  • Korkutucu! 23
  • Muhteşem! 14
  • Merak Uyandırıcı! 12
  • İnanılmaz 10
  • Mmm... Çok sapyoseksüel! 7
  • Bilim Budur! 6
  • Umut Verici! 6
  • Grrr... *@$# 5
  • İğrenç! 5
  • Üzücü! 3
  • Güldürdü 1
Tüm Reklamları Kapat

Evrim Ağacı'na her ay sadece 1 kahve ısmarlayarak destek olmak ister misiniz?

Şu iki siteden birini kullanarak şimdi destek olabilirsiniz:

kreosus.com/evrimagaci | patreon.com/evrimagaci

Çıktı Bilgisi: Bu sayfa, Evrim Ağacı yazdırma aracı kullanılarak 19/03/2024 08:27:56 tarihinde oluşturulmuştur. Evrim Ağacı'ndaki içeriklerin tamamı, birden fazla editör tarafından, durmaksızın elden geçirilmekte, güncellenmekte ve geliştirilmektedir. Dolayısıyla bu çıktının alındığı tarihten sonra yapılan güncellemeleri görmek ve bu içeriğin en güncel halini okumak için lütfen şu adrese gidiniz: https://evrimagaci.org/s/8086

İçerik Kullanım İzinleri: Evrim Ağacı'ndaki yazılı içerikler orijinallerine hiçbir şekilde dokunulmadığı müddetçe izin alınmaksızın paylaşılabilir, kopyalanabilir, yapıştırılabilir, çoğaltılabilir, basılabilir, dağıtılabilir, yayılabilir, alıntılanabilir. Ancak bu içeriklerin hiçbiri izin alınmaksızın değiştirilemez ve değiştirilmiş halleri Evrim Ağacı'na aitmiş gibi sunulamaz. Benzer şekilde, içeriklerin hiçbiri, söz konusu içeriğin açıkça belirtilmiş yazarlarından ve Evrim Ağacı'ndan başkasına aitmiş gibi sunulamaz. Bu sayfa izin alınmaksızın düzenlenemez, Evrim Ağacı logosu, yazar/editör bilgileri ve içeriğin diğer kısımları izin alınmaksızın değiştirilemez veya kaldırılamaz.

Tüm Reklamları Kapat
Keşfet
Akış
İçerikler
Gündem
Bellek
Genel Görelilik
Maske Takmak
İklim Değişikliği
Bilim İnsanları
Kök Hücre
Antibiyotik
Mers
Araştırmacılar
Nükleer Enerji
Evrim Ağacı
Böcek Bilimi
Çekirdek
Siyah
Avcı
Temel
Gıda Güvenliği
Uterus
Çevre
Amerika Birleşik Devletleri
Çiçek
Film
Karar Verme
Kuş
Demir
Aklımdan Geçen
Komünite Seç
Aklımdan Geçen
Fark Ettim ki...
Bugün Öğrendim ki...
İşe Yarar İpucu
Bilim Haberleri
Hikaye Fikri
Video Konu Önerisi
Başlık
Gündem
Kafana takılan neler var?
Bağlantı
Kurallar
Komünite Kuralları
Bu komünite, aklınızdan geçen düşünceleri Evrim Ağacı ailesiyle paylaşabilmeniz içindir. Yapacağınız paylaşımlar Evrim Ağacı'nın kurallarına tabidir. Ayrıca bu komünitenin ek kurallarına da uymanız gerekmektedir.
1
Bilim kimliğinizi önceleyin.
Evrim Ağacı bir bilim platformudur. Dolayısıyla aklınızdan geçen her şeyden ziyade, bilim veya yaşamla ilgili olabilecek düşüncelerinizle ilgileniyoruz.
2
Propaganda ve baskı amaçlı kullanmayın.
Herkesin aklından her şey geçebilir; fakat bu platformun amacı, insanların belli ideolojiler için propaganda yapmaları veya başkaları üzerinde baskı kurma amacıyla geliştirilmemiştir. Paylaştığınız fikirlerin değer kattığından emin olun.
3
Gerilim yaratmayın.
Gerilim, tersleme, tahrik, taciz, alay, dedikodu, trollük, vurdumduymazlık, duyarsızlık, ırkçılık, bağnazlık, nefret söylemi, azınlıklara saldırı, fanatizm, holiganlık, sloganlar yasaktır.
4
Değer katın; hassas konulardan ve öznel yoruma açık alanlardan uzak durun.
Bu komünitenin amacı okurlara hayatla ilgili keyifli farkındalıklar yaşatabilmektir. Din, politika, spor, aktüel konular gibi anlık tepkilere neden olabilecek konulardaki tespitlerden kaçının. Ayrıca aklınızdan geçenlerin Türkiye’deki bilim komünitesine değer katması beklenmektedir.
5
Cevap hakkı doğurmayın.
Bu platformda cevap veya yorum sistemi bulunmamaktadır. Dolayısıyla aklınızdan geçenlerin, tespit edilebilir kişilere cevap hakkı doğurmadığından emin olun.
Ekle
Soru Sor
Sosyal
Yeniler
Daha Fazla İçerik Göster
Popüler Yazılar
30 gün
90 gün
1 yıl
Evrim Ağacı'na Destek Ol

Evrim Ağacı'nın %100 okur destekli bir bilim platformu olduğunu biliyor muydunuz? Evrim Ağacı'nın maddi destekçileri arasına katılarak Türkiye'de bilimin yayılmasına güç katın.

Evrim Ağacı'nı Takip Et!
Yazı Geçmişi
Okuma Geçmişi
Notlarım
İlerleme Durumunu Güncelle
Okudum
Sonra Oku
Not Ekle
Kaldığım Yeri İşaretle
Göz Attım

Evrim Ağacı tarafından otomatik olarak takip edilen işlemleri istediğin zaman durdurabilirsin.
[Site ayalarına git...]

Filtrele
Listele
Bu yazıdaki hareketlerin
Devamını Göster
Filtrele
Listele
Tüm Okuma Geçmişin
Devamını Göster
0/10000
Bu Makaleyi Alıntıla
Evrim Ağacı Formatı
APA7
MLA9
Chicago
Y. Atmaca, et al. Bugüne Kadar Karşılaşılan En Güçlü Siber Tehlike: DeepFake Nedir?. (1 Aralık 2019). Alındığı Tarih: 19 Mart 2024. Alındığı Yer: https://evrimagaci.org/s/8086
Atmaca, Y., Bakırcı, Ç. M. (2019, December 01). Bugüne Kadar Karşılaşılan En Güçlü Siber Tehlike: DeepFake Nedir?. Evrim Ağacı. Retrieved March 19, 2024. from https://evrimagaci.org/s/8086
Y. Atmaca, et al. “Bugüne Kadar Karşılaşılan En Güçlü Siber Tehlike: DeepFake Nedir?.” Edited by Çağrı Mert Bakırcı. Evrim Ağacı, 01 Dec. 2019, https://evrimagaci.org/s/8086.
Atmaca, Yağızhan. Bakırcı, Çağrı Mert. “Bugüne Kadar Karşılaşılan En Güçlü Siber Tehlike: DeepFake Nedir?.” Edited by Çağrı Mert Bakırcı. Evrim Ağacı, December 01, 2019. https://evrimagaci.org/s/8086.
ve seni takip ediyor

Göster

Şifrenizi mi unuttunuz? Lütfen e-posta adresinizi giriniz. E-posta adresinize şifrenizi sıfırlamak için bir bağlantı gönderilecektir.

Geri dön

Eğer aktivasyon kodunu almadıysanız lütfen e-posta adresinizi giriniz. Üyeliğinizi aktive etmek için e-posta adresinize bir bağlantı gönderilecektir.

Geri dön

Close