Bugüne Kadar Karşılaşılan En Güçlü Siber Tehlike: DeepFake Nedir?
Bireysel zekayı "çarpan etkisi" ile yapabilirliğin doruklarına ulaştıran yapay zeka teknolojisi, belki henüz insanı birebir kopyalamıyor. Ama yapay zeka artık insan yüzünü “inanılmaz yüksek bir inandırıcılıkta” dijital olarak kopyalayıp, canlandırabiliyor. DeepFake, yapay zekanın “derin öğrenme” ve “gerçek dışı gerçeklik üretebilme” yeteneğinin bir ürünü.
DeepFake teknolojisi adını 2000’li yılların en gözde dijital platformlarından reddit.com’daki "Deepfakes" lakaplı bir kullanıcıdan alıyor. Bu kullanıcı, yapay zeka teknolojisinin makine öğrenmesini içeren, genel kullanıma açılmış bir faceswap (yüz değiştirme) uygulamasını geliştirmeye odaklanınca, bu yepyeni teknolojinin de fitilini ateşlemiş oldu. Her ne kadar bu hesap daha sonra kapatılmış olsa da, kıvılcım bir yangına dönüşmüştü bir kere...
DeepFake nedir?
DeepFake sözcüğü, "deep learning" ("derin öğrenme") ve "fake" ("sahte") kavramlarından türetilmiştir. Yapay zeka terminolojisi dahilinde, "derin öğrenme" tekniği kullanarak oluşturulan sahte videolar “DeepFake” olarak adlandırılmaktadır. Bugün yapay zeka teknolojisi yardımıyla, dijital bir görüntüyü, birkaç tıkla değiştirip, yüzü, sesi, mimikleri ve konuşması ile kişilerin kendisinden ayırt edilemeyecek kadar inandırıcı, gerçek dışı videolarını üretmek mümkün!
Basit bir yolla anlatacak olursak, DeepFake video oluşturmak isteyen bir kişi, yüzünü başka bir hedef videoya yapıştırmak istediği kişiye ait pek çok görüntüye sahip olması gerekiyor. Kaynak görüntüdeki yüz, derin öğrenme teknolojisiyle eğitilerek hedef videodaki kişinin yüzüne yapıştırılıyor. Bu sayede, hedef videoda konuşan kişinin söylediği şeyleri, kaynak videodaki kişi söylüyormuş algısı oluşturuluyor. Ne kadar çok kaynak görüntüye sahip olunursa ve bu görüntüler aracı programlarla ne kadar çok eğitilirse, o kadar iyi sonuç alınıyor.
İlk DeepFake videolarında Hollywood yıldızlarının yüzlerinin kullanılması da, internette bu ünlülerin pek çok fotoğraf ve videolarına kolayca ulaşabiliyor olmasından kaynaklanıyor. Her gün paylaştığımız fotoğraflarımız, bizi de gelecekte DeepFake kurbanı olmaya bir adım daha yaklaştırıyor.
DeepFake’in arkasındaki teknoloji nedir?
Bilinenin aksine, DeepFake videolarda kullanılan teknoloji GAN adı verilen bir algoritma değil, temelinde bir veri sıkıştırma algoritması olan autoencoder adı verilen yapay sinir ağlarıdır.
DeepFake Bizi Neden Endişelendirmeli ve Kimler Tehdit Altında?
Bir haber düşünün: Göz önünde olan bir politikacı, bir suça bulaşmış görünüyor. Ama siz, haber görüntüsünün gerçek mi sahte mi olduğu konusunda emin olamıyorsunuz. Korkunç, öyle değil mi? Peki kendi yüzünüzü uygunsuz bir filimde görseniz tepkiniz ne olurdu?
Bu tarz içerikler pek çok kez üretildi ve üretilmeye devam ediliyor. DeepFake videolar henüz yeni olsa da, her geçen gün daha da gerçekçi bir hale gelmeye devam ediyor. Daha korkutucu olan tarafı ise çok yakında bu tarz videoların herkes tarafından kolayca üretilebilecek olması.
Durum böyle olunca Instagram hesabında kendi halinde fotoğraflarını paylaşan sıradan bir vatandaştan, ülkeyi yöneten bir politikacıya kadar herkes tehdit altında... Gelin bu tehditlerin olası kaynaklarına bir bakış atalım:
Siber Zorbalık
İlk olarak, DeepFake'in bireysel düzeyde kötüye kullanılması olası. DeepFake; siber zorbalık, hakaret ve şantaj için kullanılabilir. 2017 yılında, aktrislerin ve ünlülerin yüzleriyle DeepFake "ünlü pornografisi" büyük bir trend haline geldi. Bu videolar, Reddit ve çeşitli pornografi sitelerinde paylaşıldı.
Ancak bu, ünlülerle sınırlı kalmak zorunda değil; herhangi bir insan için de yapılabilir. Bir kişi, sizin pornografik bir görüntünüzü veya videonuzu, arkadaşlarınızla ve ailenizle paylaştıysa, bundan sonra sahte olup olmadığının bir önemi kalır mı? Kimliğinize çoktan büyük bir hasar verilmiştir.
Evrim Ağacı'nın çalışmalarına Kreosus, Patreon veya YouTube üzerinden maddi destekte bulunarak hem Türkiye'de bilim anlatıcılığının gelişmesine katkı sağlayabilirsiniz, hem de site ve uygulamamızı reklamsız olarak deneyimleyebilirsiniz. Reklamsız deneyim, sitemizin/uygulamamızın çeşitli kısımlarda gösterilen Google reklamlarını ve destek çağrılarını görmediğiniz, %100 reklamsız ve çok daha temiz bir site deneyimi sunmaktadır.
KreosusKreosus'ta her 10₺'lik destek, 1 aylık reklamsız deneyime karşılık geliyor. Bu sayede, tek seferlik destekçilerimiz de, aylık destekçilerimiz de toplam destekleriyle doğru orantılı bir süre boyunca reklamsız deneyim elde edebiliyorlar.
Kreosus destekçilerimizin reklamsız deneyimi, destek olmaya başladıkları anda devreye girmektedir ve ek bir işleme gerek yoktur.
PatreonPatreon destekçilerimiz, destek miktarından bağımsız olarak, Evrim Ağacı'na destek oldukları süre boyunca reklamsız deneyime erişmeyi sürdürebiliyorlar.
Patreon destekçilerimizin Patreon ile ilişkili e-posta hesapları, Evrim Ağacı'ndaki üyelik e-postaları ile birebir aynı olmalıdır. Patreon destekçilerimizin reklamsız deneyiminin devreye girmesi 24 saat alabilmektedir.
YouTubeYouTube destekçilerimizin hepsi otomatik olarak reklamsız deneyime şimdilik erişemiyorlar ve şu anda, YouTube üzerinden her destek seviyesine reklamsız deneyim ayrıcalığını sunamamaktayız. YouTube Destek Sistemi üzerinde sunulan farklı seviyelerin açıklamalarını okuyarak, hangi ayrıcalıklara erişebileceğinizi öğrenebilirsiniz.
Eğer seçtiğiniz seviye reklamsız deneyim ayrıcalığı sunuyorsa, destek olduktan sonra YouTube tarafından gösterilecek olan bağlantıdaki formu doldurarak reklamsız deneyime erişebilirsiniz. YouTube destekçilerimizin reklamsız deneyiminin devreye girmesi, formu doldurduktan sonra 24-72 saat alabilmektedir.
Diğer PlatformlarBu 3 platform haricinde destek olan destekçilerimize ne yazık ki reklamsız deneyim ayrıcalığını sunamamaktayız. Destekleriniz sayesinde sistemlerimizi geliştirmeyi sürdürüyoruz ve umuyoruz bu ayrıcalıkları zamanla genişletebileceğiz.
Giriş yapmayı unutmayın!Reklamsız deneyim için, maddi desteğiniz ile ilişkilendirilmiş olan Evrim Ağacı hesabınıza üye girişi yapmanız gerekmektedir. Giriş yapmadığınız takdirde reklamları görmeye devam edeceksinizdir.
Seçimlerdeki DeepFake Tehlikesi
DeepFake videolar politikacıların söylemediği şeyleri söylemiş gibi gösterebildiği için, seçimlerde kitleleri manipüle etmeye çok müsait siyasi bir saldırı aracıdır. 2016 yılında hala tartışılan bir seçim yaşamış olan Amerika Birleşik Devletleri için, bu konu daha da önem kazanmış durumda. Pek çok eyalet bu tarz içerikleri paylaşıp yayanları sorumlu tutabilecek yasaları aktif hale getirmeye başladı. Eğer gerekli önlemler alınmaz ise, 2020 yılındaki ABD seçimlerinde DeepFake tehlikesinin etkisine birebir şahit olacağız. Muhtemelen bu tehdit, sadece ABD'deki seçimlerle sınırlı kalmayacak ve ülkemizi de etkileyecek.
Market (Borsa) Manipülasyonu
Siber zorbalığa ve seçimlere yönelik tehlikesine ek olarak, DeepFake aynı zamanda serbest piyasanın manipüle edilmesine yönelik saldırıların artmasında da önemli bir potansiyele sahip. Böyle bir durum, örneğin ABD Başkanı Donald Trump'ın, bir şirketin hisse senedi fiyatının düşmesine veya yükselmesine neden olacak şekilde, çelik ithalatı için yeni tarifeler getirmeyi veya artırmayı ifade eden bir videosunun yayınlanması ile gerçekleşebilir. Benzer bir şekilde, diğer ülkelerin başkanlarının veya milletvekillerinin görüntüleri de DeepFake ile manipüle edilerek politik krizlerin önü açılabilir, borsa bundan doğrudan etkilenebilir, art niyetli aktörler bundan kazanç sağlayabilir.
Adalet Sistemi
Herkesin ihtiyaç duyduğu adalet sistemi de DeepFake tehdidi altında büyük zararlar görebilir. Sahte kanıtlar mahkemelerde kullanılarak, dava süreçleri manipüle edilebilir ve kişiler bu şekilde insanlar, işlemedikleri suçlarla suçlanabilir. Bu nedenle masum insanlar, haksız biçimde hapse girebilir.
Öte yandan, benzer şekilde, gerçek suçlular da sahte kanıtlara dayanarak serbest bırakılabilirler ve cezadan kurtulabilirler. DeepFake'in yarattığı bu ürkütücü olasılıklar adalete duyulan güvene karşı da büyük bir tehdit oluşturuyor diyebiliriz.
Hileli Rekabet
Rakipler birbirlerine zarar vermek için DeepFake algoritmalarını bir araç olarak kullanabilirler. Bir firma, diğer bir firmayı itibarsızlaştırmak veya istikrarını bozmak için onun hakkında yanlış bir algı yayıyor olabilir. Kötü niyetli aktörler, şirketinizin tüketici sahtekarlığı, rüşvet, cinsel taciz veya aklınıza gelebilecek herhangi bir suça karıştığı hakkında sahte haberler üretip yayabilirler. Bu suçları işleyen kişiyi de, sizmişsiniz veya firmanızdan biriymiş gibi gösterebilirler. Bu tür gerçek dışı haberler, şirketinizin itibarını zedeleyebilir ve bunun aksini kanıtlamanızı zorlaştırabilir.
Dünya Çapında DeepFake Tehlikesine Karşı Atılan Gerçekçi Adımlar Neler?
Dünya çapında DeepFake tehlikesine karşı sorumluluk duyması gereken pek çok kurum ve kuruluş var. Bunların bazıları hükümet seviyesinde kurumlar, bazıları ise özel şirketlerdir. Şu ana kadar Amerika Birleşik Devletleri’nde bazı eyaletler DeepFake tehlikesine karşı yasal yaptırımlar getirmeye başladı.
Diğer yandan Facebook, Microsoft ve Amazon DeepFake tehlikesine çözüm bulmaya çalışan siber güvenlik üreticisi şirketlere ödüllü yarışma düzenliyor. DeepFake üzerinde çalışan şirketlere yaptıkları veri yardımı yapan teknoloji devleri, ayrıca yarışmada başarılı olan şirkete 10 milyon dolar para ödülü ve 1 milyon dolar değerinde Amazon Web Services platformunda depolama servisi sağlıyorlar.
Bu yarışmaya iddialı bir şekilde katılan Türkiye’nin ödüllü çevrimiçi güvenlik çözümleri sağlayıcısı Zemana, DeepFake tehdidi karşısında da öncü olma görevini üstlendi. Zemana, dünya çapında bir ilki başararak herhangi bir videonun taratılarak DeepFake olup olmadığını anlayabileceğiniz bir platform oluşturdu. 2018-2019 yılları arasını bu konudaki araştırmalara ayıran firma, geliştirdiği çözüm sayesinde daha çok yeni olan ama kısa sürede büyük zararlar verebileceğini kanıtlayan DeepFake tehlikesine karşı, güçlü bir savunma oluşturdu. Çevrimiçi kullanıcıların aktif kullanımına sunulan platform’a Deepware üzerinden ulaşılabilir. Aynı zamanda bu çözüm, geliştirici kiti olarak, sosyal medya platformlarına, anlık mesajlaşma ve görüntülü konuşma uygulamalarına, ve medya şirketlerine büyük avantaj sağlayacak.
Yapay Zeka temelli oluşturulan DeepFake içeriklerin en etkili halini Amerika Birleşik Devletleri’nde yapılacak olan 2020 seçimlerinde göreceğiz. Orada alınan önlemler ve kullanılan yöntemler, bize gelecek dönemde DeepFake siber saldırılarını önlemede ne kadar başarılı olabileceğimiz hakkında bir resim çizecek.
Konuyla ilgili çok daha fazla bilgi almak için buradaki yazımızı okuyabilirsiniz.
İçeriklerimizin bilimsel gerçekleri doğru bir şekilde yansıtması için en üst düzey çabayı gösteriyoruz. Gözünüze doğru gelmeyen bir şey varsa, mümkünse güvenilir kaynaklarınızla birlikte bize ulaşın!
Bu içeriğimizle ilgili bir sorunuz mu var? Buraya tıklayarak sorabilirsiniz.
Soru & Cevap Platformuna Git- 26
- 23
- 14
- 12
- 10
- 7
- 6
- 6
- 5
- 5
- 3
- 1
Evrim Ağacı'na her ay sadece 1 kahve ısmarlayarak destek olmak ister misiniz?
Şu iki siteden birini kullanarak şimdi destek olabilirsiniz:
kreosus.com/evrimagaci | patreon.com/evrimagaci
Çıktı Bilgisi: Bu sayfa, Evrim Ağacı yazdırma aracı kullanılarak 21/12/2024 19:03:43 tarihinde oluşturulmuştur. Evrim Ağacı'ndaki içeriklerin tamamı, birden fazla editör tarafından, durmaksızın elden geçirilmekte, güncellenmekte ve geliştirilmektedir. Dolayısıyla bu çıktının alındığı tarihten sonra yapılan güncellemeleri görmek ve bu içeriğin en güncel halini okumak için lütfen şu adrese gidiniz: https://evrimagaci.org/s/8086
İçerik Kullanım İzinleri: Evrim Ağacı'ndaki yazılı içerikler orijinallerine hiçbir şekilde dokunulmadığı müddetçe izin alınmaksızın paylaşılabilir, kopyalanabilir, yapıştırılabilir, çoğaltılabilir, basılabilir, dağıtılabilir, yayılabilir, alıntılanabilir. Ancak bu içeriklerin hiçbiri izin alınmaksızın değiştirilemez ve değiştirilmiş halleri Evrim Ağacı'na aitmiş gibi sunulamaz. Benzer şekilde, içeriklerin hiçbiri, söz konusu içeriğin açıkça belirtilmiş yazarlarından ve Evrim Ağacı'ndan başkasına aitmiş gibi sunulamaz. Bu sayfa izin alınmaksızın düzenlenemez, Evrim Ağacı logosu, yazar/editör bilgileri ve içeriğin diğer kısımları izin alınmaksızın değiştirilemez veya kaldırılamaz.