Bu Reklamı Kapat
Bu Reklamı Kapat

Bilgi Kıyameti: Felsefeciler, Deepfake'i Neden Tehlikeli Buluyorlar?

Bilgi Kıyameti: Felsefeciler, Deepfake'i Neden Tehlikeli Buluyorlar? Wikimedia
8 dakika
9,181
  • Bilgi Felsefesi (Epistemoloji)
  • Yapay Zeka

Bir kişiye ait fotoğraf veya video üzerine, bir başka kişinin yüzünün veya jest/mimiklerinin yapay zeka teknolojileri yardımıyla hipergerçekçi bir şekilde oturtulması olarak tanımlanabilecek deepfake, son yılların en ilgi çekici teknolojik gelişmelerinden biri olmayı başardı. Yapay zekâ çalışmalarında elde edilen başarının neticesi olarak Deepfake, artık sıradan kullanıcıların dahi erişebildiği bir video manipülasyon tekniği haline geldi.

Gelgelelim, akademik felsefeciler bu durumdan pek hoşnut değiller. Peki, Deepfake'i felsefeciler için can sıkıcı yapan unsurlar neler? Deepfake, felsefi açıdan hangi tehlikelere yol açabilir?

Bu Reklamı Kapat

Nesnel Teminat Tehdit Altında!

Bu soruya değinmeden önce geçmişe kısa bir yolculuk yapalım. Binlerce sene evvel Sümerliler yazılı sözleşmeler hazırlarken bu sözleşmeleri kil tabletlere yazıyor, sonra da bu tabletlerin etrafına tıpkı bir zarf gibi (ve tabii ki yine kilden) katmanlar ekliyorlardı. Bu katmanların yoğunluğu farklıydı, bu sebeple herhangi bir anlaşmazlık halinde bu katmanları söküp korumaya alınan sözleşmeye bakabiliyorlardı. Böylece, eğer taraflardan biri sözleşmeye aykırı beyanda bulunuyorsa, bu beyanın geçersizliği nesnel bir delilin varlığıyla ispatlanabiliyordu. Bu, belki de insanlığın keşfettiği ve insan beyanından bağımsız ilk epistemik teminattı. İlerleyen satırlarda "epistemik teminat" kavramından daha detaylı olarak bahsedeceğiz.

Sümerler'den beri insanlık, nesnel teminat yöntemleri geliştirmeye devam etti. Daha kolay muhafaza edilebilen yazılı sözleşmeler ortaya çıktı. Elbette bu sözleşmelerin güvenilirliğini sağlayan mühürler de gerekliydi. O günün teknolojisiyle manipüle etmenin çok zor, belki de imkânsız olduğu yöntemler üzerinde durmaksızın çalışıldı. Fotoğrafın yaygınlaşmasıyla ilk defa belli bir mekânın belli bir anda nasıl göründüğünü nesnel olarak kaydetmeyi başardık. Haliyle, anlaşmazlık halindeki iki taraftan biri eğer diğer tarafın beyanını geçersiz kılabilecek bir fotoğraf karesi öne sürebilirse, bu delil başka hiçbir yöntemin sağlamadığı bir güvence sağlayabiliyordu ve karşı tarafın beyanı oldukça zayıflıyordu. Bu durum halen (kısmen de olsa) geçerli olabilir; ancak foto manipülasyon tekniklerinin gelişmesiyle, fotoğraf teknolojisinin güvenilirliği de ciddi şekilde azaldı. Bilhassa bilgisayar kullanımının yaygınlaşması ve fotoğraf düzenleme araçlarının kullanımının kolaylaşmasıyla, bir fotoğrafın manipüle edildiğini iddia etmek sıra dışı bir durum olmaktan çıktı.

Bu Reklamı Kapat

Aynı durum, fotoğraf teknolojisini takip eden video teknolojisi için de geçerli oldu. Birbirini hızla takip eden fotoğraf karelerinden oluşan video kayıtları da, her ne kadar insan gözüne en yakın nesnel teminatı sağlıyor olsalar da, koşulsuz şartsız güvenilir olma özelliklerini kaybettiler. Bu durum, elbette Deepfake teknolojisinden çok daha önce meydana geldi; fakat günümüzde iyi manipüle edilmiş bir fotoğrafın insan gözüyle anlaşılması neredeyse imkansızken, aynı durum video kayıtları için henüz geçerli değil. Bugüne kadar ne kadar iyi manipüle edilmiş olursa olsun bir video kaydının gerçeği temsil edip etmediğini, manipüle edilip edilmediğini anlamak için dikkatli bir insan olmak (ve belki de iyi bir seyirci olmak) yeterliydi. Deepfake'in çok yüksek ihtimalle önümüzdeki yıllarda elde etmiş olacağı teknolojik başarıyla birlikte, bu durum da söz konusu olmaktan çıkabilir.

Bu arka plan bilgileri ışığında, esas sorumuza dönebiliriz.

Deepfake Neydi?

Deepfake, geçtiğimiz yıllarda ortaya çıkmış ve video kayıtlarında mevcut bulunan insanların yüzlerini yapay zekâ yardımıyla esasında orada olmayan insanların yüzleriyle değiştirip bu yolla gerçeği yansıtmayan video kayıtları yaratabilen bir video manipülasyon tekniği. Deepfake ile, aslında belli bir zaman ve mekânda bulunmamış bir insanı orada bulunmuş ve aslında söylemediği şeyleri söylemiş gibi göstermek mümkün. Tabii ki, bunu tamamen ayırt edilemez bir şekilde yapabildiğini söylemek halen zor; ancak bu durumun değişeceğine ve bir video kaydının asıl kayıt olup olmadığını anlamanın imkânsız hale gelebileceğine inanmak oldukça makul.

Evrim Ağacı'ndan Mesaj

Bu durumun ne tarz sorunlara yol açabileceğini tahmin etmek elbette zor değil. Bu yüzden, Deepfake'in ortaya çıkışıyla hem medyada hem de felsefeciler arasında "infopocalypse" yani Türkçeye "bilgi kıyameti" olarak çevrilebilecek durumun mümkün olduğu konuşulmaya başlandı.

Peki, felsefeciler neden bilgi kıyametinin mümkün olduğunu düşünüyorlar?

Bir Bilgi Taşıma Aracı Olarak Video

Not: Bu noktada, daha fazla ilerlemeden önce bir parantez açıp, oldukça elzem bir uyarıda bulunmamız gerekiyor: Türkçede "yanlış bilgi" dediğimiz zaman kulağımıza tuhaf gelmiyor, değil mi? İşte bu durum İngilizcede böyle değil. İngilizcede ve aynı zamanda akademik felsefede "bilgi" denen şey, tanımı gereği doğrudur. Türkçede "yanlış bilgi" dediğimiz zaman işaret ettiğimiz şey ise, esasında hatalı enformasyondur. Fakat, günlük dilde "enformasyon" yerine "bilgi" kelimesinin kullanımı çok yaygın olduğu için, bu yazıda da "bilgi" kelimesi kullanılmıştır.

***

Fred Dretske'ye göre bir şey (CC diyelim) bir başka şeyin bilgisini (buna da II diyelim) taşıyorsa, bu ancak ve ancak CC'nin II'nın doğruluğunu garanti edebildiği durumda geçerlidir.[3] Örneğin, bir insan kapınızı çaldığında, kapı zilinin size, "kapınızda bir insan olduğu" bilgisini taşıdığını söyleyebilmemiz için, kapınızın çaldığı ancak kapıyı çalan bir insanın var olmadığı durumun ihtimal dışı olması gerekir. Yani, kapınızın bir insan tarafından çalındığı durumun objektif olasılığının %100 veya 1 (bir) olması gerekir.

Bu Reklamı Kapat

Cohen ve Meskin'e göre ise CC'nin II'yı taşıyor olması için II'nın doğru olmadığı durumda CC'nin mümkün olmaması gerekir.[4] Yani, kapınızın çalınmadığı durumda kapı zilinizin çalmasının mümkün olmaması gerekir.

Bu iki ana akım tanımın haricinde tanımlar yapmak da oldukça mümkün. Ancak ne olursa olsun, bir aracının "bilgi" taşıdığını kabul edebilmemiz için, sezgisel olarak bu iki tanımın birlikte işaret ettikleri özelliğe, yani kesinliğe ihtiyaç duyarız. Bu durumda, örneğin bir video kaydının bilgi taşıdığı iddia edildiğinde, eğer bu video taşıdığı iddia edilen bilginin doğruluğunu garanti edebilecek güvenilirlikteyse veya taşıdığı iddia edilen bilginin doğru olmadığı durumda bu videonun varlığı mümkün değilse, o zaman bu videonun bilgi taşıdığına inanabiliriz. Sümerliler'in kil tabletlerine kıyasla çok daha güvenilir bir bilgi taşıma aracımız var, ne güzel!

Bu tanımların ne olursa olsun tam olarak kenara atılmıyor olmalarının temel bir sebebi var: Düşünün, bir bilgi taşıma aracının sunduğu teminat kesinlikten yoksunsa, o zaman bu aracın bilgi taşıdığına inanmaya devam edebilecek miyiz? Ortalama her 100 durumdan 99'unda bilgi taşıdığını bildiğimiz bir bilgi taşıma aracı hayal edin. Bu oran, muhtemelen geniş kitlelerin taşınan bilgiye dair çok güçlü inançlar inşa etmesini mümkün kılacaktır. Peki ya bu oran %80 olsaydı? Peki ya %70? Hangi noktada geniş kitleler bu aracıya güvenmeyi bırakır?

Esasında bu soru şimdilik önemli değil, çünkü dezenformasyonun doğru bilgiden çok daha hızlı yayıldığını biliyoruz.[2] Bu farkın arkasında yatan yegâne gerekçenin güvenilir bilgi taşıma araçları olmadığını da biliyoruz. Dolayısıyla, kitlelerin neye inanıp neye inanmayacağını kestirebilmek bu bağlamda mümkün görünmüyor.

Bu Reklamı Kapat

Deepfake, Epistemik Teminat ve Epistemik Zarar...

Önemli olan soru, Deepfake teknolojisinin an itibariyle sahip olduğumuz muazzam bir bilgi taşıma aracı olan video kayıtlarını tehlikeye atıp atmayacağı yönünde. Az önce bahsettiğimiz iki temel tanım üzerinden düşünürsek, video kayıtlarının güvenilir kaynaklar olmaktan çıkabileceğini söylemek oldukça mümkün. Başka bir deyişle, video kayıtları güvenilir bilgi taşıyıcıları olmaktan çıkıp, olası bilgi taşıyıcılarına dönüşebilirler. Bu da siz bir gün televizyonda bir siyasetçinin konuşmasını izlerken, bir kişiyle video konferans yaparken veya gizli kalmış gerçeklere dair olduğu iddia edilen video kayıtlarına ulaştığınızda geçmişte elinizde tuttuğunuz "epistemik teminatı" kaybetmiş olabileceğiniz için, eskiye kıyasla daha kısıtlı bir bilgi alanına sahip olacaksınız demek olabilir.

"Epistemik teminat" kavramına tam da bu noktada değinebiliriz. Epistemik teminat, bir inancın doğruluğunu teminat altına alabilecek nesnel bir dayanak noktası olarak anlaşılabilir. Regina Rini'ye göre video kayıtları birer epistemik teminat işlevi görmektedir.[1] Dolayısıyla, Deepfake teknolojisi bu epistemik teminatı tehlikeye atabilir. Rini'ye göre kötü niyetli kişiler, Deepfake yardımıyla dezenformasyona başvurabilir.

Teyit mekanizmalarının zayıflaması, bilebileceğimiz şeyler kümesinin daralması anlamına gelebilir. Örneğin, geçmişte hiçbir gözleyicinin mevcut bulunmadığı bir konum ve zamana dair bilgi edinmek ya oldukça zor ya da imkansızken video teknolojisiyle birlikte o zamanda o mekânın görüntüsünü kaydetmek ve gelecekte izlemek suretiyle bilgi edinmek mümkün hale geldi. Aynı şekilde, güvenilir tanıkların bulunmadığı bir zaman ve mekânda olan bir olaya dair güvenilir bilgi edinmek (elbette eğer bir video kaydı varsa, güvenlik kamerası gibi) mümkün oldu. İşte bahsedilen "bilgi kıyameti", bu teminatın kaybolduğu bir dünyadan başka bir şey değil. Bu bağlamda Deepfake'in oluşturabileceği (iddia edilen) zarara bir çeşit "epistemik zarar" diyoruz.

Popüler mecralarda Deepfake'e dair ortaya konan endişeler ise genellikle "etik" veya "ahlaki" açıdan değerlendirilen problemler. Deepfake ile birlikte bir insanın rızası olmaksızın o insan bir videoya yerleştirilebiliyor ve bu görüntüler tüm dünyaya yayılabiliyor. Bu da kişi haklarına direkt bir ihlal oluşturuyor.

Bu Reklamı Kapat

Agora Bilim Pazarı
Türkiye Haritası: Fiziki ve Siyasi, 35x50 cm, Çift Taraflı Çıtalı

Türkiyenin Fiziki ve siyasi haritalarının çift taraflı olarak hazırlandığı bir ürünümüzdür. Duvarınıza istediğiniz tarafı asmak sureti ile kullanabilirsiniz.

Devamını Göster
₺35.00
Türkiye Haritası: Fiziki ve Siyasi, 35x50 cm, Çift Taraflı Çıtalı

Bunun yanında, Deepfake ile üretilebilecek videolar neticesinde büyük toplumsal zararların ortaya çıkabileceği, demokratik düzenin tehlikeye girebileceği ve insanların video kayıtlarına olan güveni azalacağı için hakikatin bilgisi aktarıldığında dahi video aracılığıyla olduğu sürece güven sağlanamayacağı çokça konuşuluyor.

Keith Raymond Harris gibi felsefeciler ise bu kaygıların abartıldığını, fakat Deepfake'in yine de tamamen tehlikesiz olmadığını öne sürüyorlar.[5]

Sonuç

Bu endişelerin Deepfake ve benzeri teknolojik yeniliklere karşı çıkmak veya inovasyonun önünü tıkamak gibi bir gayesi yok. Genel anlamda, ne felsefenin ne de felsefecilerin böyle bir gayesi olabilir – teknolojiyi oldukça zararlı bulan birtakım filozofları saymazsak. Ancak olası tehlikelere karşı bir adım önde olmak ve atılan her adımı akılcı bir değerlendirmeden geçirmek de sorumlu araştırma ve inovasyonun olmazsa olmazı. Yapay Zeka Güvenliği sahası, bunun en öne çıktığı sahalardan biri.

Okundu Olarak İşaretle

Bu içeriğimizle ilgili bir sorunuz mu var? Buraya tıklayarak sorabilirsiniz.

İlginizi Çekebilecek Sorular
Soru & Cevap Platformuna Git
Bu İçerik Size Ne Hissettirdi?
  • Tebrikler! 6
  • Korkutucu! 6
  • Mmm... Çok sapyoseksüel! 3
  • İnanılmaz 2
  • Merak Uyandırıcı! 2
  • Üzücü! 1
  • Muhteşem! 0
  • Bilim Budur! 0
  • Güldürdü 0
  • Umut Verici! 0
  • Grrr... *@$# 0
  • İğrenç! 0
Kaynaklar ve İleri Okuma
Bu Reklamı Kapat

Evrim Ağacı'na her ay sadece 1 kahve ısmarlayarak destek olmak ister misiniz?

Şu iki siteden birini kullanarak şimdi destek olabilirsiniz:

kreosus.com/evrimagaci | patreon.com/evrimagaci

Çıktı Bilgisi: Bu sayfa, Evrim Ağacı yazdırma aracı kullanılarak 19/05/2022 17:32:40 tarihinde oluşturulmuştur. Evrim Ağacı'ndaki içeriklerin tamamı, birden fazla editör tarafından, durmaksızın elden geçirilmekte, güncellenmekte ve geliştirilmektedir. Dolayısıyla bu çıktının alındığı tarihten sonra yapılan güncellemeleri görmek ve bu içeriğin en güncel halini okumak için lütfen şu adrese gidiniz: https://evrimagaci.org/s/11445

İçerik Kullanım İzinleri: Evrim Ağacı'ndaki yazılı içerikler orijinallerine hiçbir şekilde dokunulmadığı müddetçe izin alınmaksızın paylaşılabilir, kopyalanabilir, yapıştırılabilir, çoğaltılabilir, basılabilir, dağıtılabilir, yayılabilir, alıntılanabilir. Ancak bu içeriklerin hiçbiri izin alınmaksızın değiştirilemez ve değiştirilmiş halleri Evrim Ağacı'na aitmiş gibi sunulamaz. Benzer şekilde, içeriklerin hiçbiri, söz konusu içeriğin açıkça belirtilmiş yazarlarından ve Evrim Ağacı'ndan başkasına aitmiş gibi sunulamaz. Bu sayfa izin alınmaksızın düzenlenemez, Evrim Ağacı logosu, yazar/editör bilgileri ve içeriğin diğer kısımları izin alınmaksızın değiştirilemez veya kaldırılamaz.

Bu Reklamı Kapat
Size Özel (Beta)
İçerikler
Sosyal
Acı
Koaservat
Balina
Mers
Onkoloji
Abiyogenez
Foton
Dünya Dışı Yaşam
Ses Kaydı
Kanıt
Canlı Cansız
Kozmoloji
Astrobiyoloji
Uydu
Felsefe
Aşılar
Irk
Kafatası
Gözlem
Besin
Sinirbilim
Molekül
Tümör
Büyük
Köpekbalığı
Aklımdan Geçen
Komünite Seç
Aklımdan Geçen
Fark Ettim ki...
Bugün Öğrendim ki...
İşe Yarar İpucu
Bilim Haberleri
Hikaye Fikri
Başlık
Bugün Türkiye'de bilime ve bilim okuryazarlığına neler katacaksın?
Bağlantı
Gönder
Soru Sor
Daha Fazla İçerik Göster
Evrim Ağacı'na Destek Ol
Evrim Ağacı'nın %100 okur destekli bir bilim platformu olduğunu biliyor muydunuz? Evrim Ağacı'nın maddi destekçileri arasına katılarak Türkiye'de bilimin yayılmasına güç katmak için hemen buraya tıklayın.
Popüler Yazılar
30 gün
90 gün
1 yıl
EA Akademi
Evrim Ağacı Akademi (ya da kısaca EA Akademi), 2010 yılından beri ürettiğimiz makalelerden oluşan ve kendi kendinizi bilimin çeşitli dallarında eğitebileceğiniz bir çevirim içi eğitim girişimi! Evrim Ağacı Akademi'yi buraya tıklayarak görebilirsiniz. Daha fazla bilgi için buraya tıklayın.
Etkinlik & İlan
Bilim ile ilgili bir etkinlik mi düzenliyorsunuz? Yoksa bilim insanlarını veya bilimseverleri ilgilendiren bir iş, staj, çalıştay, makale çağrısı vb. bir duyurunuz mu var? Etkinlik & İlan Platformumuzda paylaşın, milyonlarca bilimsevere ulaşsın.
Podcast
Evrim Ağacı'nın birçok içeriğinin profesyonel ses sanatçıları tarafından seslendirildiğini biliyor muydunuz? Bunların hepsini Podcast Platformumuzda dinleyebilirsiniz. Ayrıca Spotify, iTunes, Google Podcast ve YouTube bağlantılarını da bir arada bulabilirsiniz.
Yazı Geçmişi
Okuma Geçmişi
Notlarım
İlerleme Durumunu Güncelle
Okudum
Sonra Oku
Not Ekle
Kaldığım Yeri İşaretle
Göz Attım

Evrim Ağacı tarafından otomatik olarak takip edilen işlemleri istediğin zaman durdurabilirsin.
[Site ayalarına git...]

Filtrele
Listele
Bu yazıdaki hareketlerin
Devamını Göster
Filtrele
Listele
Tüm Okuma Geçmişin
Devamını Göster
0/10000

Göster

Şifremi unuttum Üyelik Aktivasyonu

Göster

Şifrenizi mi unuttunuz? Lütfen e-posta adresinizi giriniz. E-posta adresinize şifrenizi sıfırlamak için bir bağlantı gönderilecektir.

Geri dön

Eğer aktivasyon kodunu almadıysanız lütfen e-posta adresinizi giriniz. Üyeliğinizi aktive etmek için e-posta adresinize bir bağlantı gönderilecektir.

Geri dön

Close
Geri Bildirim Gönder
Reklamsız Deneyim

Evrim Ağacı'nda reklamları 2 şekilde kapatabilirsiniz:

  1. Ücretsiz üye girişi yapmak: Sitedeki reklamların %50 kadarını kapatmak için ücretsiz bir Evrim Ağacı üyeliği açmanız ve sitemizi/uygulamamızı kullanmanız yeterli!

  2. Maddi destekçilerimiz arasına katılmak: Evrim Ağacı'nın çalışmalarına Kreosus, Patreon veya YouTube üzerinden maddi destekte bulunarak hem Türkiye'de bilim anlatıcılığının gelişmesine katkı sağlayabilirsiniz, hem de site ve uygulamamızı reklamsız olarak deneyimleyebilirsiniz. Reklamsız deneyim, sitemizin/uygulamamızın çeşitli kısımlarda gösterilen Google reklamlarını ve destek çağrılarını görmediğiniz, %100 reklamsız ve çok daha temiz bir site deneyimi sunmaktadır.

Kreosus

Kreosus'ta her 10₺'lik destek, 1 aylık reklamsız deneyime karşılık geliyor. Bu sayede, tek seferlik destekçilerimiz de, aylık destekçilerimiz de toplam destekleriyle doğru orantılı bir süre boyunca reklamsız deneyim elde edebiliyorlar.

Kreosus destekçilerimizin reklamsız deneyimi, destek olmaya başladıkları anda devreye girmektedir ve ek bir işleme gerek yoktur.

Patreon

Patreon destekçilerimiz, destek miktarından bağımsız olarak, Evrim Ağacı'na destek oldukları süre boyunca reklamsız deneyime erişmeyi sürdürebiliyorlar.

Patreon destekçilerimizin Patreon ile ilişkili e-posta hesapları, Evrim Ağacı'ndaki üyelik e-postaları ile birebir aynı olmalıdır. Patreon destekçilerimizin reklamsız deneyiminin devreye girmesi 24 saat alabilmektedir.

YouTube

YouTube destekçilerimizin hepsi otomatik olarak reklamsız deneyime şimdilik erişemiyorlar ve şu anda, YouTube üzerinden her destek seviyesine reklamsız deneyim ayrıcalığını sunamamaktayız. YouTube Destek Sistemi üzerinde sunulan farklı seviyelerin açıklamalarını okuyarak, hangi ayrıcalıklara erişebileceğinizi öğrenebilirsiniz.

Eğer seçtiğiniz seviye reklamsız deneyim ayrıcalığı sunuyorsa, destek olduktan sonra YouTube tarafından gösterilecek olan bağlantıdaki formu doldurarak reklamsız deneyime erişebilirsiniz. YouTube destekçilerimizin reklamsız deneyiminin devreye girmesi, formu doldurduktan sonra 24-72 saat alabilmektedir.

Diğer Platformlar

Bu 3 platform haricinde destek olan destekçilerimize ne yazık ki reklamsız deneyim ayrıcalığını sunamamaktayız. Destekleriniz sayesinde sistemlerimizi geliştirmeyi sürdürüyoruz ve umuyoruz bu ayrıcalıkları zamanla genişletebileceğiz.

Giriş yapmayı unutmayın!

Reklamsız deneyim için, maddi desteğiniz ile ilişkilendirilmiş olan Evrim Ağacı hesabınıza yapmanız gerekmektedir. Giriş yapmadığınız takdirde reklamları görmeye devam edeceksinizdir.

Destek Ol

Devamını Oku
Evrim Ağacı Uygulamasını
İndir
Chromium Tabanlı Mobil Tarayıcılar (Chrome, Edge, Brave vb.)
İlk birkaç girişinizde zaten tarayıcınız size uygulamamızı indirmeyi önerecek. Önerideki tuşa tıklayarak uygulamamızı kurabilirsiniz. Bu öneriyi, yukarıdaki videoda görebilirsiniz. Eğer bu öneri artık gözükmüyorsa, Ayarlar/Seçenekler (⋮) ikonuna tıklayıp, Uygulamayı Yükle seçeneğini kullanabilirsiniz.
Chromium Tabanlı Masaüstü Tarayıcılar (Chrome, Edge, Brave vb.)
Yeni uygulamamızı kurmak için tarayıcı çubuğundaki kurulum tuşuna tıklayın. "Yükle" (Install) tuşuna basarak kurulumu tamamlayın. Dilerseniz, Evrim Ağacı İleri Web Uygulaması'nı görev çubuğunuza sabitleyin. Uygulama logosuna sağ tıklayıp, "Görev Çubuğuna Sabitle" seçeneğine tıklayabilirsiniz. Eğer bu seçenek gözükmüyorsa, tarayıcının Ayarlar/Seçenekler (⋮) ikonuna tıklayıp, Uygulamayı Yükle seçeneğini kullanabilirsiniz.
Safari Mobil Uygulama
Sırasıyla Paylaş -> Ana Ekrana Ekle -> Ekle tuşlarına basarak yeni mobil uygulamamızı kurabilirsiniz. Bu basamakları görmek için yukarıdaki videoyu izleyebilirsiniz.

Daha fazla bilgi almak için tıklayın

Önizleme
Görseli Kaydet
Sıfırla
Vazgeç
Ara
Bu Eseri Neden Tavsiye Ediyorsun?
Aşağıdaki kutuya, isimli neden tavsiye ettiğini girebilirsin. Ne kadar detaylı ve kapsamlı bir analiz yaparsan, bu eseri [OKUMAK/İZLEMEK] isteyenleri o kadar doğru ve fazla bilgilendirmiş olacaksın. Tavsiyenin faydalı bulunması halinde Evrim Ağacı kullanıcılarından daha fazla UP kazanman mümkün olacak. Tavsiyenin sadece negatif içerikte olamayacağını, eğer bu sistemi kullanıyorsan tavsiye ettiğin içeriğin pozitif taraflarından bahsetmek zorunda olduğunu lütfen unutma. Yapıcı eleştiri hakkında daha fazla bilgi almak için burayı okuyabilirsin.
Tavsiye Et