Paylaşım Yap
Tüm Reklamları Kapat
Tüm Reklamları Kapat

Bilgi Kıyameti: Felsefeciler, Deepfake'i Neden Tehlikeli Buluyorlar?

8 dakika
10,456
Bilgi Kıyameti: Felsefeciler, Deepfake'i Neden Tehlikeli Buluyorlar? Wikimedia
Tüm Reklamları Kapat

Bir kişiye ait fotoğraf veya video üzerine, bir başka kişinin yüzünün veya jest/mimiklerinin yapay zeka teknolojileri yardımıyla hipergerçekçi bir şekilde oturtulması olarak tanımlanabilecek deepfake, son yılların en ilgi çekici teknolojik gelişmelerinden biri olmayı başardı. Yapay zekâ çalışmalarında elde edilen başarının neticesi olarak Deepfake, artık sıradan kullanıcıların dahi erişebildiği bir video manipülasyon tekniği haline geldi.

Gelgelelim, akademik felsefeciler bu durumdan pek hoşnut değiller. Peki, Deepfake'i felsefeciler için can sıkıcı yapan unsurlar neler? Deepfake, felsefi açıdan hangi tehlikelere yol açabilir?

Nesnel Teminat Tehdit Altında!

Bu soruya değinmeden önce geçmişe kısa bir yolculuk yapalım. Binlerce sene evvel Sümerliler yazılı sözleşmeler hazırlarken bu sözleşmeleri kil tabletlere yazıyor, sonra da bu tabletlerin etrafına tıpkı bir zarf gibi (ve tabii ki yine kilden) katmanlar ekliyorlardı. Bu katmanların yoğunluğu farklıydı, bu sebeple herhangi bir anlaşmazlık halinde bu katmanları söküp korumaya alınan sözleşmeye bakabiliyorlardı. Böylece, eğer taraflardan biri sözleşmeye aykırı beyanda bulunuyorsa, bu beyanın geçersizliği nesnel bir delilin varlığıyla ispatlanabiliyordu. Bu, belki de insanlığın keşfettiği ve insan beyanından bağımsız ilk epistemik teminattı. İlerleyen satırlarda "epistemik teminat" kavramından daha detaylı olarak bahsedeceğiz.

Tüm Reklamları Kapat

Sümerler'den beri insanlık, nesnel teminat yöntemleri geliştirmeye devam etti. Daha kolay muhafaza edilebilen yazılı sözleşmeler ortaya çıktı. Elbette bu sözleşmelerin güvenilirliğini sağlayan mühürler de gerekliydi. O günün teknolojisiyle manipüle etmenin çok zor, belki de imkânsız olduğu yöntemler üzerinde durmaksızın çalışıldı. Fotoğrafın yaygınlaşmasıyla ilk defa belli bir mekânın belli bir anda nasıl göründüğünü nesnel olarak kaydetmeyi başardık. Haliyle, anlaşmazlık halindeki iki taraftan biri eğer diğer tarafın beyanını geçersiz kılabilecek bir fotoğraf karesi öne sürebilirse, bu delil başka hiçbir yöntemin sağlamadığı bir güvence sağlayabiliyordu ve karşı tarafın beyanı oldukça zayıflıyordu. Bu durum halen (kısmen de olsa) geçerli olabilir; ancak foto manipülasyon tekniklerinin gelişmesiyle, fotoğraf teknolojisinin güvenilirliği de ciddi şekilde azaldı. Bilhassa bilgisayar kullanımının yaygınlaşması ve fotoğraf düzenleme araçlarının kullanımının kolaylaşmasıyla, bir fotoğrafın manipüle edildiğini iddia etmek sıra dışı bir durum olmaktan çıktı.

Aynı durum, fotoğraf teknolojisini takip eden video teknolojisi için de geçerli oldu. Birbirini hızla takip eden fotoğraf karelerinden oluşan video kayıtları da, her ne kadar insan gözüne en yakın nesnel teminatı sağlıyor olsalar da, koşulsuz şartsız güvenilir olma özelliklerini kaybettiler. Bu durum, elbette Deepfake teknolojisinden çok daha önce meydana geldi; fakat günümüzde iyi manipüle edilmiş bir fotoğrafın insan gözüyle anlaşılması neredeyse imkansızken, aynı durum video kayıtları için henüz geçerli değil. Bugüne kadar ne kadar iyi manipüle edilmiş olursa olsun bir video kaydının gerçeği temsil edip etmediğini, manipüle edilip edilmediğini anlamak için dikkatli bir insan olmak (ve belki de iyi bir seyirci olmak) yeterliydi. Deepfake'in çok yüksek ihtimalle önümüzdeki yıllarda elde etmiş olacağı teknolojik başarıyla birlikte, bu durum da söz konusu olmaktan çıkabilir.

Bu arka plan bilgileri ışığında, esas sorumuza dönebiliriz.

Deepfake Neydi?

Deepfake, geçtiğimiz yıllarda ortaya çıkmış ve video kayıtlarında mevcut bulunan insanların yüzlerini yapay zekâ yardımıyla esasında orada olmayan insanların yüzleriyle değiştirip bu yolla gerçeği yansıtmayan video kayıtları yaratabilen bir video manipülasyon tekniği. Deepfake ile, aslında belli bir zaman ve mekânda bulunmamış bir insanı orada bulunmuş ve aslında söylemediği şeyleri söylemiş gibi göstermek mümkün. Tabii ki, bunu tamamen ayırt edilemez bir şekilde yapabildiğini söylemek halen zor; ancak bu durumun değişeceğine ve bir video kaydının asıl kayıt olup olmadığını anlamanın imkânsız hale gelebileceğine inanmak oldukça makul.

Tüm Reklamları Kapat

Bu durumun ne tarz sorunlara yol açabileceğini tahmin etmek elbette zor değil. Bu yüzden, Deepfake'in ortaya çıkışıyla hem medyada hem de felsefeciler arasında "infopocalypse" yani Türkçeye "bilgi kıyameti" olarak çevrilebilecek durumun mümkün olduğu konuşulmaya başlandı.

Peki, felsefeciler neden bilgi kıyametinin mümkün olduğunu düşünüyorlar?

Bir Bilgi Taşıma Aracı Olarak Video

Not: Bu noktada, daha fazla ilerlemeden önce bir parantez açıp, oldukça elzem bir uyarıda bulunmamız gerekiyor: Türkçede "yanlış bilgi" dediğimiz zaman kulağımıza tuhaf gelmiyor, değil mi? İşte bu durum İngilizcede böyle değil. İngilizcede ve aynı zamanda akademik felsefede "bilgi" denen şey, tanımı gereği doğrudur. Türkçede "yanlış bilgi" dediğimiz zaman işaret ettiğimiz şey ise, esasında hatalı enformasyondur. Fakat, günlük dilde "enformasyon" yerine "bilgi" kelimesinin kullanımı çok yaygın olduğu için, bu yazıda da "bilgi" kelimesi kullanılmıştır.

***

Evrim Ağacı'ndan Mesaj

Evrim Ağacı'nın çalışmalarına Kreosus, Patreon veya YouTube üzerinden maddi destekte bulunarak hem Türkiye'de bilim anlatıcılığının gelişmesine katkı sağlayabilirsiniz, hem de site ve uygulamamızı reklamsız olarak deneyimleyebilirsiniz. Reklamsız deneyim, sitemizin/uygulamamızın çeşitli kısımlarda gösterilen Google reklamlarını ve destek çağrılarını görmediğiniz, %100 reklamsız ve çok daha temiz bir site deneyimi sunmaktadır.

Kreosus

Kreosus'ta her 10₺'lik destek, 1 aylık reklamsız deneyime karşılık geliyor. Bu sayede, tek seferlik destekçilerimiz de, aylık destekçilerimiz de toplam destekleriyle doğru orantılı bir süre boyunca reklamsız deneyim elde edebiliyorlar.

Kreosus destekçilerimizin reklamsız deneyimi, destek olmaya başladıkları anda devreye girmektedir ve ek bir işleme gerek yoktur.

Patreon

Patreon destekçilerimiz, destek miktarından bağımsız olarak, Evrim Ağacı'na destek oldukları süre boyunca reklamsız deneyime erişmeyi sürdürebiliyorlar.

Patreon destekçilerimizin Patreon ile ilişkili e-posta hesapları, Evrim Ağacı'ndaki üyelik e-postaları ile birebir aynı olmalıdır. Patreon destekçilerimizin reklamsız deneyiminin devreye girmesi 24 saat alabilmektedir.

YouTube

YouTube destekçilerimizin hepsi otomatik olarak reklamsız deneyime şimdilik erişemiyorlar ve şu anda, YouTube üzerinden her destek seviyesine reklamsız deneyim ayrıcalığını sunamamaktayız. YouTube Destek Sistemi üzerinde sunulan farklı seviyelerin açıklamalarını okuyarak, hangi ayrıcalıklara erişebileceğinizi öğrenebilirsiniz.

Eğer seçtiğiniz seviye reklamsız deneyim ayrıcalığı sunuyorsa, destek olduktan sonra YouTube tarafından gösterilecek olan bağlantıdaki formu doldurarak reklamsız deneyime erişebilirsiniz. YouTube destekçilerimizin reklamsız deneyiminin devreye girmesi, formu doldurduktan sonra 24-72 saat alabilmektedir.

Diğer Platformlar

Bu 3 platform haricinde destek olan destekçilerimize ne yazık ki reklamsız deneyim ayrıcalığını sunamamaktayız. Destekleriniz sayesinde sistemlerimizi geliştirmeyi sürdürüyoruz ve umuyoruz bu ayrıcalıkları zamanla genişletebileceğiz.

Giriş yapmayı unutmayın!

Reklamsız deneyim için, maddi desteğiniz ile ilişkilendirilmiş olan Evrim Ağacı hesabınıza yapmanız gerekmektedir. Giriş yapmadığınız takdirde reklamları görmeye devam edeceksinizdir.

Fred Dretske'ye göre bir şey (CC diyelim) bir başka şeyin bilgisini (buna da II diyelim) taşıyorsa, bu ancak ve ancak CC'nin II'nın doğruluğunu garanti edebildiği durumda geçerlidir.[3] Örneğin, bir insan kapınızı çaldığında, kapı zilinin size, "kapınızda bir insan olduğu" bilgisini taşıdığını söyleyebilmemiz için, kapınızın çaldığı ancak kapıyı çalan bir insanın var olmadığı durumun ihtimal dışı olması gerekir. Yani, kapınızın bir insan tarafından çalındığı durumun objektif olasılığının %100 veya 1 (bir) olması gerekir.

Cohen ve Meskin'e göre ise CC'nin II'yı taşıyor olması için II'nın doğru olmadığı durumda CC'nin mümkün olmaması gerekir.[4] Yani, kapınızın çalınmadığı durumda kapı zilinizin çalmasının mümkün olmaması gerekir.

Bu iki ana akım tanımın haricinde tanımlar yapmak da oldukça mümkün. Ancak ne olursa olsun, bir aracının "bilgi" taşıdığını kabul edebilmemiz için, sezgisel olarak bu iki tanımın birlikte işaret ettikleri özelliğe, yani kesinliğe ihtiyaç duyarız. Bu durumda, örneğin bir video kaydının bilgi taşıdığı iddia edildiğinde, eğer bu video taşıdığı iddia edilen bilginin doğruluğunu garanti edebilecek güvenilirlikteyse veya taşıdığı iddia edilen bilginin doğru olmadığı durumda bu videonun varlığı mümkün değilse, o zaman bu videonun bilgi taşıdığına inanabiliriz. Sümerliler'in kil tabletlerine kıyasla çok daha güvenilir bir bilgi taşıma aracımız var, ne güzel!

Bu tanımların ne olursa olsun tam olarak kenara atılmıyor olmalarının temel bir sebebi var: Düşünün, bir bilgi taşıma aracının sunduğu teminat kesinlikten yoksunsa, o zaman bu aracın bilgi taşıdığına inanmaya devam edebilecek miyiz? Ortalama her 100 durumdan 99'unda bilgi taşıdığını bildiğimiz bir bilgi taşıma aracı hayal edin. Bu oran, muhtemelen geniş kitlelerin taşınan bilgiye dair çok güçlü inançlar inşa etmesini mümkün kılacaktır. Peki ya bu oran %80 olsaydı? Peki ya %70? Hangi noktada geniş kitleler bu aracıya güvenmeyi bırakır?

Esasında bu soru şimdilik önemli değil, çünkü dezenformasyonun doğru bilgiden çok daha hızlı yayıldığını biliyoruz.[2] Bu farkın arkasında yatan yegâne gerekçenin güvenilir bilgi taşıma araçları olmadığını da biliyoruz. Dolayısıyla, kitlelerin neye inanıp neye inanmayacağını kestirebilmek bu bağlamda mümkün görünmüyor.

Deepfake, Epistemik Teminat ve Epistemik Zarar...

Önemli olan soru, Deepfake teknolojisinin an itibariyle sahip olduğumuz muazzam bir bilgi taşıma aracı olan video kayıtlarını tehlikeye atıp atmayacağı yönünde. Az önce bahsettiğimiz iki temel tanım üzerinden düşünürsek, video kayıtlarının güvenilir kaynaklar olmaktan çıkabileceğini söylemek oldukça mümkün. Başka bir deyişle, video kayıtları güvenilir bilgi taşıyıcıları olmaktan çıkıp, olası bilgi taşıyıcılarına dönüşebilirler. Bu da siz bir gün televizyonda bir siyasetçinin konuşmasını izlerken, bir kişiyle video konferans yaparken veya gizli kalmış gerçeklere dair olduğu iddia edilen video kayıtlarına ulaştığınızda geçmişte elinizde tuttuğunuz "epistemik teminatı" kaybetmiş olabileceğiniz için, eskiye kıyasla daha kısıtlı bir bilgi alanına sahip olacaksınız demek olabilir.

Tüm Reklamları Kapat

"Epistemik teminat" kavramına tam da bu noktada değinebiliriz. Epistemik teminat, bir inancın doğruluğunu teminat altına alabilecek nesnel bir dayanak noktası olarak anlaşılabilir. Regina Rini'ye göre video kayıtları birer epistemik teminat işlevi görmektedir.[1] Dolayısıyla, Deepfake teknolojisi bu epistemik teminatı tehlikeye atabilir. Rini'ye göre kötü niyetli kişiler, Deepfake yardımıyla dezenformasyona başvurabilir.

Teyit mekanizmalarının zayıflaması, bilebileceğimiz şeyler kümesinin daralması anlamına gelebilir. Örneğin, geçmişte hiçbir gözleyicinin mevcut bulunmadığı bir konum ve zamana dair bilgi edinmek ya oldukça zor ya da imkansızken video teknolojisiyle birlikte o zamanda o mekânın görüntüsünü kaydetmek ve gelecekte izlemek suretiyle bilgi edinmek mümkün hale geldi. Aynı şekilde, güvenilir tanıkların bulunmadığı bir zaman ve mekânda olan bir olaya dair güvenilir bilgi edinmek (elbette eğer bir video kaydı varsa, güvenlik kamerası gibi) mümkün oldu. İşte bahsedilen "bilgi kıyameti", bu teminatın kaybolduğu bir dünyadan başka bir şey değil. Bu bağlamda Deepfake'in oluşturabileceği (iddia edilen) zarara bir çeşit "epistemik zarar" diyoruz.

Popüler mecralarda Deepfake'e dair ortaya konan endişeler ise genellikle "etik" veya "ahlaki" açıdan değerlendirilen problemler. Deepfake ile birlikte bir insanın rızası olmaksızın o insan bir videoya yerleştirilebiliyor ve bu görüntüler tüm dünyaya yayılabiliyor. Bu da kişi haklarına direkt bir ihlal oluşturuyor.

Tüm Reklamları Kapat

Bunun yanında, Deepfake ile üretilebilecek videolar neticesinde büyük toplumsal zararların ortaya çıkabileceği, demokratik düzenin tehlikeye girebileceği ve insanların video kayıtlarına olan güveni azalacağı için hakikatin bilgisi aktarıldığında dahi video aracılığıyla olduğu sürece güven sağlanamayacağı çokça konuşuluyor.

Keith Raymond Harris gibi felsefeciler ise bu kaygıların abartıldığını, fakat Deepfake'in yine de tamamen tehlikesiz olmadığını öne sürüyorlar.[5]

Sonuç

Bu endişelerin Deepfake ve benzeri teknolojik yeniliklere karşı çıkmak veya inovasyonun önünü tıkamak gibi bir gayesi yok. Genel anlamda, ne felsefenin ne de felsefecilerin böyle bir gayesi olabilir – teknolojiyi oldukça zararlı bulan birtakım filozofları saymazsak. Ancak olası tehlikelere karşı bir adım önde olmak ve atılan her adımı akılcı bir değerlendirmeden geçirmek de sorumlu araştırma ve inovasyonun olmazsa olmazı. Yapay Zeka Güvenliği sahası, bunun en öne çıktığı sahalardan biri.

Bu Makaleyi Alıntıla
Okundu Olarak İşaretle
36
0
  • Paylaş
  • Alıntıla
  • Alıntıları Göster
Paylaş
Sonra Oku
Notlarım
Yazdır / PDF Olarak Kaydet
Bize Ulaş
Yukarı Zıpla

İçeriklerimizin bilimsel gerçekleri doğru bir şekilde yansıtması için en üst düzey çabayı gösteriyoruz. Gözünüze doğru gelmeyen bir şey varsa, mümkünse güvenilir kaynaklarınızla birlikte bize ulaşın!

Bu içeriğimizle ilgili bir sorunuz mu var? Buraya tıklayarak sorabilirsiniz.

Soru & Cevap Platformuna Git
Bu İçerik Size Ne Hissettirdi?
  • Tebrikler! 7
  • Korkutucu! 7
  • Mmm... Çok sapyoseksüel! 4
  • İnanılmaz 2
  • Merak Uyandırıcı! 2
  • Üzücü! 2
  • Muhteşem! 0
  • Bilim Budur! 0
  • Güldürdü 0
  • Umut Verici! 0
  • Grrr... *@$# 0
  • İğrenç! 0
Kaynaklar ve İleri Okuma
Tüm Reklamları Kapat

Evrim Ağacı'na her ay sadece 1 kahve ısmarlayarak destek olmak ister misiniz?

Şu iki siteden birini kullanarak şimdi destek olabilirsiniz:

kreosus.com/evrimagaci | patreon.com/evrimagaci

Çıktı Bilgisi: Bu sayfa, Evrim Ağacı yazdırma aracı kullanılarak 18/10/2024 05:09:41 tarihinde oluşturulmuştur. Evrim Ağacı'ndaki içeriklerin tamamı, birden fazla editör tarafından, durmaksızın elden geçirilmekte, güncellenmekte ve geliştirilmektedir. Dolayısıyla bu çıktının alındığı tarihten sonra yapılan güncellemeleri görmek ve bu içeriğin en güncel halini okumak için lütfen şu adrese gidiniz: https://evrimagaci.org/s/11445

İçerik Kullanım İzinleri: Evrim Ağacı'ndaki yazılı içerikler orijinallerine hiçbir şekilde dokunulmadığı müddetçe izin alınmaksızın paylaşılabilir, kopyalanabilir, yapıştırılabilir, çoğaltılabilir, basılabilir, dağıtılabilir, yayılabilir, alıntılanabilir. Ancak bu içeriklerin hiçbiri izin alınmaksızın değiştirilemez ve değiştirilmiş halleri Evrim Ağacı'na aitmiş gibi sunulamaz. Benzer şekilde, içeriklerin hiçbiri, söz konusu içeriğin açıkça belirtilmiş yazarlarından ve Evrim Ağacı'ndan başkasına aitmiş gibi sunulamaz. Bu sayfa izin alınmaksızın düzenlenemez, Evrim Ağacı logosu, yazar/editör bilgileri ve içeriğin diğer kısımları izin alınmaksızın değiştirilemez veya kaldırılamaz.

Tüm Reklamları Kapat
Keşfet
Akış
İçerikler
Gündem
Jinekoloji
Işık Hızı
Asteroid
Gen İfadesi
Skeptisizm
Aile
Abiyogenez
Karbon
Uygulama
Astronot
Genel Halk
Atmosfer
Fizik
Yayılım
Hava
Pandemi
Bitkiler
Kanser
Maskeler
Sıvı
Hormon
Matematik
Tüyler
Allah
Maske
Aklımdan Geçen
Komünite Seç
Aklımdan Geçen
Fark Ettim ki...
Bugün Öğrendim ki...
İşe Yarar İpucu
Bilim Haberleri
Hikaye Fikri
Video Konu Önerisi
Başlık
Bugün bilimseverlerle ne paylaşmak istersin?
Gündem
Bağlantı
Ekle
Soru Sor
Stiller
Kurallar
Komünite Kuralları
Bu komünite, aklınızdan geçen düşünceleri Evrim Ağacı ailesiyle paylaşabilmeniz içindir. Yapacağınız paylaşımlar Evrim Ağacı'nın kurallarına tabidir. Ayrıca bu komünitenin ek kurallarına da uymanız gerekmektedir.
1
Bilim kimliğinizi önceleyin.
Evrim Ağacı bir bilim platformudur. Dolayısıyla aklınızdan geçen her şeyden ziyade, bilim veya yaşamla ilgili olabilecek düşüncelerinizle ilgileniyoruz.
2
Propaganda ve baskı amaçlı kullanmayın.
Herkesin aklından her şey geçebilir; fakat bu platformun amacı, insanların belli ideolojiler için propaganda yapmaları veya başkaları üzerinde baskı kurma amacıyla geliştirilmemiştir. Paylaştığınız fikirlerin değer kattığından emin olun.
3
Gerilim yaratmayın.
Gerilim, tersleme, tahrik, taciz, alay, dedikodu, trollük, vurdumduymazlık, duyarsızlık, ırkçılık, bağnazlık, nefret söylemi, azınlıklara saldırı, fanatizm, holiganlık, sloganlar yasaktır.
4
Değer katın; hassas konulardan ve öznel yoruma açık alanlardan uzak durun.
Bu komünitenin amacı okurlara hayatla ilgili keyifli farkındalıklar yaşatabilmektir. Din, politika, spor, aktüel konular gibi anlık tepkilere neden olabilecek konulardaki tespitlerden kaçının. Ayrıca aklınızdan geçenlerin Türkiye’deki bilim komünitesine değer katması beklenmektedir.
5
Cevap hakkı doğurmayın.
Aklınızdan geçenlerin bu platformda bulunmuyor olabilecek kişilere cevap hakkı doğurmadığından emin olun.
Sosyal
Yeniler
Daha Fazla İçerik Göster
Popüler Yazılar
30 gün
90 gün
1 yıl
Evrim Ağacı'na Destek Ol

Evrim Ağacı'nın %100 okur destekli bir bilim platformu olduğunu biliyor muydunuz? Evrim Ağacı'nın maddi destekçileri arasına katılarak Türkiye'de bilimin yayılmasına güç katın.

Evrim Ağacı'nı Takip Et!
Yazı Geçmişi
Okuma Geçmişi
Notlarım
İlerleme Durumunu Güncelle
Okudum
Sonra Oku
Not Ekle
Kaldığım Yeri İşaretle
Göz Attım

Evrim Ağacı tarafından otomatik olarak takip edilen işlemleri istediğin zaman durdurabilirsin.
[Site ayalarına git...]

Filtrele
Listele
Bu yazıdaki hareketlerin
Devamını Göster
Filtrele
Listele
Tüm Okuma Geçmişin
Devamını Göster
0/10000
Bu Makaleyi Alıntıla
Evrim Ağacı Formatı
APA7
MLA9
Chicago
B. Ö. Nayır, et al. Bilgi Kıyameti: Felsefeciler, Deepfake'i Neden Tehlikeli Buluyorlar?. (5 Şubat 2022). Alındığı Tarih: 18 Ekim 2024. Alındığı Yer: https://evrimagaci.org/s/11445
Nayır, B. Ö., Bakırcı, Ç. M. (2022, February 05). Bilgi Kıyameti: Felsefeciler, Deepfake'i Neden Tehlikeli Buluyorlar?. Evrim Ağacı. Retrieved October 18, 2024. from https://evrimagaci.org/s/11445
B. Ö. Nayır, et al. “Bilgi Kıyameti: Felsefeciler, Deepfake'i Neden Tehlikeli Buluyorlar?.” Edited by Çağrı Mert Bakırcı. Evrim Ağacı, 05 Feb. 2022, https://evrimagaci.org/s/11445.
Nayır, Beşir Özgür. Bakırcı, Çağrı Mert. “Bilgi Kıyameti: Felsefeciler, Deepfake'i Neden Tehlikeli Buluyorlar?.” Edited by Çağrı Mert Bakırcı. Evrim Ağacı, February 05, 2022. https://evrimagaci.org/s/11445.
ve seni takip ediyor

Göster

Şifremi unuttum Üyelik Aktivasyonu

Göster

Şifrenizi mi unuttunuz? Lütfen e-posta adresinizi giriniz. E-posta adresinize şifrenizi sıfırlamak için bir bağlantı gönderilecektir.

Geri dön

Eğer aktivasyon kodunu almadıysanız lütfen e-posta adresinizi giriniz. Üyeliğinizi aktive etmek için e-posta adresinize bir bağlantı gönderilecektir.

Geri dön

Close