Keşfedin, Öğrenin ve Paylaşın
Evrim Ağacı'nda Aradığın Her Şeye Ulaşabilirsin!
Yeni Soru Sor
Paylaşım Yap
Sorulara Dön
Ayşe Irmak
Ayşe Irmak
19K UP
Üye 1 ay önce 1 Cevap
4

Bir yazının yazımında yapay zekanın kullanılıp kullanılmadığını denetleyen programlar nasıl çalışıyor?

Ben kendim bir metin yazdığımda ve aynı konuda yapay zeka bir metin yazdığında farkı anlayamıyorum. Yapay zeka bunu nasıl anlıyor? Arada yazım diliyle ilgili farklar var mı yoksa başka kriterler mi söz konusu?
486 görüntülenme
  • Şikayet Et
  • Mantık Hatası
0
  • Paylaş
  • Alıntıla
  • Alıntıları Göster
Tüm Reklamları Kapat
1 Cevap
Sena Küçükkıvanç
Bilgisayar Mühendisi 1 ay önce

Buna cevap yazmazsam olmazdı 😅 Adım adım anlatacağım hem teknik terimlerini yazacağım hem de Türkçe karşılıklarını böylelikle kendin de teknik terimler üzerinden araştırma yapabilirsin. Olabildiğince de benzetme yapmaya çalışacağım ki biraz daha konu otursun. Başta iyice sistemi anlatıp sonra yorumlayacağım ancak bazı noktalarda sert tepkilerim olabilir zaten okudukça haklı olduğumu görürsünüz diye düşünüyorum. Tabii size karşı değil yanlış anlaşılmasın. İnsanlığa zarar vermek isteyenlere karşı.

Metni Hazırlama (Data Preprocessing)

Öncelikle metni analiz araçlarımızın çalışabileceği bir forma getirmemiz gerekiyor, tıpkı yemek pişirmeden önce malzemeleri hazırlamak gibi.

Tüm Reklamları Kapat

Tokenization (Parçalama): Metni daha küçük parçalara, yani token'lara ayırıyoruz. Bunlar kelimeler, karakterler veya kelime parçaları olabilir.

Bunu bir Lego modelini tek tek tuğlalara ayırmak gibi düşünebilirsin, böylece neyle çalıştığımızı görebiliriz.

Daha önce görmediğimiz kelimelerle başa çıkmak için Byte Pair Encoding (BPE Çift Bayt Kodlama) gibi yöntemler kullanıyoruz. Tüm cihazlarınız için evrensel bir şarj cihazına sahip olmak gibi aslında bu da.

Normalization (Normalizasyon): Varyasyonları ortadan kaldırmak için metni standart hale getiriyoruz.

Tüm Reklamları Kapat

Lowercasing (Küçük harfe çevirme) Bütün kelimeleri küçük harfe çeviriyoruz boyutsallığı (dimensionality) azaltmak için.

Stemming/Lemmatization (Kök Bulma/Lemmalaştırma): Kelimeleri kök hallerine indirgeme. "Koşuyor", "koşar" ve "koştu" hepsi "koş" olur. Bu da kelime ailesi terapisi gibi bir şey aslında 😅

Stop Word Removal (Durma Kelimelerinin Kaldırılması): Fazla anlam katmayan yaygın kelimeleri çıkarıyoruz.

"Ve", "bir", "ile" gibi kelimeler aslında cümlelerin duvar kağıdı gibiler; bazen analiz için onlara ihtiyacınız olmaz. Tabii bazen diyorum çünkü bazen bu kelimeler de cümleye anlam katabiliyor az da olsa, bunun için de ayrı algoritma lazım.

İvit, ilk adım bitti hayırlı olsun 😅

Özellik Çıkarımı (Feature Extraction)

Artık metnimizi hazırladığımıza göre dedektifler gibi kalıplar aramaya başlıyoruz.

Lexical Features (Leksik Özellikler):

Word Frequency Distributions (Kelime Frekansı Dağılımları): AI modelleri belirli kelimelerin ne sıklıkta göründüğüne dair kalıplara sahiptir. Bu da benim bir şeyi açıklarken sürekli "aslında" demem gibi. Kalıplar ortaya çıkar.

Vocabulary Richness (Kelime Dağarcığı Zenginliği): Type-Token Ratio (TTR Tip-Token Oranı) gibi ölçüler kelime çeşitliliğini değerlendirir.

Tüm Reklamları Kapat

Metin renkli bir kelime paleti mi kullanıyor yoksa temel kelimelere mi bağlı kalıyor?

Syntactic Features (Sözdizimsel Özellikler):

Part-of-Speech (POS) Tagging (Sözcük Türü Etiketleme): Her kelimeye dilbilgisel rolünü atıyoruz—isim, fiil, sıfat vb.

Tüm Reklamları Kapat

Her kelimeye bir partide isim etiketi vermek gibi düşün 😂

Parse Trees (Ayrıştırma Ağaçları): Cümlelerin yapısını analiz ediyoruz.

Cümleler basit ve doğrudan mı yoksa karmaşık ve dolambaçlı mı?

Stylistic Features (Stilistik Özellikler):

Tüm Reklamları Kapat

Readability Scores (Okunabilirlik Puanları): Flesch-Kincaid gibi metrikleri hesaplayarak metnin ne kadar kolay okunduğunu görüyoruz.

"Ali topu at" gibi mi yoksa "Evrenin muazzam genişliğinde..." gibi mi?

Sentence Length Distribution (Cümle Uzunluğu Dağılımı): AI tarafından üretilen metinler daha eşit cümle uzunluklarına sahip olabilir.

Her zaman mükemmel ölçülü cümlelerle konuşan biri gibi—biraz şüpheli, değil mi?

Semantic Features (Anlamsal Özellikler):

Topic Modeling (Konu Modelleme): Latent Dirichlet Allocation (LDA Gizli Dirichlet Ataması) gibi algoritmalar kullanarak hangi konuların tartışıldığını anlıyoruz.

Chosic gibi aslında. Müzik kütüphaneni otomatik olarak türlere ayırmak gibi düşün.

Semantic Coherence (Anlamsal Tutarlılık): Cümlelerin anlamsal olarak ne kadar iyi bağlandığını ölçüyoruz.

Hikaye akıyor mu yoksa şeker yemiş bir çocuk gibi oradan oraya mı atlıyor?

İstatistiksel Analiz (Statistical Analysis)

Tüm Reklamları Kapat

Şimdi geldik işin psikoloji bozan tarafına.

N-gram Analysis (N-gram Analizi):

Kelime dizilerini (örneğin ikililer veya üçlüler) inceliyoruz ve ne sıklıkta göründüklerine bakıyoruz.

Her iki cümlede bir "anlıyor musun" dediğimi fark etmek gibi. Mesela şu ana kadar sana anlatırken önce teknik versiyonunu ve açıklamasını ardından örneklendirmesini yapıyorum. Bu da AI'ın yapacağı türden bir şey. Ancak tabii benim yazdığım içeriğe AI diyebilmeniz için önce diğer sorgulamalara da bakmanız lazım 😂

Tüm Reklamları Kapat

Perplexity Measurement (Karmaşıklık Ölçümü): Bu da metnin ne kadar tahmin edilebilir olduğunu ölçer.

AI modelleri daha düşük karmaşıklığı hedefler, bu yüzden metin çok tahmin edilebilir görünüyorsa, hani makine işi olabilir.

Entropy Calculation (Entropi Hesaplaması):

Shannon Entropy (Shannon Entropisi): Metindeki rastgeleliği ölçer.

Tüm Reklamları Kapat

İnsanlar tahmin edilemezdir, öğle yemeği planlarımı tahmin etmeye çalışan herhangi birine sor görürsün 😂

Cross-Entropy (Çapraz Entropi): Metnin entropisini bilinen AI tarafından üretilen metinle karşılaştırır.

Makine Öğrenimi Sihri (Machine Learning Classification)

Şimdi modelleri eğiterek metni sınıflandırıyoruz.

Tüm Reklamları Kapat

Dataset Preparation (Veri Seti Hazırlığı):

Çok sayıda AI tarafından üretilen ve insan yazımı metin örneği topluyoruz. Ama çok sayıda dediğime bakma öyle çok bir şey değil aslında, 400-500 milyarcık (şirketten şirkete, bütçeden bütçeye göre değişir) metin gibi bir şey yani abartılacak bir yanı yok.

Bir köpeği hem "bunu yap" hem de "bunu yapma" örnekleriyle eğitmek gibi bu aşama da aslında. Sadece karşımızdaki bir köpek bile olamadığı için 400-500 milyarcık kadar düşük sayılı bir eğitim setini veri kümesi haline getirmek zorunda kalıyoruz. Normalde derler ya salağa anlatsan 5'inci de anlar diye, işte AI anlamıyor çünkü anlama gibi bir gücü yok. Tabii şimdilik... Bundan bin yıl sonra da o aynısını bizim için diyebilir 😂.

Özellik vektörleri oluşturarak özelliklerimizi sayısal temsillere dönüştürüyoruz.

Tüm Reklamları Kapat

Çünkü makineler İngilizce konuşmaz, matematik konuşurlar.

Model Selection (Model Seçimi):

Denetimli öğrenme modelleri seçiyoruz: Support Vector Machines (SVM Destek Vektör Makineleri), Random Forests (Rastgele Ormanlar) veya Neural Networks (Sinir Ağları) gibi.

Doğru modeli seçmek bir yolculuk için doğru arabayı seçmek gibidir. O yüzden çok elzemdir.

Tüm Reklamları Kapat

Derin öğrenme modelleri: Daha karmaşık kalıplar için Transformers veya LSTM ağları da kullanabiliriz tabii.

Training (Eğitim):

Parametre optimizasyonu yaparak modeli eğitiyoruz: Grid search (Yani makine öğrenmesinde kullandığımız geleneksel bir şey, hiperparametre ayarlamasında kullanıyoruz) veya gradient descent (gradyan inişi) gibi teknikler kullanıyoruz.

Bu da bir gitarı doğru ses çıkana kadar akort etmek gibi.

Tüm Reklamları Kapat

Validation (Doğrulama): Modelin aşırı uyum sağlamaması için k-fold cross-validation (k-katlı çapraz doğrulama) kullanıyoruz.

Cevaplara önceden bakarak hile yapmak yok. 😂

Evaluation Metrics (Değerlendirme Metrikleri):

Accuracy (Doğruluk), Precision (Kesinlik), Recall (Geri Çağırma) gibi ölçütlerle model performansını değerlendiriyoruz.

Tüm Reklamları Kapat

Yani modelimizin karne zamanı.

ROC Eğrisi ve AUC (Eğri Altındaki Alan): Eşik seçimi için kullanılır.

Sinir Ağları İş Başında (Neural Network-Based Detection)

Bazen büyük silahlara ihtiyaç duyarsınız.

Tüm Reklamları Kapat

Transformer Models (Dönüştürücü Modeller):

BERT veya RoBERTa gibi önceden eğitilmiş modelleri sınıflandırma görevimiz için ince ayar yapıyoruz.

Bu modeller NLP'nin süper kahramanları gibidir—her şeyi gördüler yani.

Attention Mechanisms (Dikkat Mekanizmaları): Modelin metnin önemli kısımlarına odaklanmasına yardımcı olur.

Tüm Reklamları Kapat

Bir pastanenin önünden geçerken diyetime odaklanmaya çalışmam gibi 😂

Feature Representation (Özellik Temsili):

Embedding Layers (Gömme Katmanları): Kelimeleri anlamlarını yakalayan yoğun vektör temsillerine dönüştürür.

Her kelimeyi çok boyutlu bir uzaya haritalamak gibi bu da.

Tüm Reklamları Kapat

Positional Encoding (Konumsal Kodlama): Kelimelerin sırasını dahil ediyoruz.

Çünkü "köpek adamı ısırdı" ve "adam köpeği ısırdı" çok farklı hikayeler.

Takım Çalışması (Ensemble Methods)

Neden tek bir modelle yetinelim ki?

Tüm Reklamları Kapat

Combining Models (Modelleri Birleştirme):

Voting Systems (Oylama Sistemleri): Birden fazla modelin tahminlerini birleştiriyoruz.

Tek bir görüşe güvenmek yerine uzman bir ekip toplamak gibi aslında.

Stacking (Yığınlama): Birkaç modelin çıktısını daha üst düzey bir modele girdi olarak kullanıyoruz.

Tüm Reklamları Kapat

Advantages (Avantajlar):

Geliştirilmiş Doğruluk: Bireysel modellerin zayıflıklarını azaltır.

İki beyin birden iyidir, özellikle biri sürekli unutuyorsa 😅

Dayanıklılık: Farklı metin türlerine daha iyi genelleme yapar.

Tüm Reklamları Kapat

Bir Adım Önde Olmak (Adversarial Testing)

Dedektörümüzün kolayca kandırılmadığından emin olmalıyız.

Robustness Against Evasion (Kaçınmaya Karşı Dayanıklılık):

Adversarial Examples (Karşıt Örnekler): Dedektörü kandırmak için değiştirilmiş metinlere karşı test ediyoruz.

Tüm Reklamları Kapat

Carlsen'e karşı satranç hamleleri pratiği yapmak gibi yani.

Data Augmentation (Veri Artırma): Eğitim verilerimize yeniden ifade edilmiş veya biraz değiştirilmiş AI metinleri ekliyoruz. (Burada önemli olan bunun kullanım oranına dikkat edilmesi, o yüzden genellikle şirkette 1-2 master mind'a verirler bu işi ki içine edip batırmasınlar diye, olurda burada hata yapılırsa, şuraya kadar yaptığın şeylerin %90'ını al çöpe at)

Modelimizi tetikte tutmaya yarar yani.

Continuous Learning (Sürekli Öğrenme):

Tüm Reklamları Kapat

Online Learning Algorithms (Çevrimiçi Öğrenme Algoritmaları): Modeli zaman içinde yeni verilerle güncelliyoruz.

Tıpkı hatalarımızdan öğrenmek gibi—tabii çoğu zaman 😅

Feedback Loops (Geri Bildirim Döngüleri): Kullanıcı geri bildirimlerini tespit için kullanıyoruz.

Makaleni iyileştirmek için editöründen notlar almak gibi.

Tüm Reklamları Kapat

Orijinalliği ve Doğruluğu Sağlama (Plagiarism and Fact-Checking Integration)

Çünkü kimse bir kopyacı veya yalancı istemez.

Cross-Referencing Databases (Veritabanlarıyla Karşılaştırma):

Plagiarism Detection (İntihal Tespiti): Metni mevcut veritabanlarına karşı tarıyoruz.

Tüm Reklamları Kapat

Yeni oda arkadaşınızın geçmişini kontrol etmek gibi 😅 Gerçi bunun pek doğru olduğu söylenemez ama, bence doğru ya, tedbiri de elden bırakmamak lazım değil mi?

Knowledge Graphs (Bilgi Grafikleri):

Fact Verification (Gerçek Doğrulama): Yapılandırılmış verileri kullanarak gerçekleri doğruluyoruz.

Elinizin altında bir ansiklopediye sahip olmak gibi bu da.

Tüm Reklamları Kapat

Semantic Parsing (Anlamsal Ayrıştırma): Anlamı anlayarak bilinen gerçeklerle karşılaştırıyoruz. Semantic cidden zordur, psikolojiyi bozmakla yetinmez, exorcist'teki ablaya dönüştürür.

Okunabilirlik ve Kalite Değerlendirmesi (Readability and Quality Assessment)

Metnin okunabilirliğini ve kalitesini de değerlendiriyoruz.

Linguistic Quality Metrics (Dilsel Kalite Metrikleri):

Tüm Reklamları Kapat

Grammar Checking (Dilbilgisi Kontrolü): AI, insanların yaptığı bazı dilbilgisi hatalarını yapmayabilir.

Metin çok mükemmelse, bu bir kırmızı bayrak olabilir, sonuçta hiç kimse mükemmel değil ancak ürettiğimiz araç mükemmelliğin kıyısına ulaşmak zorunda.

Style Analysis (Stil Analizi): Metnin belirli bir yazı stiline veya yönergeye uyup uymadığını değerlendirir.

Engagement Metrics (Etkileşim Metrikleri):

Tüm Reklamları Kapat

Predictive Modeling (Öngörücü Modelleme): Metnin ne kadar ilgi çekici olabileceğini tahmin etmek için kullanılır.

Buna bir benzetme bulamadım 😂

Uygulama Detayları (Implementation Considerations)

Şimdi pratik şeylerden bahsedelim.

Tüm Reklamları Kapat

Scalability (Ölçeklenebilirlik):

Parallel Processing (Paralel İşleme): Çoklu iş parçacığı veya dağıtılmış hesaplama kullanarak.

Daha hızlı gitmek için bisikletten motosiklete geçmek gibi.

Cloud Services (Bulut Hizmetleri): AWS veya Azure gibi platformlarda modelleri dağıtmak.

Tüm Reklamları Kapat

Latency (Gecikme):

Optimization (Optimizasyon): Model sıkıştırma teknikleri kullanmak.

Kim beklemeyi sever ki—çevirmeli ağı hatırlıyor musun? 1990-2000'lerde popülerdi.

Caching Mechanisms (Önbellekleme Mekanizmaları): Sık yapılan hesaplamaları depolamak.

Tüm Reklamları Kapat

Security (Güvenlik):

Data Encryption (Veri Şifreleme): Kullanıcı verilerinin güvenli bir şekilde işlenmesini sağlamak. Burası benim alanımın dışı, profesyonellerin, siber güvenlik uzmanlarının işi, bildiğimi düşündüğüm kadar yorumlayabilirim o kadar.

Gizlilik önemlidir yani günlüğünüze bakmıyoruz 😅

Compliance (Uyumluluk): GDPR gibi düzenlemelere uymak.

Tüm Reklamları Kapat

Kullanıcı Arayüzü ve Raporlama (User Interface and Reporting)

Son olarak tüm bu bilgileri kullanıcının anlayabileceği bir şekilde sunmalıyız.

Visualization Tools (Görselleştirme Araçları):

Heatmaps (Isı Haritaları): AI tarafından yazılmış olabilecek metin bölümlerini vurgular.

Tüm Reklamları Kapat

Şüpheli cümleleri fosforlu kalemle işaretlemek gibi.

Dashboards (Kontrol Panelleri): Metrikleri ve puanları gösterir.

Çünkü sayılar grafiklerde daha dost canlısıdır 😂

API Integration (API Entegrasyonu):

Tüm Reklamları Kapat

RESTful Services (RESTful Hizmetler): Diğer yazılım araçlarıyla entegrasyona izin verir.

Tak ve çalıştır bir çözüm sunmak gibi yani.

Webhooks (Web Kancaları): Gerçek zamanlı bildirimler için.

Her dakika yenile tuşuna basmadan güncel kalmak bu da.

Tüm Reklamları Kapat

İşte böyle! Çağrı'nın video bitişinde söylemesi gibi oldu 😂. Originality.AI gibi programlar AI tarafından üretilen metni tespit etmek için gelişmiş dilbilimsel analiz, istatistiksel yöntemler ve makine öğrenimi algoritmalarını bir araya getiriyor. Kelime seçiminden cümle yapısına, istatistiksel kalıplardan anlamsal tutarlılığa kadar her şeyi analiz ediyoruz. Sen burada hangi partta rol oynadın diye soracak olursan da:

  • Dataset Preparation (Veri Seti Hazırlığı) anlatmıştım yukarıda,
  • Feature Extraction (Özellik Çıkarımı),
  • Model Selection ve Training (Model Seçimi ve Eğitim),
  • Evaluation Metrics (Değerlendirme Metrikleri),
  • Adversarial Testing (Karşıt Örneklerle Test),
  • Feedback Loops ve Continuous Learning (Geri Bildirim Döngüleri ve Sürekli Öğrenme).

Böylelikle yazarın gerçek kimliğini—insan mı yoksa makine mi—ortaya çıkaran ince ipuçlarını fark eden bir edebi dedektif olmak gibi bir şey. AI, insan yazımını taklit etmede gittikçe daha iyi hale geliyor, ancak bu tespit yöntemleri de buna ayak uydurmak için sürekli gelişiyor tabii. Yine de her ne kadar bu araçlar tespit aracı olarak kullanılmaya çalışılsa da, işin içinde olan ve bunun nasıl çalıştığını bilen birisi çok kolay bir şekilde yapay zeka üretimi bir metni, insan yazımı gibi gösterebilir. Ancak uğraşmaya ne gerek var? Çünkü AI çıktısını %100 AI değil gibi gösterebilmek için baştan aşağı en azından her cümlede 3-4 kelime ve yapı değişikliği gerekiyor. Hatta değişiklik yetmiyor yeni cümleler eklemen gerekiyor. Yani sen baştan kalkıp kendin yazsan daha hızlı yazarsın. Fakat Google bunun kullanılmasını bir yüzde ile ancak onaylayabiliyor. Şimdi tam verileri vermeyeyim de 😅 yani %70 üzeri mesela bir benzerlik varsa, direkt flag'liyor ve veresiye defterine kaydediyor. Günü geldiğinde de kapını çalıyor ve "Mirabalarr canım benim, sen AI kullanmışsın hiç de bir şey eklememişsin, sen ne iş?" diyor, sen de haliyle ya kusura bakmayın hani öne çıkmak iste... Google sözünü kesiyor ve diyor ki "O çok iyi çok iyi, eline sağlık hiç uğraşmamışsın, hadi sen yeni bir şirket kur ve yeni bir site aç tekrar gel, o zaman bi bakarız" diyor ve kapıyı yavaaaşça kapatıp gidiyor. İşte önümüzdeki aylarda da bu oranı tutturamayan şirketlerin yaşayacağı şeyler bu. Google nasıl bu kadar iyi bilebiliyor ve anlayabiliyor diye sorabilirsiniz, çünkü Google... Yani onların sahip olduğu verinin %1'i ne OpenAI'da var, ne bu tanı araçlarında var. Herkes birbirini ya da kendisini kandırabilir, fakat Google'ı kandırabileceğinizi düşünmekte de ne bileyim yani 😂 Açıkçası yapay zeka içerikleriyle oluşturulmuş metinlerin, websitelerinin çöküşünü dört gözle bekliyorum, çok güzel bir görsel şölen olacak. Büyük platformlar bundan etkilenmez özgün içerikleri de bol olduğu için, yani etkilenir de öyle pılını pırtını topla git olmaz en azından.

Şimdi sormak lazım: Bu kadar yapay zeka metniyle dolan internetin hali ne olacak? İnsan emeğiyle yazılmış kaliteli içerikleri bulmak samanlıkta iğne aramaktan farksız hale geldi. Bazıları da oturmuş, "AI harika işler yapıyor, içerik üretimi kolaylaştı" diye övünüyor. E tabii, bedava iş gücü bulunca herkes kendini dahiyane sanıyor ne yaparsın.

Gerçekten de kim kimi kandırıyor? Yapay zekayla oluşturulmuş, özgünlükten yoksun, ruhsuz metinlerle dolu bir dünyaya mı gidiyoruz? (Google buna el koyacak az kaldı, buna izin vermez) İnsanların yaratıcılığını, emeğini hiçe sayıp, "Nasıl olsa AI yapıyor" diyerek kolaya kaçmak ne kadar doğru? Sonra da "Neden kimse benim sitemi ziyaret etmiyor?" diye yakınmalar başlıyor. E ne bekliyordun ki? 😂

Tüm Reklamları Kapat

Bir de utanmadan "Google bizi neden cezalandırdı?" diye soruyorlar. Çünkü Google senin hilelerini yemiyor, arkadaşım! Kaliteli içerik üretmek yerine yapay zekaya bel bağlarsan, sonuçlarına da katlanırsın. Hem sonra "SEO neden işe yaramıyor?" diye ağlanmak da cabası. Kendilerini kandırmakta üstlerine yok gerçekten.

Belki de artık uyanmanın zamanı geldi. Gerçek değer yaratmak istiyorsan, emek harcamak zorundasın. Yapay zekanın sunduğu kolaylıklara kapılıp, insan dokunuşunu unutursan, sonunda kaybeden sen olursun. Unutma, teknoloji araçtır, amaç değil!

Herkes aklını başına toplasın. Yapay zeka her şeyi çözecek diye bir şey yok. Gerçekten özgün ve değerli içerik üretmek istiyorsak, ter dökmemiz gerekiyor. Yoksa Google'ın radarına takılmak işten bile değil.

Teknoloji hayatımızı kolaylaştırdı diye her şeyi ona mı bırakacağız yani? Otomatik pilot var diye gözümüzü kapatıp mı araba süreceğiz? Bazıları da kalkmış, "Akıllı cihazlar her şeyi yapıyor, biz de keyfimize bakalım" diyor. E peki, bir gün o cihazlar bozulursa ne yapacaksın? Şarjın bitince dünya duruyor mu? Duruyor değil mi? O zaman senin beynin de duruyor demek yanlış olmaz. Beynini başkasına verdiysen sonuçlarına da katlanacaksın.

Tüm Reklamları Kapat

Sosyal medya bağımlılığı almış başını gidiyor zaten. İnsanlar yüz yüze konuşmayı unuttu, herkes ekranlara bakıyor. Sonra da "Neden ilişkilerim yürümüyor?" diye şikayet ediyorlar. E kardeşim, karşındakine mesaj atmak yerine iki çift laf etsen olmaz mı? Ya iş arkadaşımla oturduk kahve içiyoruz arada, sevgilisinden mesaj geliyor, yanıt yazmak için bekliyordu ben de niye bekliyorsun diye sordum, bi yapay zeka yapmışlar, gelen yanıtı atıyosun senin istediğin şekilde cevap yazıyor, haklı çıkmak için kanıt sunuyor falan dedi. 😂😂😂 Bi daha kahve içmedim o kişiyle. Utanmaz benimle de aynı şekilde konuşur kesin yeri gelir sanki fark etmeyecekmişim gibi bir de. 😂Teknoloji iletişim için var, iletişimi öldürmek için değil, bunu görmek bu kadar zor olmasa gerek ya.

Eğitim desen o da ayrı bir muamma. Öğrenciler kopyala-yapıştırla ödev yapıyor, araştırma nedir bilmiyorlar. Sonra da "Neden bir şey öğrenemiyorum?" diye ağlıyorlar. Emeğin yoksa, öğrenme de olmaz tabii. Kitap açıp iki sayfa okumaya üşenen nesiller yetişiyor. Kitabı geçtim pdf'lere de bakan yok.

ChatGPT var ChatGPT! Var canım var, sen yanlış kullanım stiline devam et. Bu gidişle bilgiye değil, bilgi kırıntılarına sahip olacağız. Valla bak AI yüzünden daha az düşünen bireyler yetişiyor. Bunun kime faydası var? Kimseye.

Sanat ve kültür de teknolojiye kurban gidiyor. Her şey dijital, her şey hızlı tüketim. Bir eserin tadını çıkarmak yerine, sıradaki parçaya geçiyoruz. Derinlik kayboluyor, yüzeysellik almış başını gidiyor. Iyy zaten çoğu sözde şarkıcılara girmiyorum bile, almışlar auto tune'u... Neyse. Sonra da "Neden hiçbir şey beni tatmin etmiyor?" diye soruyoruz. Belki de biraz durup düşünmek lazım.

Her şeyi AI'a havale edip, kendimizi geri plana atarsak ne olur? İnsan olmanın, düşünmenin, yaratmanın değeri ne olacak? Yapay zeka bize yardımcı olmalı, yerimizi almamalı. Yoksa bir gün bakarız ki, kendi elimizle kendimizi gereksiz hale getirmişiz. Unutmayalım, teknolojiyi biz yarattık, kontrol de bizde olmalı.

176 görüntülenme
Bu cevap, soru sahibi tarafından en iyi cevap seçilmiştir. Ancak bu, cevabın doğru olduğunu garanti etmez.
13
  • Şikayet Et
  • Mantık Hatası
3
  • Paylaş
  • Alıntıla
  • Alıntıları Göster
Daha Fazla Cevap Göster
Cevap Ver
Evrim Ağacı Soru & Cevap Platformu, Türkiye'deki bilimseverler tarafından kolektif ve öz denetime dayalı bir şekilde sürdürülen, özgür bir ortamdır. Evrim Ağacı tarafından yayınlanan makalelerin aksine, bu platforma girilen soru ve cevapların içeriği veya gerçek/doğru olup olmadıkları Evrim Ağacı yönetimi tarafından denetlenmemektedir. Evrim Ağacı, bu platformda yayınlanan cevapları herhangi bir şekilde desteklememekte veya doğruluğunu garanti etmemektedir. Doğru olmadığını düşündüğünüz cevapları, size sunulan denetim araçlarıyla işaretleyebilir, daha doğru olan cevapları kaynaklarıyla girebilir ve oylama araçlarıyla platformun daha güvenilir bir ortama evrimleşmesine katkı sağlayabilirsiniz.
Popüler Yazılar
30 gün
90 gün
1 yıl
Evrim Ağacı'na Destek Ol

Evrim Ağacı'nın %100 okur destekli bir bilim platformu olduğunu biliyor muydunuz? Evrim Ağacı'nın maddi destekçileri arasına katılarak Türkiye'de bilimin yayılmasına güç katın.

Evrim Ağacı'nı Takip Et!
Aklımdan Geçen
Komünite Seç
Aklımdan Geçen
Fark Ettim ki...
Bugün Öğrendim ki...
İşe Yarar İpucu
Bilim Haberleri
Hikaye Fikri
Video Konu Önerisi
Başlık
Bugün Türkiye'de bilime ve bilim okuryazarlığına neler katacaksın?
Gündem
Bağlantı
Ekle
Soru Sor
Stiller
Kurallar
Komünite Kuralları
Bu komünite, aklınızdan geçen düşünceleri Evrim Ağacı ailesiyle paylaşabilmeniz içindir. Yapacağınız paylaşımlar Evrim Ağacı'nın kurallarına tabidir. Ayrıca bu komünitenin ek kurallarına da uymanız gerekmektedir.
1
Bilim kimliğinizi önceleyin.
Evrim Ağacı bir bilim platformudur. Dolayısıyla aklınızdan geçen her şeyden ziyade, bilim veya yaşamla ilgili olabilecek düşüncelerinizle ilgileniyoruz.
2
Propaganda ve baskı amaçlı kullanmayın.
Herkesin aklından her şey geçebilir; fakat bu platformun amacı, insanların belli ideolojiler için propaganda yapmaları veya başkaları üzerinde baskı kurma amacıyla geliştirilmemiştir. Paylaştığınız fikirlerin değer kattığından emin olun.
3
Gerilim yaratmayın.
Gerilim, tersleme, tahrik, taciz, alay, dedikodu, trollük, vurdumduymazlık, duyarsızlık, ırkçılık, bağnazlık, nefret söylemi, azınlıklara saldırı, fanatizm, holiganlık, sloganlar yasaktır.
4
Değer katın; hassas konulardan ve öznel yoruma açık alanlardan uzak durun.
Bu komünitenin amacı okurlara hayatla ilgili keyifli farkındalıklar yaşatabilmektir. Din, politika, spor, aktüel konular gibi anlık tepkilere neden olabilecek konulardaki tespitlerden kaçının. Ayrıca aklınızdan geçenlerin Türkiye’deki bilim komünitesine değer katması beklenmektedir.
5
Cevap hakkı doğurmayın.
Aklınızdan geçenlerin bu platformda bulunmuyor olabilecek kişilere cevap hakkı doğurmadığından emin olun.
ve seni takip ediyor

Göster

Şifremi unuttum Üyelik Aktivasyonu

Göster

Şifrenizi mi unuttunuz? Lütfen e-posta adresinizi giriniz. E-posta adresinize şifrenizi sıfırlamak için bir bağlantı gönderilecektir.

Geri dön

Eğer aktivasyon kodunu almadıysanız lütfen e-posta adresinizi giriniz. Üyeliğinizi aktive etmek için e-posta adresinize bir bağlantı gönderilecektir.

Geri dön

Close