Keşfedin, Öğrenin ve Paylaşın
Evrim Ağacı'nda Aradığın Her Şeye Ulaşabilirsin!
Paylaşım Yap
Tüm Reklamları Kapat

Yapay Zekâ Otofajisi: Üretken Modeller, Hem Kendilerinin Hem de Bildiğimiz Anlamıyla İnternetin Sonu Olabilir!

4 dakika
536
Yapay Zekâ Otofajisi: Üretken Modeller, Hem Kendilerinin Hem de Bildiğimiz Anlamıyla İnternetin Sonu Olabilir! SciTechDaily
Tüm Reklamları Kapat

OpenAI'ın GPT4-o'su veya StabilityAI'ın Stable Diffusion'u gibi üretken yapay zekâ modelleri kod, metin, resim ve video üretmekte şaşırtıcı derecede yetenekli. Ancak bu modelleri eğitmek o kadar büyük miktarda veri gerektiriyor ki yapay zekâ mühendisleri şimdiden teknik sınırlamalarla karşılaşmaya başladı ve yakında model eğitmek için veri bulamayabilirler!

Bu veri kıtlığı durumunda, yeni nesil yapay zekâ modellerini eğitmek için sentetik veriler kullanmak teknoloji endüstrisi için cazip bir fikir olabilir. Yapay zekâ tarafından üretilen veriler gerçek dünyadan alınmış verilere göre çok daha ucuz ve sınırsız şekilde üretilebilir; başka yapay zekâ modellerini eğitmekte kullanılabilirler. Ancak bu da tıbbi verilerin kullanıldığı durumlar gibi bazı senaryolarda güvenlik riskleri teşkil eder. Öte yandan bazı durumlarda ise sentetik veri kullanmak modelin performansını artırabilir.

Rice Üniversitesi Dijital Sinyal İşleme grubunun yürüttüğü bir çalışma ise sentetik veri kullanmanın yapay zekânın gelecekteki versiyonları üzerinde bariz negatif etkileri olabileceğini öne sürüyor. Rice Üniversitesinde Elektrik ve Bilgisayar Mühendisliği Profesörü olan Richard Baraniuk, çalışma hakkında şunları söylüyor:

Tüm Reklamları Kapat

Sentetik verilerle model eğittiğinizde kaçınılmaz olarak bir döngüye giriyorsunuz. Buna otofajik döngü veya "kendi kendini tüketen döngü" adını veriyoruz. Ekibimiz bu geri bildirim döngülerine odaklandı ve ne yazık ki sentetik verilerle birkaç nesillik bir eğitim sürdürdüğümüzde yeni modellerin düzeltilemez derecede bozulduğunu gördük. Büyük Dil Modelleri bağlamında, bu duruma "model çöküşü" ismi verilmişti, ancak biz deli dana hastalığına ithafen "model otofaji bozukluğu" (MAD, İngilizcede bu kısaltma "deli" anlamına geliyor.) isminin daha uygun olduğunu düşünüyoruz.

Deli dana hastalığı, ineklerde görülen ölümcül bir nörodejeneretif hastalıktır. İnsanlarda ise aynı prionlardan kaynaklanan Creutzfeldt Jakob hastalığı, enfekte et tüketiminden kaynaklı olarak görülebilir. 1980 ve 90'larda patlak veren bir salgın, hastalığın ineklere kesilen diğer ineklerin artıklarının verilmesiyle artığını göstermiştir. Araştırmacıların kendi kendini tüketen yapay zekâlara bu ismi vermek istemesi de bundandır, bu yapay zekâ modelleri inekler gibi kendi türdeşlerinden kalanlarla beslenmektedir. Baraniuk, şunları söylüyor:

Otofajik eğitimin sorunlarını daha iyi gösterebilmek için görüntü üreten yapay zekâ modelleri üstünde çalıştık. Ancak başka ekiplerin de ifade ettiği gibi aynı durum Büyük Dil Modellerinde de gözleniyor.

İnternet, çoğu zaman modelleri eğitmek için oluşturulan veri setlerinin kaynağıdır. Yani sentetik veriler çevrim içi ortamlara sızdığında yapay zekâ modellerinin çıktılarında otofajik döngülerin ortaya çıkması beklenebilir. Bunun ne gibi sonuçları olabileceğini anlamak isteyen Baraniuk ve ekibi, gerçek ve sentetik verilerin üretken modellerin eğitiminde nasıl birleştirildiğini göstermek için tasarlanmış kendini tüketen üç farklı eğitim döngüsünü inceledi:

  • Tamamen Sentetik Döngü: Üretken bir model, önceki nesil modelin çıktılarıyla, yani tamamen sentetik verilerle beslendi (eğitildi).
  • Sentetik Artırım Döngüsü: Aynı modelin her nesli, bir önceki nesilden gelen çıktılarla ve sabit bir gerçek veri setinin kombinasyonu ile eğitildi.
  • Taze Veri Döngüsü: Aynı modelin her nesli, bir önceki nesilden gelen çıktılarla ve her nesil için taze eklenen gerçek bir veri setinin kombinasyonuyla eğitildi.

Bu döngülerin ilerleyen iterasyonlarında, zaman geçtikçe ve yeni gerçek veriler sağlanmadıkça modellerin gitgide çarpıklaşan, ya kalite ya da özgünlükten yoksun çıktılar verdiği gözlemlendi. Başka bir deyişle, ne kadar taze veri varsa yapay zekâ da o kadar sağlıklı oluyordu.

Bir modelin art arda ürettiği resim veri setlerini yan yana koyup baktığınızda yapay zekâ modellerinin geleceğine dair ürkütücü bir tablo ortaya çıkıyor. İnsan yüzleri temalı veri setlerinde her yeni üretimle birlikte çizgiler gözlenmeye başlıyor, araştırmacılar bu çizgiler gibi beklenmedik görüntülere "üretim eserleri" (İng: "generative artifacts") adını veriyor.

Tüm Reklamları Kapat

Rice Univesity

İlgi çekici başka bir durumsa her yeni veri setinde, resimlerdeki insanların birbirlerine daha çok benzemeye başlaması. Sayılara ait görsellerin üretilmesi istenen veri setleri ise zamanla sayı sembollerinden ziyade anlamsız karalamalara benziyor.

En soldaki sütun, modelin ilk çıktılarını gösteriyor. Her sütunla birlikte sayıların belirsizleştiği görülebilir.   Alt kısımda ise bu çıktılar için kullanılan eğitim veri setlerindeki sentetik ve gerçek verilerin dağılımı gösteriliyor.
En soldaki sütun, modelin ilk çıktılarını gösteriyor. Her sütunla birlikte sayıların belirsizleştiği görülebilir.
Alt kısımda ise bu çıktılar için kullanılan eğitim veri setlerindeki sentetik ve gerçek verilerin dağılımı gösteriliyor.
Rice University

Baraniuk, bu durumu şöyle yorumluyor:

Teorik ve deneysel sonuçlarımız, üretken modeller giderek yaygınlaştıkça ve başka modelleri eğitmek üzere veri setleri üretip otofajik döngüler oluşturdukça işlerin nereye gideceğine dair çıkarımlar yapmamızı sağlıyor. Kesin olan birkaç şey var: Yeterince taze veri olmadan gelecekte eğitilecek modeller "kafayı yemeye" mahkûm!

Araştırmacılar, simülasyonları mümkün olduğunca gerçeğe yaklaştırmak adına, örneklem hatalarını ve cımbızlama safsatasını belirtecek bir parametre kullandı. Bu parametrenin pratikteki karşılığıysa veri setlerindeki resim veya metinlerin güzel görünmesi veya güzel bir anlatımla sunulması karşılığında gözden çıkarılan çeşitlilik. Yani, modeller daha az çeşitlilikle daha "nizami" sonuçlar sunuyorlar ve bunu ne derecede yaptıklarının ölçülmesi gerekiyor.

Veri setlerindeki belirli girdilerin seçilmesi ya da cımbızlanmasının nedeni, bu yöntemin farklı üretim döngülerinde kalitenin korunmasına yol açması. Yani örnekteki gibi tüm resimlerdeki yüzler tek bir yüze benzerse belirli bir standart korunmuş oluyor. Elbette bu da modellerin çıktı çeşitliliğinde dramatik bir düşüş anlamına geliyor. Baraniuk, bu konuda şunları söylüyor:

Olabilecek en kötü şeylerden birisi, bu otofaji durumunun elimizdeki verilerin kalitesine balta vurması ve internetteki çeşitliliği genel olarak ortadan kaldırmasıdır. Kısacası, yapay zekâ otofajisinin çok yakın gelecekte öngöremediğimiz sonuçlara yol açacağı kesin.
Evrim Ağacı, sizlerin sayesinde bağımsız bir bilim iletişi platformu olmaya devam edecek!

Evrim Ağacı'nda tek bir hedefimiz var: Bilimsel gerçekleri en doğru, tarafsız ve kolay anlaşılır şekilde Türkiye'ye ulaştırmak. Ancak tahmin edebileceğiniz Türkiye'de bilim anlatmak hiç kolay bir iş değil; hele ki bir yandan ekonomik bir hayatta kalma mücadelesi verirken...

O nedenle sizin desteklerinize ihtiyacımız var. Eğer yazılarımızı okuyanların %1'i bize bütçesinin elverdiği kadar destek olmayı seçseydi, bir daha tek bir reklam göstermeden Evrim Ağacı'nın bütün bilim iletişimi faaliyetlerini sürdürebilirdik. Bir düşünün: sadece %1'i...

O %1'i inşa etmemize yardım eder misiniz? Evrim Ağacı Premium üyesi olarak, ekibimizin size ve Türkiye'ye bilimi daha etkili ve profesyonel bir şekilde ulaştırmamızı mümkün kılmış olacaksınız. Ayrıca size olan minnetimizin bir ifadesi olarak, çok sayıda ayrıcalığa erişim sağlayacaksınız.

Avantajlarımız
"Maddi Destekçi" Rozeti
Reklamsız Deneyim
%10 Daha Fazla UP Kazanımı
Özel İçeriklere Erişim
+5 Quiz Oluşturma Hakkı
Özel Profil Görünümü
+1 İçerik Boostlama Hakkı
ve Daha Fazlası İçin Evrim Ağacı'nda..
Aylık
Tek Sefer
Destek Ol
₺30/Aylık
Bu Makaleyi Alıntıla
Okundu Olarak İşaretle
27
2
  • Paylaş
  • Alıntıla
  • Alıntıları Göster
Paylaş
Sonra Oku
Notlarım
Yazdır / PDF Olarak Kaydet
Bize Ulaş
Yukarı Zıpla

Feragatname: Evrim Ağacı, doğrudan üniversiteler, akademik dergiler veya resmi bilim kurumları tarafından yayınlanan bu basın açıklamalarını temel editöryal düzenlemeden geçirmektedir; ancak açıklamaların isabetliliğinden sorumlu değildir. Basın açıklaması konusundaki sorularınızı aşağıdaki medya irtibat kişisine yöneltebilirsiniz.

Medya İrtibat

Makalelerimizin bilimsel gerçekleri doğru bir şekilde yansıtması için en üst düzey çabayı gösteriyoruz. Gözünüze doğru gelmeyen bir şey varsa, mümkünse güvenilir kaynaklarınızla birlikte bize ulaşın!

Bu makalemizle ilgili merak ettiğin bir şey mi var? Buraya tıklayarak sorabilirsin.

Soru & Cevap Platformuna Git
Bu Makale Sana Ne Hissettirdi?
  • Tebrikler! 5
  • Muhteşem! 1
  • Bilim Budur! 0
  • Mmm... Çok sapyoseksüel! 0
  • Güldürdü 0
  • İnanılmaz 0
  • Umut Verici! 0
  • Merak Uyandırıcı! 0
  • Üzücü! 0
  • Grrr... *@$# 0
  • İğrenç! 0
  • Korkutucu! 0
Kaynaklar ve İleri Okuma
Tüm Reklamları Kapat

Evrim Ağacı'na her ay sadece 1 kahve ısmarlayarak destek olmak ister misiniz?

Şu iki siteden birini kullanarak şimdi destek olabilirsiniz:

kreosus.com/evrimagaci | patreon.com/evrimagaci

Çıktı Bilgisi: Bu sayfa, Evrim Ağacı yazdırma aracı kullanılarak 21/02/2025 13:22:33 tarihinde oluşturulmuştur. Evrim Ağacı'ndaki içeriklerin tamamı, birden fazla editör tarafından, durmaksızın elden geçirilmekte, güncellenmekte ve geliştirilmektedir. Dolayısıyla bu çıktının alındığı tarihten sonra yapılan güncellemeleri görmek ve bu içeriğin en güncel halini okumak için lütfen şu adrese gidiniz: https://evrimagaci.org/s/18608

İçerik Kullanım İzinleri: Evrim Ağacı'ndaki yazılı içerikler orijinallerine hiçbir şekilde dokunulmadığı müddetçe izin alınmaksızın paylaşılabilir, kopyalanabilir, yapıştırılabilir, çoğaltılabilir, basılabilir, dağıtılabilir, yayılabilir, alıntılanabilir. Ancak bu içeriklerin hiçbiri izin alınmaksızın değiştirilemez ve değiştirilmiş halleri Evrim Ağacı'na aitmiş gibi sunulamaz. Benzer şekilde, içeriklerin hiçbiri, söz konusu içeriğin açıkça belirtilmiş yazarlarından ve Evrim Ağacı'ndan başkasına aitmiş gibi sunulamaz. Bu sayfa izin alınmaksızın düzenlenemez, Evrim Ağacı logosu, yazar/editör bilgileri ve içeriğin diğer kısımları izin alınmaksızın değiştirilemez veya kaldırılamaz.

Aklımdan Geçen
Komünite Seç
Aklımdan Geçen
Fark Ettim ki...
Bugün Öğrendim ki...
İşe Yarar İpucu
Bilim Haberleri
Hikaye Fikri
Video Konu Önerisi
Başlık
Bugün Türkiye'de bilime ve bilim okuryazarlığına neler katacaksın?
Gündem
Bağlantı
Ekle
Soru Sor
Stiller
Kurallar
Komünite Kuralları
Bu komünite, aklınızdan geçen düşünceleri Evrim Ağacı ailesiyle paylaşabilmeniz içindir. Yapacağınız paylaşımlar Evrim Ağacı'nın kurallarına tabidir. Ayrıca bu komünitenin ek kurallarına da uymanız gerekmektedir.
1
Bilim kimliğinizi önceleyin.
Evrim Ağacı bir bilim platformudur. Dolayısıyla aklınızdan geçen her şeyden ziyade, bilim veya yaşamla ilgili olabilecek düşüncelerinizle ilgileniyoruz.
2
Propaganda ve baskı amaçlı kullanmayın.
Herkesin aklından her şey geçebilir; fakat bu platformun amacı, insanların belli ideolojiler için propaganda yapmaları veya başkaları üzerinde baskı kurma amacıyla geliştirilmemiştir. Paylaştığınız fikirlerin değer kattığından emin olun.
3
Gerilim yaratmayın.
Gerilim, tersleme, tahrik, taciz, alay, dedikodu, trollük, vurdumduymazlık, duyarsızlık, ırkçılık, bağnazlık, nefret söylemi, azınlıklara saldırı, fanatizm, holiganlık, sloganlar yasaktır.
4
Değer katın; hassas konulardan ve öznel yoruma açık alanlardan uzak durun.
Bu komünitenin amacı okurlara hayatla ilgili keyifli farkındalıklar yaşatabilmektir. Din, politika, spor, aktüel konular gibi anlık tepkilere neden olabilecek konulardaki tespitlerden kaçının. Ayrıca aklınızdan geçenlerin Türkiye’deki bilim komünitesine değer katması beklenmektedir.
5
Cevap hakkı doğurmayın.
Aklınızdan geçenlerin bu platformda bulunmuyor olabilecek kişilere cevap hakkı doğurmadığından emin olun.
Sosyal
Makaleler
Daha Fazla İçerik Göster
Popüler Yazılar
30 gün
90 gün
1 yıl
Evrim Ağacı'na Destek Ol

Evrim Ağacı'nın %100 okur destekli bir bilim platformu olduğunu biliyor muydunuz? Evrim Ağacı'nın maddi destekçileri arasına katılarak Türkiye'de bilimin yayılmasına güç katın.

Evrim Ağacı'nı Takip Et!
Yazı Geçmişi
Okuma Geçmişi
Notlarım
İlerleme Durumunu Güncelle
Okudum
Sonra Oku
Not Ekle
Kaldığım Yeri İşaretle
Göz Attım

Evrim Ağacı tarafından otomatik olarak takip edilen işlemleri istediğin zaman durdurabilirsin.
[Site ayalarına git...]

Filtrele
Listele
Bu yazıdaki hareketlerin
Devamını Göster
Filtrele
Listele
Tüm Okuma Geçmişin
Devamını Göster
0/10000
Bu Makaleyi Alıntıla
Evrim Ağacı Formatı
APA7
MLA9
Chicago
E. Alparslan. Yapay Zekâ Otofajisi: Üretken Modeller, Hem Kendilerinin Hem de Bildiğimiz Anlamıyla İnternetin Sonu Olabilir!. (14 Şubat 2025). Alındığı Tarih: 21 Şubat 2025. Alındığı Yer: https://evrimagaci.org/s/18608
Alparslan, E. (2025, February 14). Yapay Zekâ Otofajisi: Üretken Modeller, Hem Kendilerinin Hem de Bildiğimiz Anlamıyla İnternetin Sonu Olabilir!. Evrim Ağacı. Retrieved February 21, 2025. from https://evrimagaci.org/s/18608
E. Alparslan. “Yapay Zekâ Otofajisi: Üretken Modeller, Hem Kendilerinin Hem de Bildiğimiz Anlamıyla İnternetin Sonu Olabilir!.” Edited by Eda Alparslan. Evrim Ağacı, 14 Feb. 2025, https://evrimagaci.org/s/18608.
Alparslan, Eda. “Yapay Zekâ Otofajisi: Üretken Modeller, Hem Kendilerinin Hem de Bildiğimiz Anlamıyla İnternetin Sonu Olabilir!.” Edited by Eda Alparslan. Evrim Ağacı, February 14, 2025. https://evrimagaci.org/s/18608.
ve seni takip ediyor

Göster

Şifremi unuttum Üyelik Aktivasyonu

Göster

Şifrenizi mi unuttunuz? Lütfen e-posta adresinizi giriniz. E-posta adresinize şifrenizi sıfırlamak için bir bağlantı gönderilecektir.

Geri dön

Eğer aktivasyon kodunu almadıysanız lütfen e-posta adresinizi giriniz. Üyeliğinizi aktive etmek için e-posta adresinize bir bağlantı gönderilecektir.

Geri dön

Close