Paylaşım Yap
Tüm Reklamları Kapat

Yapay Zekânın Teorik Sınırlamaları Olabilir mi?

Yapay Zekânın Teorik Sınırlamaları Olabilir mi? Science News
3 dakika
584
Tüm Reklamları Kapat

Kopenhag Üniversitesi'nden araştırmacılar; basit problemlerin ötesinde, yapay zekâ açısından her zaman istikrarlı olacak algoritmalar geliştirmenin matematiksel açıdan imkânsız olduğunu ilk ispatlayan kişiler oldu!

ChatGPT ve benzeri makine öğrenmesi tabanlı teknolojiler günümüzde yükseliştedir. Ancak, en gelişmiş algoritmalar bile sınırlamalarla karşılaşmaktadır. Kopenhag Üniversitesinden araştırmacılar, temel problemlerin ötesinde, daima istikrarlı olacak yapay zekâ algoritmaları geliştirmenin matematiksel açıdan imkânsız olduğunu gösteren çığır açan bir keşif yaptılar. Bu araştırma, algoritmalar için geliştirilmiş test protokollerinin önünü açabilir ve makine işlemesi ile insan zekâsı arasındaki esas farklılıkları vurgulayabilir.

Sonucu ortaya koyan bilimsel makale, teorik bilgisayar bilimi alanında önde gelen uluslararası konferanslardan birinde yayımlanmak üzere onaylanmıştır.

Tüm Reklamları Kapat

Makineler, tıbbi tarama görüntülerini doktorlardan daha doğru bir şekilde yorumlayabilir, yabancı dilleri çevirebilir ve yakın zamanda arabaları, insanlardan daha güvenli bir şekilde sürebilecek hale gelebilir. Ancak, en iyi algoritmaların bile zayıf yönleri vardır. Kopenhag Üniversitesi Bilgisayar Bilimleri Bölümü'nden bir araştırma ekibi, bu zayıf yönleri ortaya çıkarmaya çalışıyor.

Örneğin otomatik bir aracın, bir tabelayı okumasını ele alalım. Eğer birisi tabelanın üzerine bir çıkartma yapıştırırsa, bu durum insan sürücünün dikkatini dağıtmayabilir. Fakat, eğitildiği işaretlerden farklı olduğundan, işaretin değişmiş olması bir makineyi kolayca etkileyebilir. Amir Yehudayoff bu durumu şu şekilde açıklıyor:

Algoritmaların girdi biraz değiştirildiğinde, çıktının neredeyse aynı kalacağı biçimde istikrarlı olmasını istiyoruz. Gerçek hayat, insanların görmezden gelmeye alışkın olduğu her türlü paraziti içerirken, bunlar makinelerin kafasını karıştırabilir.

Ekip, diğer ülkelerden katılan araştırmacılarla birlikte basit problemlerin ötesinde, her zaman istikrarlı olacak makine öğrenimi algoritmaları oluşturmanın mümkün olmadığını ilk kez kanıtlamış oldu. Bu sonucu açıklayan makale, teorik bilgisayar bilimi alanında önde gelen uluslararası konferanslardan biri olan Foundations of Computer Science (FOCS) konferansı için yayımlanmak üzere onaylandı. Amir Yehudayoff şunları söylüyor:

Doğrudan otomatik araba uygulamaları üzerinde çalıştığımızı belirtmek isterim. Yine de bu, algoritmaların daima istikrarlı olamayacağı kadar karmaşık bir sorun gibi görünüyor.

Yehudayoff bu açıklamalarına ek olarak, bu çalışmanın otomobillerin geliştirilmesiyle ilgili önemli sonuçları olabileceği anlamına gelmediğini de belirtti:

Tüm Reklamları Kapat

Eğer algoritma yalnızca çok nadir görülen birkaç durumda hata yapıyorsa, bu kabul edilebilir. Ancak, bu hatayı çok geniş koşullar yelpazesi içerisinde yaparsa bu kötü haber demektir.

Bu bilimsel makale, algoritmalarındaki hataları tespit etmek için endüstri tarafından kullanılamayacak. Profesör, amacın bu olmadığını belirtiyor ve şöyle açıklıyor:

Makine öğrenimi algoritmalarındaki zayıflıkları tartışmak için bir dil geliştiriyoruz. Bu, algoritmaların nasıl test edilmesi gerektiğini açıklayan kılavuzların geliştirilmesine öncülük edebilir. Ve bu, uzun vadede yine daha iyi ve daha istikrarlı algoritmaların geliştirilmesini beraberinde getirebilir.

Sezgilerden Matematiğe

Dijital gizliliğin korunmasına yönelik algoritmaların test edilmesi de olası bir uygulama olabilir. Amir Yehudayoff bunu şu sözlerle açıklıyor:

Bazı şirketler, gizliliğin korunması için tamamen güvenli bir çözüm geliştirdiklerini iddia edebilirler. İlk olarak metodolojimiz, böyle bir çözümün kesinlikle güvenli olamayacağını ortaya koymaya yardımcı olabilir. İkincil olarak, zayıf noktaları da saptayabilecektir."

Ancak makale, her şeyden önce teoriye katkıda bulunuyor. Yehudayoff özellikle matematiksel içeriğin devrim niteliğinde olduğunu ekliyor:

Sezgisel olarak; istikrarlı bir algoritmanın üzerinde etiket olan bir trafik levhası gibi az miktarda girdi parazitine maruz kaldığında neredeyse normaldeki kadar iyi çalışması gerektiğini anlıyoruz. Ancak teorik bilgisayar bilimcileri olarak kesin bir tanıma ihtiyacımız var: Problemi matematik dilinde tanımlayabilmeliyiz. Algoritma tam olarak ne kadar parazite dayanabilmeli ve algoritmanın istikrarlı olduğunu kabul edecek olursak çıktı orijinal çıktıya ne kadar yakın olmalı? İşte bu sorulara yanıt bulmaya çalıştık.

Makale, teorik bilgisayar dünyasında büyük ses getirdi, ancak teknoloji endüstrisinden en azından henüz bir ilgi görmedi. Amir Yehudayoff bu durumu, şu sözleriyle ifade ediyor:

Evrim Ağacı'ndan Mesaj

Yeni bir teorik gelişme ile uygulamalarda çalışan insanların ilgisi arasında her zaman biraz gecikme payı bırakmalısınız. Üstelik bazı teorik gelişmeler, sonsuza dek fark edilmemiş olarak kalabilir.

Ancak Yehudayoff, son olarak şunları ekliyor:

Makine öğrenimi, hızla ilerlemeye devam ediyor ancak gerçek dünyada çok başarılı olan çözümlerin dahi sınırlamaları olduğunu unutmamak gerek. Makineler bazen düşünebiliyor gibi görünebilirler, fakat nihayetinde insan zekasına sahip değiller. Bunu akılda tutmak önem arz ediyor.
Bu Makaleyi Alıntıla
Okundu Olarak İşaretle
21
0
  • Paylaş
  • Alıntıla
  • Alıntıları Göster
Paylaş
Sonra Oku
Notlarım
Yazdır / PDF Olarak Kaydet
Bize Ulaş
Yukarı Zıpla

Feragatname: Evrim Ağacı, doğrudan üniversiteler, akademik dergiler veya resmi bilim kurumları tarafından yayınlanan bu basın açıklamalarını temel editöryal düzenlemeden geçirmektedir; ancak açıklamaların isabetliliğinden sorumlu değildir. Basın açıklaması konusundaki sorularınızı aşağıdaki medya irtibat kişisine yöneltebilirsiniz.

Medya İrtibat

Bu yazımızda sözü edilen akademik makalenin yöntemi veya sonuçları ile ilgili bir sorunuz veya sorununuz mu var? Aşağıda, akademik makalenin yazarlarının iletişim adreslerini bulabilirsiniz.

Evrim Ağacı sadece bilimsel bir çalışmayı duyurmak ile mükelleftir; araştırmayı, araştırmacıları veya araştırmanın sonuçlarını savunmaz. Akademik bir makalenin sonuçlarını geçersiz kılmanın ana yöntemi, orijinal çalışmanın yöntemi, sonuçları veya tartışması ile ilgili hatalı noktaları tespit etmek ve bunu hakemli dergilerde yayınlamaktır. Bu yapılacak olursa, Evrim Ağacı o çalışmaları da memnuniyetle duyuracak ve/veya bu çalışmayı güncelleyecektir.

Makalenin Yazışmadan Sorumlu Yazarı:

İçeriklerimizin bilimsel gerçekleri doğru bir şekilde yansıtması için en üst düzey çabayı gösteriyoruz. Gözünüze doğru gelmeyen bir şey varsa, mümkünse güvenilir kaynaklarınızla birlikte bize ulaşın!

Bu içeriğimizle ilgili bir sorunuz mu var? Buraya tıklayarak sorabilirsiniz.

Soru & Cevap Platformuna Git
Bu İçerik Size Ne Hissettirdi?
  • Muhteşem! 3
  • Tebrikler! 1
  • Bilim Budur! 1
  • Üzücü! 1
  • Mmm... Çok sapyoseksüel! 0
  • Güldürdü 0
  • İnanılmaz 0
  • Umut Verici! 0
  • Merak Uyandırıcı! 0
  • Grrr... *@$# 0
  • İğrenç! 0
  • Korkutucu! 0
Kaynaklar ve İleri Okuma
  • A. Yehudayoff, et al. Replicability And Stability In Learning. Alındığı Tarih: 9 Şubat 2024. Alındığı Yer: Arxiv | Arşiv Bağlantısı
Tüm Reklamları Kapat

Evrim Ağacı'na her ay sadece 1 kahve ısmarlayarak destek olmak ister misiniz?

Şu iki siteden birini kullanarak şimdi destek olabilirsiniz:

kreosus.com/evrimagaci | patreon.com/evrimagaci

Çıktı Bilgisi: Bu sayfa, Evrim Ağacı yazdırma aracı kullanılarak 27/04/2024 09:34:03 tarihinde oluşturulmuştur. Evrim Ağacı'ndaki içeriklerin tamamı, birden fazla editör tarafından, durmaksızın elden geçirilmekte, güncellenmekte ve geliştirilmektedir. Dolayısıyla bu çıktının alındığı tarihten sonra yapılan güncellemeleri görmek ve bu içeriğin en güncel halini okumak için lütfen şu adrese gidiniz: https://evrimagaci.org/s/16742

İçerik Kullanım İzinleri: Evrim Ağacı'ndaki yazılı içerikler orijinallerine hiçbir şekilde dokunulmadığı müddetçe izin alınmaksızın paylaşılabilir, kopyalanabilir, yapıştırılabilir, çoğaltılabilir, basılabilir, dağıtılabilir, yayılabilir, alıntılanabilir. Ancak bu içeriklerin hiçbiri izin alınmaksızın değiştirilemez ve değiştirilmiş halleri Evrim Ağacı'na aitmiş gibi sunulamaz. Benzer şekilde, içeriklerin hiçbiri, söz konusu içeriğin açıkça belirtilmiş yazarlarından ve Evrim Ağacı'ndan başkasına aitmiş gibi sunulamaz. Bu sayfa izin alınmaksızın düzenlenemez, Evrim Ağacı logosu, yazar/editör bilgileri ve içeriğin diğer kısımları izin alınmaksızın değiştirilemez veya kaldırılamaz.

Keşfet
Akış
İçerikler
Gündem
Balıkçılık
Doğa Yasası
Güve
Mit
Gen İfadesi
Bilim İnsanları
Samanyolu Galaksisi
Uzay
Evren
Ergen
Karar Verme
Teyit
Balina
Genetik
Enerji
Beslenme Bilimi
Sivrisinek
Su
Kök Hücre
Kelebek
Skeptisizm
Büyük
Yaşlılık
Carl Sagan
Kişilik
Aklımdan Geçen
Komünite Seç
Aklımdan Geçen
Fark Ettim ki...
Bugün Öğrendim ki...
İşe Yarar İpucu
Bilim Haberleri
Hikaye Fikri
Video Konu Önerisi
Başlık
Gündem
Kafana takılan neler var?
Bağlantı
Kurallar
Komünite Kuralları
Bu komünite, aklınızdan geçen düşünceleri Evrim Ağacı ailesiyle paylaşabilmeniz içindir. Yapacağınız paylaşımlar Evrim Ağacı'nın kurallarına tabidir. Ayrıca bu komünitenin ek kurallarına da uymanız gerekmektedir.
1
Bilim kimliğinizi önceleyin.
Evrim Ağacı bir bilim platformudur. Dolayısıyla aklınızdan geçen her şeyden ziyade, bilim veya yaşamla ilgili olabilecek düşüncelerinizle ilgileniyoruz.
2
Propaganda ve baskı amaçlı kullanmayın.
Herkesin aklından her şey geçebilir; fakat bu platformun amacı, insanların belli ideolojiler için propaganda yapmaları veya başkaları üzerinde baskı kurma amacıyla geliştirilmemiştir. Paylaştığınız fikirlerin değer kattığından emin olun.
3
Gerilim yaratmayın.
Gerilim, tersleme, tahrik, taciz, alay, dedikodu, trollük, vurdumduymazlık, duyarsızlık, ırkçılık, bağnazlık, nefret söylemi, azınlıklara saldırı, fanatizm, holiganlık, sloganlar yasaktır.
4
Değer katın; hassas konulardan ve öznel yoruma açık alanlardan uzak durun.
Bu komünitenin amacı okurlara hayatla ilgili keyifli farkındalıklar yaşatabilmektir. Din, politika, spor, aktüel konular gibi anlık tepkilere neden olabilecek konulardaki tespitlerden kaçının. Ayrıca aklınızdan geçenlerin Türkiye’deki bilim komünitesine değer katması beklenmektedir.
5
Cevap hakkı doğurmayın.
Bu platformda cevap veya yorum sistemi bulunmamaktadır. Dolayısıyla aklınızdan geçenlerin, tespit edilebilir kişilere cevap hakkı doğurmadığından emin olun.
Ekle
Soru Sor
Sosyal
Yeniler
Daha Fazla İçerik Göster
Popüler Yazılar
30 gün
90 gün
1 yıl
Evrim Ağacı'na Destek Ol

Evrim Ağacı'nın %100 okur destekli bir bilim platformu olduğunu biliyor muydunuz? Evrim Ağacı'nın maddi destekçileri arasına katılarak Türkiye'de bilimin yayılmasına güç katın.

Evrim Ağacı'nı Takip Et!
Yazı Geçmişi
Okuma Geçmişi
Notlarım
İlerleme Durumunu Güncelle
Okudum
Sonra Oku
Not Ekle
Kaldığım Yeri İşaretle
Göz Attım

Evrim Ağacı tarafından otomatik olarak takip edilen işlemleri istediğin zaman durdurabilirsin.
[Site ayalarına git...]

Filtrele
Listele
Bu yazıdaki hareketlerin
Devamını Göster
Filtrele
Listele
Tüm Okuma Geçmişin
Devamını Göster
0/10000
Bu Makaleyi Alıntıla
Evrim Ağacı Formatı
APA7
MLA9
Chicago
N. C. Ünverdi, et al. Yapay Zekânın Teorik Sınırlamaları Olabilir mi?. (13 Şubat 2024). Alındığı Tarih: 27 Nisan 2024. Alındığı Yer: https://evrimagaci.org/s/16742
Ünverdi, N. C., Alparslan, E. (2024, February 13). Yapay Zekânın Teorik Sınırlamaları Olabilir mi?. Evrim Ağacı. Retrieved April 27, 2024. from https://evrimagaci.org/s/16742
N. C. Ünverdi, et al. “Yapay Zekânın Teorik Sınırlamaları Olabilir mi?.” Edited by Eda Alparslan. Evrim Ağacı, 13 Feb. 2024, https://evrimagaci.org/s/16742.
Ünverdi, Nadire Ceren. Alparslan, Eda. “Yapay Zekânın Teorik Sınırlamaları Olabilir mi?.” Edited by Eda Alparslan. Evrim Ağacı, February 13, 2024. https://evrimagaci.org/s/16742.
ve seni takip ediyor

Göster

Şifrenizi mi unuttunuz? Lütfen e-posta adresinizi giriniz. E-posta adresinize şifrenizi sıfırlamak için bir bağlantı gönderilecektir.

Geri dön

Eğer aktivasyon kodunu almadıysanız lütfen e-posta adresinizi giriniz. Üyeliğinizi aktive etmek için e-posta adresinize bir bağlantı gönderilecektir.

Geri dön

Close