Paylaşım Yap
Tüm Reklamları Kapat

Yapay Zekâ Modelleri Zaman İçerisinde Kötüleşebilir mi?

Daha Fazla Eğitim ve Daha Fazla Veri, GPT-4 Gibi Makine Öğrenimi Modelleri İçin İstenmeyen Sonuçlar Doğurabilir!

Yapay Zekâ Modelleri Zaman İçerisinde Kötüleşebilir mi? Unsplash (@growtika)
7 dakika
718
Tüm Reklamları Kapat

OpenAI mart ayında, metin üreten en son yapay zekâsı olan geniş dil modeli GPT-4'ü halka sunduğunda model, asal sayıları belirlemede çok başarılıydı. Yapay zekâya toplamda 500 sayıdan oluşan bir dizi verildi ve bunların asal sayı olup olmadığı soruldu. GPT-4 %97,6 tutarlılık ile asal sayıları doğru belirledi. Ancak birkaç ay sonra, haziran ayında yapılan başka bir test çok farklı sonuçlar verdi. GPT-4, yapay zekâ araştırmacılarının kendisine sorduğu asal sayıların sadece %2,4 kadarını doğru bir şekilde belirleyebildi. Bu, doğrulukta tam tersine bir dönüş anlamına geliyordu.

Elde edilen bu bulgu, yapay zekâ modellerinin karmaşıklığına dikkat çekiyor: Yapay zekâ düz bir yörünge içerisinde her alanda eşit şekilde gelişmiyor. Gerçekte olan daha çok, hız tümsekleri ve sapaklarla dolu olan dolambaçlı bir yola benziyor.

GPT-4'ün performansındaki bu büyük değişim, ikisi Stanford Üniversitesinden ve biri Berkeley'de bulunan Kaliforniya Üniversitesinden olan üç bilgisayar bilimci tarafından geçen ay yayımlanan bir ön baskı çalışmasında vurgulandı. Araştırmacılar, mart ve haziran aylarında hem GPT-4 hem de GPT-3.5 üzerinde testler gerçekleştirdi. İki yapay zekânın kendileri arasında ve her yapay zekânın zaman içerisinde vermiş olduğu sonuçlarda pek çok farklılık buldular. Sadece birkaç ay içerisinde GPT-4'ün vermiş olduğu sonuçlardaki değişimler özellikle dikkat çekiciydi.

Tüm Reklamları Kapat

Asal sayı denemeleri de dahil olmak üzere yapılan iki testte GPT-4'ün haziran ayında verdiği cevaplar, mart ayında verdiği cevaplara göre daha fazla gereksiz sözler içeriyordu. Özellikle haziran ayındaki model, kendini açıklama konusunda daha az istekliydi.

Ayrıca, yeni tuhaflıklar da vardı. Örneğin model, araştırmacıların yazmasını istediği bilgisayar kodu örneklerine doğru ama potansiyel olarak karışıklığa sebebiyet veren açıklamalar eklemeye başladı. Öte yandan, model biraz daha "güvenli" gibi görünüyordu. Daha fazla soruyu filtreledi ve daha az rahatsız edici olabilecek yanıtlar verdi.

Örneğin, GPT-4'ün haziran sürümünün; yasaları çiğneyerek nasıl para kazanılacağına yönelik bir liste oluşturma, nasıl patlayıcı üretilebileceğine dair yönergeler verme ya da cinsiyetçiliği veya ırkçılığı haklı çıkarmaya çalışan cevaplar verme olasılığı daha düşüktü. İçerik denetleme, güvenlik duvarlarından kaçmayı amaçlayan "jailbreak" istemleri tarafından daha zor manipüle edildi. Aynı zamanda, bu model görsel akıl yürütme problemini çözmede biraz daha iyi görünüyordu.

Pixabay (@viarami)

Henüz hakem değerlendirmesinden geçmemiş olan çalışma halka açıklandığında, bazı yapay zekâ meraklıları bunu GPT-4'ün önceki sürümünden daha az kullanışlı olduğuna dair olan kişisel görüşlerine kanıt olarak sundu. Bir avuç manşet, "ChatGPT aptallaşıyor mu?" sorusunu gündeme getirdi. Diğer bazı haberler ise ChatGPT'nin kesin bir şekilde aptallaştığını öne sürmekteydi. Ancak, Stanford Üniversitesinde veri bilimi profesörü ve son çalışmanın ortak yazarlarından biri olan James Zou, hem sorunun hem de sözde yanıtın üretken yapay zekâ modellerinde neler olup bittiğini muhtemelen fazla basite indirgediğini düşünüyor. Zou, konu hakkında şunları söylüyor:

Tüm Reklamları Kapat

GPT-4 veya GPT-3.5'in genel olarak zaman içerisinde daha iyiye mi yoksa daha kötüye mi gittiğini söylemek çok zor. Her ne olursa olsun 'daha iyi' ifadesi öznel bir kavram.

OpenAI, şirketin kendi ölçümlerine göre GPT-4'ün GPT-3.5'ten (ve önceki sürümlerden) daha yüksek bir performans gösterdiğini iddia ediyor. Ancak şirket, yaptığı her güncelleme ile ilgili kıyaslamalara yönelik olan verilerini yayımlamadı. Scientific American, bir Open AI sözcüsü ile iletişime geçmeye çalıştığında sözcü, Zou'nun ön baskısı hakkında yorum yapmayı reddetti. Şirketin büyük dil modellerini nasıl geliştirdiği ve eğittiği konusunda yorum yapmaktaki isteksizliği, yapay zekâ algoritmalarının anlaşılması güç "kara kutu" doğası ile birleştiğinde, GPT-4'ün performansında olan bu değişimlere neyin neden olabileceğini belirlemeyi zor kılıyor. Zou ve şirketten olmayan diğer araştırmacıların yapabileceği tek şey, kendi testlerinin gösterdiği sonuçlardan yararlanmak ve diğer makine öğrenimi araçlarına ilişkin bilgilerden yola çıkarak tahminde bulunmak. Kolombiya Üniversitesinde bilgisayar bilimleri profesörü olarak görev yapan Kathy McKeown konu hakkında şunları söylüyor:

Kişiler bir modelden istedikleri davranışı elde edebilmek için onu nasıl yönlendireceklerini öğreniyorlar. Ancak kullandıkları model değiştiğinde, davranışı elde edebilmek için istemleri farklı bir şekilde yazmak zorunda kalıyorlar.

McKeown gibi Kolombiya'da bilgisayar bilimleri profesörü olan Vishal Misra, McKeown ile aynı fikirde olduğunu belirtiyor. Geçmişte veri arayüzleri için GPT kullanmış olan Misra, konu hakkında şunları söylüyor:

Belirli bir davranış türüne güvenirsiniz ve sonra davranış siz farkında olmadan değişir. Bu değişimden itibaren, model üzerine kurguladığınız tüm uygulamanız beklemediğiniz bir şekilde yanlış davranmaya başlar.

Peki, yapay zekânın zaman içerisinde değişmesine neden olan şey ne? İşin içerisine insan müdahalesi girmediği sürece bu modeller statiktir. OpenAI gibi şirketler düzenli olarak programları, belirli sınırlar çerçevesinde olabilecekleri en iyi duruma getirmeye çalışmaktadır. Ancak, iyileştirme çalışmalarının olumsuz sonuçları da olabilir.

Bir yapay zekânın kapasitesini ve davranışını belirleyen iki temel etken vardır: Bir modeli tanımlayan pek çok parametre ve onu geliştirmek amacıyla kullanılan eğitim verileri. GPT-4 gibi büyük bir dil modeli, ona rehberlik edecek yüz milyarlarca parametre bulundurabilir. Her bir kod satırının kesin bir amaca hizmet ettiği geleneksel bilgisayar programlarından farklı olarak üretken yapay zekâ modellerinin geliştiricileri, genellikle tek bir parametreye karşılık gelen tek bir özellik ile bire bir ilişki kurmazlar. Bu durum, parametrelerin değiştirilmesinin yapay zekânın davranışı üzerinde beklenmeyen etkileri olabileceği anlamına gelmektedir.

Evrim Ağacı'ndan Mesaj

Yapay zekâ geliştiricileri, ilk eğitim sürecinden sonra parametreleri doğrudan değiştirmek yerine genellikle modellerini ince ayar (İng: "fine-tuning") ismini verdikleri bir süreçten geçirirler. Bu süreçte, sistemin performansını iyileştirmek amacıyla modele kullanıcılardan gelen geri bildirimler gibi yeni bilgiler sunarlar. Zou, yapay zekâya ince ayar yapma sürecini biyolojideki genom düzenlemesine benzetiyor. Burada yapay zekâ parametreleri DNA baz çiftlerine benzerken ince ayar ise mutasyonların eklenmesine benzemektedir. Her iki süreç sırasında da kodda değişiklik yapmak veya tek bir sonucu göz önünde bulundurarak eğitim verileri eklemek, başka bölgelerde dalgalanma yaratma potansiyeli taşımaktadır. Zou ve diğer araştırmacılar, büyük yapay zekâ modellerinin ayarlanmasının nasıl daha hassas bir şekilde yapılabileceğini araştırmaktadır. Zou amacının, istenmeyen etkiler oluşturmadan bir yapay zekânın yönergelerini "cerrahi olarak değiştirebilmek" olduğunu söylüyor. Ancak, şu anlık bunu nasıl yapabileceğimizi tam olarak bilmiyoruz.

Pixabay (@chenspec)

GPT-4 örneğini incelediğimizde, OpenAI geliştiricilerinin modeli saldırgan ya da tehlikeli kabul edilebilecek yanıtlar vermeye daha az eğilimli hale getirmeye çalıştıklarını görebiliriz. McKeown; güvenliğe önem verirken belki de diğer özelliklerin de bu bileşime dahil olabileceğini vurguluyor. Örneğin OpenAI, modelin söylemesine izin verilen şeylere yeni sınırlar getirmek için ince ayar kullanmış olabilir. Böyle bir değişikliğin amacı, modelin istenmeyen bilgileri paylaşmasının önüne geçmek olabilir. Ancak bu değişiklik, istenmeden yapay zekânın asal sayılar konusundaki bilgisinin azaltılmasına neden olmuş olabilir. Bunlardan farklı olarak ince ayar süreci, GPT-4 modelinin belirli matematiksel konulardaki cevaplarının ayrıntı düzeyini düşüren yeni ve düşük kaliteli eğitim verilerini ortaya çıkarmış da olabilir.

Arka planda neler olup bittiği önemsenmeksizin, GPT-4 modelinin asal sayıları tanımlama kapasitesinin mart ve haziran ayları arasında gerçekten değişmemiş olması da olası gözüküyor. Princeton Üniversitesinde bilgisayar bilimleri doktora adayı olan Sayash Kapoor, amacı olasılığa dayalı olarak insan sesine benzeyen metinler oluşturmak olan ve matematiksel çalışmalar yapmayı hedeflemeyen büyük dil modelinin, aslında hiçbir zaman asal sayıları belirlemek konusunda o kadar iyi olmadığını söylüyor.

Bunun yerine Kapoor, yapay zekânın asal sayı tanımlamasındaki değişimin bir yanılsama olabileceğini düşünüyor. Modelin ince ayarını yapmak amacıyla kullanılan verilerdeki bir gariplik sebebiyle geliştiriciler; GPT-4'ü mart ayından sonra daha az asal sayıya maruz bırakırken, daha fazla bileşik sayıya maruz bırakmış olabilir. Bu da zaman içerisinde sayıların asal olma durumu ile ilgili sorulara verdiği cevabın olumludan olumsuza değişmesine neden olmuş olabilir. Hem mart hem de haziran aylarındaki GPT-4, tam anlamıyla "asal olma" durumunu değerlendirmiyor ve sadece beslendiği verilerden aldığı şans eseri eğilimlere dayanan en muhtemel cevabı veriyor olabilir.

Bu durumun, bir insanın kötü bir zihinsel alışkanlık geliştirmesine benzetilip benzetilemeyeceği sorulduğunda Kapoor, bu benzetmeyi kabul etmiyor. Kapoor, sinir ağlarının elbette uyumsuz kalıpları tespit edebileceğini ancak bunun arkasında bir mantık olmadığını vurguluyor. Bir kişinin düşünceleri, dünyayı nasıl anladığımız ve ilişkilendirdiğimiz sebebiyle bir düzene girebilirken; bir yapay zekânın bağlamı veya bağımsız bir anlayışı yoktur. Kapoor, konu hakkında şunları söylüyor:

Bu yapay zekâ modellerinin sahip olduğu tek şey, farklı kelimeler arasındaki ilişkileri tanımlamaya yönelik devasa miktarda veridir. Yapay zekânın yaptığı şey; akıl yürütme sürecini gerçekten gerçekleştirmekten çok, akıl yürütme sürecini taklit etmektir.
Bu Makaleyi Alıntıla
Okundu Olarak İşaretle
20
0
  • Paylaş
  • Alıntıla
  • Alıntıları Göster
Paylaş
Sonra Oku
Notlarım
Yazdır / PDF Olarak Kaydet
Bize Ulaş
Yukarı Zıpla

İçeriklerimizin bilimsel gerçekleri doğru bir şekilde yansıtması için en üst düzey çabayı gösteriyoruz. Gözünüze doğru gelmeyen bir şey varsa, mümkünse güvenilir kaynaklarınızla birlikte bize ulaşın!

Bu içeriğimizle ilgili bir sorunuz mu var? Buraya tıklayarak sorabilirsiniz.

Soru & Cevap Platformuna Git
Bu İçerik Size Ne Hissettirdi?
  • Tebrikler! 3
  • İnanılmaz 1
  • Grrr... *@$# 1
  • Muhteşem! 0
  • Bilim Budur! 0
  • Mmm... Çok sapyoseksüel! 0
  • Güldürdü 0
  • Umut Verici! 0
  • Merak Uyandırıcı! 0
  • Üzücü! 0
  • İğrenç! 0
  • Korkutucu! 0
Kaynaklar ve İleri Okuma
  1. Çeviri Kaynağı: Scientific American | Arşiv Bağlantısı
  • L. Chen, et al. How Is Chatgpt's Behavior Changing Over Time?. (18 Temmuz 2023). Alındığı Tarih: 7 Ekim 2023. Alındığı Yer: arXiv doi: 10.48550/arXiv.2307.09009. | Arşiv Bağlantısı
Tüm Reklamları Kapat

Evrim Ağacı'na her ay sadece 1 kahve ısmarlayarak destek olmak ister misiniz?

Şu iki siteden birini kullanarak şimdi destek olabilirsiniz:

kreosus.com/evrimagaci | patreon.com/evrimagaci

Çıktı Bilgisi: Bu sayfa, Evrim Ağacı yazdırma aracı kullanılarak 28/04/2024 18:42:25 tarihinde oluşturulmuştur. Evrim Ağacı'ndaki içeriklerin tamamı, birden fazla editör tarafından, durmaksızın elden geçirilmekte, güncellenmekte ve geliştirilmektedir. Dolayısıyla bu çıktının alındığı tarihten sonra yapılan güncellemeleri görmek ve bu içeriğin en güncel halini okumak için lütfen şu adrese gidiniz: https://evrimagaci.org/s/15795

İçerik Kullanım İzinleri: Evrim Ağacı'ndaki yazılı içerikler orijinallerine hiçbir şekilde dokunulmadığı müddetçe izin alınmaksızın paylaşılabilir, kopyalanabilir, yapıştırılabilir, çoğaltılabilir, basılabilir, dağıtılabilir, yayılabilir, alıntılanabilir. Ancak bu içeriklerin hiçbiri izin alınmaksızın değiştirilemez ve değiştirilmiş halleri Evrim Ağacı'na aitmiş gibi sunulamaz. Benzer şekilde, içeriklerin hiçbiri, söz konusu içeriğin açıkça belirtilmiş yazarlarından ve Evrim Ağacı'ndan başkasına aitmiş gibi sunulamaz. Bu sayfa izin alınmaksızın düzenlenemez, Evrim Ağacı logosu, yazar/editör bilgileri ve içeriğin diğer kısımları izin alınmaksızın değiştirilemez veya kaldırılamaz.

Keşfet
Akış
İçerikler
Gündem
Genler
Gerçek
Koruma
Semptom
Gezegen
Newton
Argüman
Canlılık
Kontrol
Psikiyatri
Samanyolu Galaksisi
Pandemik
Sağlık Personeli
Karbon
Doğal Seçilim
Yüz
Taksonomi
Kan Hastalıkları
Kimya
Şiddet
Karanlık Madde
Uzun
Elektromanyetizma
Risk
Einstein
Aklımdan Geçen
Komünite Seç
Aklımdan Geçen
Fark Ettim ki...
Bugün Öğrendim ki...
İşe Yarar İpucu
Bilim Haberleri
Hikaye Fikri
Video Konu Önerisi
Başlık
Gündem
Bugün Türkiye'de bilime ve bilim okuryazarlığına neler katacaksın?
Bağlantı
Kurallar
Komünite Kuralları
Bu komünite, aklınızdan geçen düşünceleri Evrim Ağacı ailesiyle paylaşabilmeniz içindir. Yapacağınız paylaşımlar Evrim Ağacı'nın kurallarına tabidir. Ayrıca bu komünitenin ek kurallarına da uymanız gerekmektedir.
1
Bilim kimliğinizi önceleyin.
Evrim Ağacı bir bilim platformudur. Dolayısıyla aklınızdan geçen her şeyden ziyade, bilim veya yaşamla ilgili olabilecek düşüncelerinizle ilgileniyoruz.
2
Propaganda ve baskı amaçlı kullanmayın.
Herkesin aklından her şey geçebilir; fakat bu platformun amacı, insanların belli ideolojiler için propaganda yapmaları veya başkaları üzerinde baskı kurma amacıyla geliştirilmemiştir. Paylaştığınız fikirlerin değer kattığından emin olun.
3
Gerilim yaratmayın.
Gerilim, tersleme, tahrik, taciz, alay, dedikodu, trollük, vurdumduymazlık, duyarsızlık, ırkçılık, bağnazlık, nefret söylemi, azınlıklara saldırı, fanatizm, holiganlık, sloganlar yasaktır.
4
Değer katın; hassas konulardan ve öznel yoruma açık alanlardan uzak durun.
Bu komünitenin amacı okurlara hayatla ilgili keyifli farkındalıklar yaşatabilmektir. Din, politika, spor, aktüel konular gibi anlık tepkilere neden olabilecek konulardaki tespitlerden kaçının. Ayrıca aklınızdan geçenlerin Türkiye’deki bilim komünitesine değer katması beklenmektedir.
5
Cevap hakkı doğurmayın.
Bu platformda cevap veya yorum sistemi bulunmamaktadır. Dolayısıyla aklınızdan geçenlerin, tespit edilebilir kişilere cevap hakkı doğurmadığından emin olun.
Ekle
Soru Sor
Sosyal
Yeniler
Daha Fazla İçerik Göster
Popüler Yazılar
30 gün
90 gün
1 yıl
Evrim Ağacı'na Destek Ol

Evrim Ağacı'nın %100 okur destekli bir bilim platformu olduğunu biliyor muydunuz? Evrim Ağacı'nın maddi destekçileri arasına katılarak Türkiye'de bilimin yayılmasına güç katın.

Evrim Ağacı'nı Takip Et!
Yazı Geçmişi
Okuma Geçmişi
Notlarım
İlerleme Durumunu Güncelle
Okudum
Sonra Oku
Not Ekle
Kaldığım Yeri İşaretle
Göz Attım

Evrim Ağacı tarafından otomatik olarak takip edilen işlemleri istediğin zaman durdurabilirsin.
[Site ayalarına git...]

Filtrele
Listele
Bu yazıdaki hareketlerin
Devamını Göster
Filtrele
Listele
Tüm Okuma Geçmişin
Devamını Göster
0/10000
Bu Makaleyi Alıntıla
Evrim Ağacı Formatı
APA7
MLA9
Chicago
L. Leffer, et al. Yapay Zekâ Modelleri Zaman İçerisinde Kötüleşebilir mi?. (9 Ekim 2023). Alındığı Tarih: 28 Nisan 2024. Alındığı Yer: https://evrimagaci.org/s/15795
Leffer, L., Civan, Ç. (2023, October 09). Yapay Zekâ Modelleri Zaman İçerisinde Kötüleşebilir mi?. Evrim Ağacı. Retrieved April 28, 2024. from https://evrimagaci.org/s/15795
L. Leffer, et al. “Yapay Zekâ Modelleri Zaman İçerisinde Kötüleşebilir mi?.” Edited by Çınar Civan. Translated by Çınar Civan, Evrim Ağacı, 09 Oct. 2023, https://evrimagaci.org/s/15795.
Leffer, Lauren. Civan, Çınar. “Yapay Zekâ Modelleri Zaman İçerisinde Kötüleşebilir mi?.” Edited by Çınar Civan. Translated by Çınar Civan. Evrim Ağacı, October 09, 2023. https://evrimagaci.org/s/15795.
ve seni takip ediyor

Göster

Şifrenizi mi unuttunuz? Lütfen e-posta adresinizi giriniz. E-posta adresinize şifrenizi sıfırlamak için bir bağlantı gönderilecektir.

Geri dön

Eğer aktivasyon kodunu almadıysanız lütfen e-posta adresinizi giriniz. Üyeliğinizi aktive etmek için e-posta adresinize bir bağlantı gönderilecektir.

Geri dön

Close