Paylaşım Yap
Tüm Reklamları Kapat

OpenAI, Akıl Yürütebildiğini İddia Ettiği Yeni Yapay Zekâ Modeli ChatGPT o1'i Tanıttı!

Yeni ChatGPT Modeli; Bilimdeki, Kodlamadaki ve Matematikteki Zorlu Problemleri Başarıyla Çözebiliyor!

3 dakika
498
OpenAI, Akıl Yürütebildiğini İddia Ettiği Yeni Yapay Zekâ Modeli ChatGPT o1'i Tanıttı! Pexels
Tüm Reklamları Kapat

ChatGPT'nin yaratıcısı olan OpenAI şirketi; 12 Eylül 2024 tarihinde yaptığı açıklamada, zor problemleri çözmek için sorgulara yanıt vermeden önce daha fazla zaman harcayacak şekilde tasarlanmış "Strawberry (Q*)" serisinin ilk yapay zekâ modellerini piyasaya sürdüğünü duyurdu.[1]

Yapay zekâ şirketi tarafından hazırlanan blog yazısında, yeni modellerin karmaşık görevlerde akıl yürütebildiği ve bilim, kodlama ve matematikte önceki modellere göre daha zorlu problemleri çözebildiği belirtiliyor.[2] OpenAI, proje için dahili olarak Strawberry kod adını kullanırken, yeni duyurulan modellere "o1" ve "o1-mini" isimlerini verdi.

Şirketin modellerindeki akıl yürütme yeteneğini geliştirmeye odaklanan araştırmacı Noam Brown, sosyal medya platformu X'te (eski adıyla, Twitter) yaptığı bir paylaşımda bu modellerin Strawberry projesiyle aynı olduğunu doğruladı. Brown, şöyle söylüyor:

Tüm Reklamları Kapat

OpenAI'deki ekibimizin gerçekten genel bir akıl yürütme yeteneğine sahip yapay zekâ modelleri yaratma çabasının meyvesini sizler ile paylaşmaktan heyecan duyuyorum.

OpenAI, blog yazısında GPT-o1 modelinin, Uluslararası Matematik Olimpiyatları'nın eleme sınavında %83 puan aldığını; önceki model GPT-4o'nun ise %13 puan aldığını belirtti. Şirket ayrıca, modelin rekabetçi programlama sorularındaki performansını da iyileştirdiğini ve bilimsel problemler konusunda doktora düzeyinde insan doğruluğunu aştığını söyledi.

Brown; modellerin bu başarıya, karmaşık problemleri daha küçük mantıksal adımlara bölmeyi içeren düşünce zinciri (İng: "chain-of-thought") adı verilen pekiştirmeli öğrenme tekniği kullanarak ulaştığını belirtti. Araştırmacılar; karmaşık problemlerde yapay zekâ modeli performansının, bu yaklaşımın yönlendirici bir teknik olarak kullanılması durumunda genellikle iyileştiğini gözlemlemişlerdi. OpenAI artık bu yeteneği otomatik hale getirdi, böylece modeller kullanıcı yönlendirmesi olmadan problemleri kendi başlarına çözebiliyor. OpenAI, konu hakkında şöyle söylüyor:

Bu modelleri, yanıt vermeden önce problemler üzerinde daha fazla düşünmeleri için eğittik. Tıpkı bir insanın yapacağı gibi. Eğitim sürecinde düşünme süreçlerini geliştirmeyi, farklı stratejiler denemeyi ve hatalarını tanımayı öğreniyorlar.

Şirketin baş teknoloji sorumlusu Mira Murati, genellikle "kapalı kutu" olarak değerlendirilen yapay zekâ sistemlerinin iç işleyişinin nasıl gerçekleştiğini anlamada o1 modelinin yeni yollar sunduğunu söylüyor. Murati, Amerikan basın yayın organı Financial Times'a verdiği demeçte şöyle söylüyor:[3]

Modelin düşünme sürecine görünürlük kazandırıyoruz ve düşünce sürecini adım adım gözlemleyebiliyoruz.

Alanın uzmanlarına göre, yapay zekâya adım adım akıl yürütmede bulunmayı ve planlama yapmayı öğretmek, insan benzeri bilişsel yeteneklere sahip bir makineyi ifade eden yapay genel zekânın icadında önemli bir kilometre taşı rolünde. Montreal Üniversitesinden bilgisayar bilimci ve prestijli Turing Ödülü sahibi Yoshua Bengio, şöyle söylüyor:

Tüm Reklamları Kapat

Eğer yapay zekâ sistemleri gerçek bir akıl yürütme sergilerse bu gelişme, yapay zekâ tarafından sunulan olguların, argümanların ve sonuçların tutarlılığını ve muhtemelen yapay genel zekâya ulaşmanın önündeki ana engeller olan aracılık ve özerklikte ilerlemeler sağlayacaktır.

Bengio'ya göre GPT, Gemini ve Claude gibi önde gelen yapay zekâ modellerinin bazı başlangıç niteliğindeki akıl yürütme yetenekleri sergilemesiyle bu alanda sürekli bir ilerleme kaydediliyor. Ancak bilimsel konsensüs, yapay zekâ sistemlerinin gerçek anlamda genel amaçlı akıl yürütmeden halen yoksun olduğu yönünde. Bengio, şöyle söylüyor:

İlerlemeleri değerlendirmek için doğru yol, çıkar çatışması olmayan bağımsız bilim insanları ve akademisyenler tarafından yapılan değerlendirmelerdir.

New York Üniversitesinden bilişsel bilim profesörü ve yapay zekâ uzmanı Gary Marcus, şöyle söylüyor:

Akıl yürütme üzerine birçok kez yapılan iddiaların bilim komünitesinin dikkatli, sabırlı incelemeleri sonrasında çöktüğünü gördük. Bu yüzden yeni iddialara şüpheyle yaklaşıyorum.

Bengio ayrıca daha gelişmiş yeteneklere sahip yazılımların geliştirilmesinin, art niyetli kişilerin elinde kötüye kullanım riskini artırdığını belirtiyor. Teknoloji uzmanlarına göre, önümüzdeki yıllarda bu alandaki ilerlemeler yapay zekâ gelişimini ileriye taşıyacak, ancak bununla birlikte önemli güvenlik endişelerini de yanında getirecek.

Bu Makaleyi Alıntıla
Okundu Olarak İşaretle
14
3
  • Paylaş
  • Alıntıla
  • Alıntıları Göster
Paylaş
Sonra Oku
Notlarım
Yazdır / PDF Olarak Kaydet
Bize Ulaş
Yukarı Zıpla

Feragatname: Evrim Ağacı, doğrudan üniversiteler, akademik dergiler veya resmi bilim kurumları tarafından yayınlanan bu basın açıklamalarını temel editöryal düzenlemeden geçirmektedir; ancak açıklamaların isabetliliğinden sorumlu değildir. Basın açıklaması konusundaki sorularınızı aşağıdaki medya irtibat kişisine yöneltebilirsiniz.

Medya İrtibat

İçeriklerimizin bilimsel gerçekleri doğru bir şekilde yansıtması için en üst düzey çabayı gösteriyoruz. Gözünüze doğru gelmeyen bir şey varsa, mümkünse güvenilir kaynaklarınızla birlikte bize ulaşın!

Bu içeriğimizle ilgili bir sorunuz mu var? Buraya tıklayarak sorabilirsiniz.

Soru & Cevap Platformuna Git
Bu İçerik Size Ne Hissettirdi?
  • Tebrikler! 1
  • Mmm... Çok sapyoseksüel! 1
  • Güldürdü 1
  • Muhteşem! 0
  • Bilim Budur! 0
  • İnanılmaz 0
  • Umut Verici! 0
  • Merak Uyandırıcı! 0
  • Üzücü! 0
  • Grrr... *@$# 0
  • İğrenç! 0
  • Korkutucu! 0
Kaynaklar ve İleri Okuma
  • ^ OpenAI. Introducing Openai O1. (12 Eylül 2024). Alındığı Tarih: 13 Eylül 2024. Alındığı Yer: OpenAI | Arşiv Bağlantısı
  • ^ OpenAI. Learning To Reason With Llms. (12 Eylül 2024). Alındığı Tarih: 13 Eylül 2024. Alındığı Yer: OpenAI | Arşiv Bağlantısı
  • ^ M. Murgia. Openai Launches Ai Models It Says Are Capable Of Reasoning. (12 Eylül 2024). Alındığı Tarih: 13 Eylül 2024. Alındığı Yer: Financial Times | Arşiv Bağlantısı
Tüm Reklamları Kapat

Evrim Ağacı'na her ay sadece 1 kahve ısmarlayarak destek olmak ister misiniz?

Şu iki siteden birini kullanarak şimdi destek olabilirsiniz:

kreosus.com/evrimagaci | patreon.com/evrimagaci

Çıktı Bilgisi: Bu sayfa, Evrim Ağacı yazdırma aracı kullanılarak 19/09/2024 22:07:55 tarihinde oluşturulmuştur. Evrim Ağacı'ndaki içeriklerin tamamı, birden fazla editör tarafından, durmaksızın elden geçirilmekte, güncellenmekte ve geliştirilmektedir. Dolayısıyla bu çıktının alındığı tarihten sonra yapılan güncellemeleri görmek ve bu içeriğin en güncel halini okumak için lütfen şu adrese gidiniz: https://evrimagaci.org/s/18588

İçerik Kullanım İzinleri: Evrim Ağacı'ndaki yazılı içerikler orijinallerine hiçbir şekilde dokunulmadığı müddetçe izin alınmaksızın paylaşılabilir, kopyalanabilir, yapıştırılabilir, çoğaltılabilir, basılabilir, dağıtılabilir, yayılabilir, alıntılanabilir. Ancak bu içeriklerin hiçbiri izin alınmaksızın değiştirilemez ve değiştirilmiş halleri Evrim Ağacı'na aitmiş gibi sunulamaz. Benzer şekilde, içeriklerin hiçbiri, söz konusu içeriğin açıkça belirtilmiş yazarlarından ve Evrim Ağacı'ndan başkasına aitmiş gibi sunulamaz. Bu sayfa izin alınmaksızın düzenlenemez, Evrim Ağacı logosu, yazar/editör bilgileri ve içeriğin diğer kısımları izin alınmaksızın değiştirilemez veya kaldırılamaz.

Keşfet
Akış
İçerikler
Gündem
Model
Tohum
Regülasyon
Samanyolu Galaksisi
Sanat
Endokrin Sistemi
Olasılık
İhtiyoloji
Önlem
Algı
Doğal
Kuş
Biyolojik Antropoloji
Evrim Teorisi
Köpekbalığı
Anatomi
Siyaset
Mikrop
Canlılık
Manyetik
Veri Bilimi
Ağız
Epistemik
Güve
Kahve
Aklımdan Geçen
Komünite Seç
Aklımdan Geçen
Fark Ettim ki...
Bugün Öğrendim ki...
İşe Yarar İpucu
Bilim Haberleri
Hikaye Fikri
Video Konu Önerisi
Başlık
Bugün Türkiye'de bilime ve bilim okuryazarlığına neler katacaksın?
Gündem
Bağlantı
Ekle
Soru Sor
Stiller
Kurallar
Komünite Kuralları
Bu komünite, aklınızdan geçen düşünceleri Evrim Ağacı ailesiyle paylaşabilmeniz içindir. Yapacağınız paylaşımlar Evrim Ağacı'nın kurallarına tabidir. Ayrıca bu komünitenin ek kurallarına da uymanız gerekmektedir.
1
Bilim kimliğinizi önceleyin.
Evrim Ağacı bir bilim platformudur. Dolayısıyla aklınızdan geçen her şeyden ziyade, bilim veya yaşamla ilgili olabilecek düşüncelerinizle ilgileniyoruz.
2
Propaganda ve baskı amaçlı kullanmayın.
Herkesin aklından her şey geçebilir; fakat bu platformun amacı, insanların belli ideolojiler için propaganda yapmaları veya başkaları üzerinde baskı kurma amacıyla geliştirilmemiştir. Paylaştığınız fikirlerin değer kattığından emin olun.
3
Gerilim yaratmayın.
Gerilim, tersleme, tahrik, taciz, alay, dedikodu, trollük, vurdumduymazlık, duyarsızlık, ırkçılık, bağnazlık, nefret söylemi, azınlıklara saldırı, fanatizm, holiganlık, sloganlar yasaktır.
4
Değer katın; hassas konulardan ve öznel yoruma açık alanlardan uzak durun.
Bu komünitenin amacı okurlara hayatla ilgili keyifli farkındalıklar yaşatabilmektir. Din, politika, spor, aktüel konular gibi anlık tepkilere neden olabilecek konulardaki tespitlerden kaçının. Ayrıca aklınızdan geçenlerin Türkiye’deki bilim komünitesine değer katması beklenmektedir.
5
Cevap hakkı doğurmayın.
Aklınızdan geçenlerin bu platformda bulunmuyor olabilecek kişilere cevap hakkı doğurmadığından emin olun.
Sosyal
Yeniler
Daha Fazla İçerik Göster
Popüler Yazılar
30 gün
90 gün
1 yıl
Evrim Ağacı'na Destek Ol

Evrim Ağacı'nın %100 okur destekli bir bilim platformu olduğunu biliyor muydunuz? Evrim Ağacı'nın maddi destekçileri arasına katılarak Türkiye'de bilimin yayılmasına güç katın.

Evrim Ağacı'nı Takip Et!
Yazı Geçmişi
Okuma Geçmişi
Notlarım
İlerleme Durumunu Güncelle
Okudum
Sonra Oku
Not Ekle
Kaldığım Yeri İşaretle
Göz Attım

Evrim Ağacı tarafından otomatik olarak takip edilen işlemleri istediğin zaman durdurabilirsin.
[Site ayalarına git...]

Filtrele
Listele
Bu yazıdaki hareketlerin
Devamını Göster
Filtrele
Listele
Tüm Okuma Geçmişin
Devamını Göster
0/10000
Bu Makaleyi Alıntıla
Evrim Ağacı Formatı
APA7
MLA9
Chicago
M. Köse, et al. OpenAI, Akıl Yürütebildiğini İddia Ettiği Yeni Yapay Zekâ Modeli ChatGPT o1'i Tanıttı!. (15 Eylül 2024). Alındığı Tarih: 19 Eylül 2024. Alındığı Yer: https://evrimagaci.org/s/18588
Köse, M., Civan, Ç. (2024, September 15). OpenAI, Akıl Yürütebildiğini İddia Ettiği Yeni Yapay Zekâ Modeli ChatGPT o1'i Tanıttı!. Evrim Ağacı. Retrieved September 19, 2024. from https://evrimagaci.org/s/18588
M. Köse, et al. “OpenAI, Akıl Yürütebildiğini İddia Ettiği Yeni Yapay Zekâ Modeli ChatGPT o1'i Tanıttı!.” Edited by Çınar Civan. Evrim Ağacı, 15 Sep. 2024, https://evrimagaci.org/s/18588.
Köse, Mücahid. Civan, Çınar. “OpenAI, Akıl Yürütebildiğini İddia Ettiği Yeni Yapay Zekâ Modeli ChatGPT o1'i Tanıttı!.” Edited by Çınar Civan. Evrim Ağacı, September 15, 2024. https://evrimagaci.org/s/18588.
ve seni takip ediyor

Göster

Şifremi unuttum Üyelik Aktivasyonu

Göster

Şifrenizi mi unuttunuz? Lütfen e-posta adresinizi giriniz. E-posta adresinize şifrenizi sıfırlamak için bir bağlantı gönderilecektir.

Geri dön

Eğer aktivasyon kodunu almadıysanız lütfen e-posta adresinizi giriniz. Üyeliğinizi aktive etmek için e-posta adresinize bir bağlantı gönderilecektir.

Geri dön

Close