OpenAI, Akıl Yürütebildiğini İddia Ettiği Yeni Yapay Zekâ Modeli ChatGPT o1'i Tanıttı!
Yeni ChatGPT Modeli; Bilimdeki, Kodlamadaki ve Matematikteki Zorlu Problemleri Başarıyla Çözebiliyor!
Bu haber 3 ay öncesine aittir. Haber güncelliğini yitirmiş olabilir; ancak arşivsel değeri ve bilimsel gelişme/ilerleme anlamındaki önemi dolayısıyla yayında tutulmaktadır. Ayrıca konuyla ilgili gelişmeler yaşandıkça bu içerik de güncellenebilir.
ChatGPT'nin yaratıcısı olan OpenAI şirketi; 12 Eylül 2024 tarihinde yaptığı açıklamada, zor problemleri çözmek için sorgulara yanıt vermeden önce daha fazla zaman harcayacak şekilde tasarlanmış "Strawberry (Q*)" serisinin ilk yapay zekâ modellerini piyasaya sürdüğünü duyurdu.[1]
Yapay zekâ şirketi tarafından hazırlanan blog yazısında, yeni modellerin karmaşık görevlerde akıl yürütebildiği ve bilim, kodlama ve matematikte önceki modellere göre daha zorlu problemleri çözebildiği belirtiliyor.[2] OpenAI, proje için dahili olarak Strawberry kod adını kullanırken, yeni duyurulan modellere "o1" ve "o1-mini" isimlerini verdi.
Şirketin modellerindeki akıl yürütme yeteneğini geliştirmeye odaklanan araştırmacı Noam Brown, sosyal medya platformu X'te (eski adıyla, Twitter) yaptığı bir paylaşımda bu modellerin Strawberry projesiyle aynı olduğunu doğruladı. Brown, şöyle söylüyor:
OpenAI'deki ekibimizin gerçekten genel bir akıl yürütme yeteneğine sahip yapay zekâ modelleri yaratma çabasının meyvesini sizler ile paylaşmaktan heyecan duyuyorum.
OpenAI, blog yazısında GPT-o1 modelinin, Uluslararası Matematik Olimpiyatları'nın eleme sınavında %83 puan aldığını; önceki model GPT-4o'nun ise %13 puan aldığını belirtti. Şirket ayrıca, modelin rekabetçi programlama sorularındaki performansını da iyileştirdiğini ve bilimsel problemler konusunda doktora düzeyinde insan doğruluğunu aştığını söyledi.
Brown; modellerin bu başarıya, karmaşık problemleri daha küçük mantıksal adımlara bölmeyi içeren düşünce zinciri (İng: "chain-of-thought") adı verilen pekiştirmeli öğrenme tekniği kullanarak ulaştığını belirtti. Araştırmacılar; karmaşık problemlerde yapay zekâ modeli performansının, bu yaklaşımın yönlendirici bir teknik olarak kullanılması durumunda genellikle iyileştiğini gözlemlemişlerdi. OpenAI artık bu yeteneği otomatik hale getirdi, böylece modeller kullanıcı yönlendirmesi olmadan problemleri kendi başlarına çözebiliyor. OpenAI, konu hakkında şöyle söylüyor:
Bu modelleri, yanıt vermeden önce problemler üzerinde daha fazla düşünmeleri için eğittik. Tıpkı bir insanın yapacağı gibi. Eğitim sürecinde düşünme süreçlerini geliştirmeyi, farklı stratejiler denemeyi ve hatalarını tanımayı öğreniyorlar.
Şirketin baş teknoloji sorumlusu Mira Murati, genellikle "kapalı kutu" olarak değerlendirilen yapay zekâ sistemlerinin iç işleyişinin nasıl gerçekleştiğini anlamada o1 modelinin yeni yollar sunduğunu söylüyor. Murati, Amerikan basın yayın organı Financial Times'a verdiği demeçte şöyle söylüyor:[3]
Modelin düşünme sürecine görünürlük kazandırıyoruz ve düşünce sürecini adım adım gözlemleyebiliyoruz.
Alanın uzmanlarına göre, yapay zekâya adım adım akıl yürütmede bulunmayı ve planlama yapmayı öğretmek, insan benzeri bilişsel yeteneklere sahip bir makineyi ifade eden yapay genel zekânın icadında önemli bir kilometre taşı rolünde. Montreal Üniversitesinden bilgisayar bilimci ve prestijli Turing Ödülü sahibi Yoshua Bengio, şöyle söylüyor:
Eğer yapay zekâ sistemleri gerçek bir akıl yürütme sergilerse bu gelişme, yapay zekâ tarafından sunulan olguların, argümanların ve sonuçların tutarlılığını ve muhtemelen yapay genel zekâya ulaşmanın önündeki ana engeller olan aracılık ve özerklikte ilerlemeler sağlayacaktır.
Bengio'ya göre GPT, Gemini ve Claude gibi önde gelen yapay zekâ modellerinin bazı başlangıç niteliğindeki akıl yürütme yetenekleri sergilemesiyle bu alanda sürekli bir ilerleme kaydediliyor. Ancak bilimsel konsensüs, yapay zekâ sistemlerinin gerçek anlamda genel amaçlı akıl yürütmeden halen yoksun olduğu yönünde. Bengio, şöyle söylüyor:
İlerlemeleri değerlendirmek için doğru yol, çıkar çatışması olmayan bağımsız bilim insanları ve akademisyenler tarafından yapılan değerlendirmelerdir.
New York Üniversitesinden bilişsel bilim profesörü ve yapay zekâ uzmanı Gary Marcus, şöyle söylüyor:
Akıl yürütme üzerine birçok kez yapılan iddiaların bilim komünitesinin dikkatli, sabırlı incelemeleri sonrasında çöktüğünü gördük. Bu yüzden yeni iddialara şüpheyle yaklaşıyorum.
Bengio ayrıca daha gelişmiş yeteneklere sahip yazılımların geliştirilmesinin, art niyetli kişilerin elinde kötüye kullanım riskini artırdığını belirtiyor. Teknoloji uzmanlarına göre, önümüzdeki yıllarda bu alandaki ilerlemeler yapay zekâ gelişimini ileriye taşıyacak, ancak bununla birlikte önemli güvenlik endişelerini de yanında getirecek.
İçeriklerimizin bilimsel gerçekleri doğru bir şekilde yansıtması için en üst düzey çabayı gösteriyoruz. Gözünüze doğru gelmeyen bir şey varsa, mümkünse güvenilir kaynaklarınızla birlikte bize ulaşın!
Bu içeriğimizle ilgili bir sorunuz mu var? Buraya tıklayarak sorabilirsiniz.
Soru & Cevap Platformuna Git- 4
- 3
- 1
- 1
- 1
- 1
- 1
- 1
- 1
- 1
- 1
- 0
- ^ OpenAI. Introducing Openai O1. (12 Eylül 2024). Alındığı Tarih: 13 Eylül 2024. Alındığı Yer: OpenAI | Arşiv Bağlantısı
- ^ OpenAI. Learning To Reason With Llms. (12 Eylül 2024). Alındığı Tarih: 13 Eylül 2024. Alındığı Yer: OpenAI | Arşiv Bağlantısı
- ^ M. Murgia. Openai Launches Ai Models It Says Are Capable Of Reasoning. (12 Eylül 2024). Alındığı Tarih: 13 Eylül 2024. Alındığı Yer: Financial Times | Arşiv Bağlantısı
Evrim Ağacı'na her ay sadece 1 kahve ısmarlayarak destek olmak ister misiniz?
Şu iki siteden birini kullanarak şimdi destek olabilirsiniz:
kreosus.com/evrimagaci | patreon.com/evrimagaci
Çıktı Bilgisi: Bu sayfa, Evrim Ağacı yazdırma aracı kullanılarak 18/12/2024 13:46:03 tarihinde oluşturulmuştur. Evrim Ağacı'ndaki içeriklerin tamamı, birden fazla editör tarafından, durmaksızın elden geçirilmekte, güncellenmekte ve geliştirilmektedir. Dolayısıyla bu çıktının alındığı tarihten sonra yapılan güncellemeleri görmek ve bu içeriğin en güncel halini okumak için lütfen şu adrese gidiniz: https://evrimagaci.org/s/18588
İçerik Kullanım İzinleri: Evrim Ağacı'ndaki yazılı içerikler orijinallerine hiçbir şekilde dokunulmadığı müddetçe izin alınmaksızın paylaşılabilir, kopyalanabilir, yapıştırılabilir, çoğaltılabilir, basılabilir, dağıtılabilir, yayılabilir, alıntılanabilir. Ancak bu içeriklerin hiçbiri izin alınmaksızın değiştirilemez ve değiştirilmiş halleri Evrim Ağacı'na aitmiş gibi sunulamaz. Benzer şekilde, içeriklerin hiçbiri, söz konusu içeriğin açıkça belirtilmiş yazarlarından ve Evrim Ağacı'ndan başkasına aitmiş gibi sunulamaz. Bu sayfa izin alınmaksızın düzenlenemez, Evrim Ağacı logosu, yazar/editör bilgileri ve içeriğin diğer kısımları izin alınmaksızın değiştirilemez veya kaldırılamaz.