Yapay Zekâda Büyük Atılım: DeepSeek V3 ve R1 Nedir ve Neden Önemlidir?
Çinli Şirket DeepSeek'in Geliştirdiği DeepSeek R1, Daha Az Maliyetle OpenAI'ın ChatGPT o1'ini Matematik ve Kodlamada Geride Bırakıyor!

- Çeviri
- Yapay Zeka
20 Ocak 2025'te, adı pek duyulmamış Çinli bir şirket olan DeepSeek en yeni yapay zekâ modeli olan DeepSeek R1'i piyasaya sürdü ve yapay zekâ sektöründe büyük yankı uyandırdı. DeepSeek şirketi, GitHub'a yüklediği bir teknik makalede "açık ağırlıklı" (İng: "open-weight") R1 modelinin, en az OpenAI'ın ChatGPT o1 modeli kadar başarılı olduğunu ve hatta bazı performans değerlendirmelerinde o1'den daha iyi sonuçlar elde ettiğini ilan etti.[1] En çarpıcı olanı ise bu sonuçlara eğitim ve çalıştırma maliyetlerini çok daha düşük tutarak ulaşmayı başarmıştı.[2], [3]
R1'in piyasalardaki etkisi de büyük oldu: DeepSeek'in, App Store'da en çok indirilen ücretsiz uygulama haline gelmesiyle ABD'li önde gelen teknoloji şirketlerinin toplam piyasa değerinden 1 trilyon dolar eksildi!
Yapay zekâ eğitimi için kritik olduğu düşünülen yüksek performanslı H100 grafik çiplerini üreten teknoloji şirketi Nvidia ise, ABD tarihinin en büyük tek günlük kaybıyla 589 milyar dolar değer yitirdi.[4] Nvidia'nin hisselerinin bu denli erimesinin arkasındaki sebep; DeepSeek'in, yapay zekâ modellerini bu çipler olmaksızın daha düşük kapasiteli eski Nvidia çipleri kullanarak eğitmiş olmasıydı. ABD'li teknoloji şirketleri bu gelişmelere panikle tepki gösterdi. OpenAI yetkilileri, DeepSeek'in ChatGPT'nin bazı kısımlarını çaldığını bile ima etti.[5]

Yapay zekâ uzmanları, DeepSeek'in ortaya çıkışının sektörde ölçeklendirmeye (İng: "scaling") yönelik temel bir anlayışı altüst ettiğini söylemektedir. Keza DeepSeek modeli, daha büyük olmanın her zaman daha iyi olmadığını göstermiştir. Northwestern Üniversitesi'nden bilgisayar bilimi profesörü Kristian Hammond, şöyle söylüyor:
DeepSeek'in daha az maliyetle, daha az hesaplama gücü kullanılarak daha kısa sürede geliştirilebilmiş olması ve normal bilgisayarlarda lokal olarak çalıştırılabilmesi, her zaman daha büyük dil modellerine yönelen ABD sektörünün daha akıllı ve daha küçük ilk modelleri inşa etme fırsatını kaçırdığını göstermektedir.
DeepSeek V3 ve R1 Modelleri Nasıl Çalışır?
Peki DeepSeek'in V3 ve R1 modellerini bu kadar çığır açıcı yapan nedir? Bilim insanlarına göre bu sorunun cevabı, verimlilikte saklıdır. Michigan Üniversitesi'nden istatistik ve bilgisayar bilimi profesörü Ambuj Tewari, şöyle söylüyor:
Bir bakıma DeepSeek'in ilerlemeleri devrimsel değil, evrimseldir. Hâlâ çok büyük modeller (yüz milyarlarca parametre), devasa veri setleri (trilyonlarca token) ve bütçelerle çalışıyorlar. Ancak asıl yenilik, bu devasa modelleri diğer sistemler kadar iyi çalıştırırken çok daha az kaynak kullanmalarında yatmaktadır.
Bu yeniliğin anahtarı, modelleri belirli görevlere odaklanan alt modellere bölen "uzman karması" (İng: "mixture-of-experts") sistemidir. Buna ek olarak, diğer modellerin aksine aşırı yüklenen sistemi yavaşlatmak yerine görevleri dinamik olarak daha az meşgul olan alt modellere kaydıran bir yük dengeleme sistemi kullanılmaktadır. Tewari, şöyle söylüyor:
Bu sayede V3 modeli, 671 milyar parametresi olsa da her bir token için yalnızca 37 milyar parametre aktif hale geliyor.
Burada token (Tr: "belirteç"), büyük dil modellerinde (İng: "LLM") bir metin parçasına eşdeğer bir işlem birimini ifade etmektedir. Bu yük dengeleme, DeepSeek'in modellerindeki bir "ayar düğmesi" gibi çalışan "çıkarım zamanlı hesaplama ölçeklendirmesi" (İng: "inference-time compute scaling") sistemi ile daha da optimize edilmiştir. Bu teknik, atanan görevin karmaşıklığına göre ayrılan hesaplama gücünü artırıp azaltır.

Verimlilik, DeepSeek'in modellerinin eğitimine de yansımaktadır. Uzmanlar bunun, ABD'nin Çin'e olan ihracat kısıtlamalarının beklenmedik bir sonucu olduğunu belirtmektedir. DeepSeek, Çin'in ABD'li şirket Nvidia'nın en gelişmiş H100 çiplerine erişimi kısıtlandırıldığından, modellerini veri transfer hızı düşürülmüş H800 çiplerini kullanarak geliştirdiğini belirtmektedir. Nvidia bu "zayıf" çipi, 2023'te ihracat kısıtlamalarını aşmak için özel olarak tasarlamıştır.
Daha düşük performanslı çipler, DeepSeek'i bir başka önemli atılım daha yapmaya zorlamıştır. Bu atılım, "karışık hassasiyet çerçevesi" (İng: "mixed precision framework") olarak adlandırılmaktadır. Modelin ağırlıklarını (yapay zekânın yapay sinirleri arasındaki bağlantı gücünü belirleyen sayılar) tamamen 32-bit (FP32) yerine, doğruluğun kritik olduğu zor hesaplamalar dışında 8-bit (FP8) ile eğitmiştir. Tufts Üniversitesi'nden teknoloji politikası profesörü Thomas Cao, şöyle söylüyor:
Bu çerçeve, daha az hesaplama kaynağıyla daha hızlı eğitim sağlar. DeepSeek ayrıca veri yükleme, paralelleştirme stratejileri ve bellek optimizasyonu gibi eğitim sürecinin neredeyse her adımını iyileştirerek pratikte çok yüksek bir verimlilik elde etmeyi başarmıştır.
Benzer şekilde, insan etiketli verilerle eğitilmek yerine R1, denetimsiz bir şekilde akıl yürütmektedir. Yalnızca matematik ve kodlama gibi görevlerde sonuçların doğruluğunu ödül sinyali olarak kullanmaktadır. Bu yol, eğitim kaynaklarının başka kısımlara aktarılmasını sağlamaktadır.
Sonuç
Tüm bunlar, şaşırtıcı derecede verimli olan iki model ortaya çıkarmıştır. Rakip modellerin eğitim maliyetleri on milyonlarca dolardan yüz milyonlara çıkmaktadır ve eğitim süreci aylar almaktadır.[6] Öte yandan DeepSeek, V3 modelini 2 ayda yalnızca 5,58 milyon dolara eğittiğini beyan etmektedir. DeepSeek'in V3 modelini çalıştırma maliyeti de benzer şekilde çok daha düşük olarak açıklanmıştır. Bu beyanlara göre eğitimi, Anthropic'in Claude 3.5 Sonnet modelinden 21 kat daha az maliyetle tamamlanmıştır.[7]
Evrim Ağacı'nın çalışmalarına Kreosus, Patreon veya YouTube üzerinden maddi destekte bulunarak hem Türkiye'de bilim anlatıcılığının gelişmesine katkı sağlayabilirsiniz, hem de site ve uygulamamızı reklamsız olarak deneyimleyebilirsiniz. Reklamsız deneyim, sitemizin/uygulamamızın çeşitli kısımlarda gösterilen Google reklamlarını ve destek çağrılarını görmediğiniz, %100 reklamsız ve çok daha temiz bir site deneyimi sunmaktadır.
KreosusKreosus'ta her 10₺'lik destek, 1 aylık reklamsız deneyime karşılık geliyor. Bu sayede, tek seferlik destekçilerimiz de, aylık destekçilerimiz de toplam destekleriyle doğru orantılı bir süre boyunca reklamsız deneyim elde edebiliyorlar.
Kreosus destekçilerimizin reklamsız deneyimi, destek olmaya başladıkları anda devreye girmektedir ve ek bir işleme gerek yoktur.
PatreonPatreon destekçilerimiz, destek miktarından bağımsız olarak, Evrim Ağacı'na destek oldukları süre boyunca reklamsız deneyime erişmeyi sürdürebiliyorlar.
Patreon destekçilerimizin Patreon ile ilişkili e-posta hesapları, Evrim Ağacı'ndaki üyelik e-postaları ile birebir aynı olmalıdır. Patreon destekçilerimizin reklamsız deneyiminin devreye girmesi 24 saat alabilmektedir.
YouTubeYouTube destekçilerimizin hepsi otomatik olarak reklamsız deneyime şimdilik erişemiyorlar ve şu anda, YouTube üzerinden her destek seviyesine reklamsız deneyim ayrıcalığını sunamamaktayız. YouTube Destek Sistemi üzerinde sunulan farklı seviyelerin açıklamalarını okuyarak, hangi ayrıcalıklara erişebileceğinizi öğrenebilirsiniz.
Eğer seçtiğiniz seviye reklamsız deneyim ayrıcalığı sunuyorsa, destek olduktan sonra YouTube tarafından gösterilecek olan bağlantıdaki formu doldurarak reklamsız deneyime erişebilirsiniz. YouTube destekçilerimizin reklamsız deneyiminin devreye girmesi, formu doldurduktan sonra 24-72 saat alabilmektedir.
Diğer PlatformlarBu 3 platform haricinde destek olan destekçilerimize ne yazık ki reklamsız deneyim ayrıcalığını sunamamaktayız. Destekleriniz sayesinde sistemlerimizi geliştirmeyi sürdürüyoruz ve umuyoruz bu ayrıcalıkları zamanla genişletebileceğiz.
Giriş yapmayı unutmayın!Reklamsız deneyim için, maddi desteğiniz ile ilişkilendirilmiş olan Evrim Ağacı hesabınıza üye girişi yapmanız gerekmektedir. Giriş yapmadığınız takdirde reklamları görmeye devam edeceksinizdir.
Genel olarak uzmanlar, DeepSeek'in kazandığı popüleritenin sektör için olumlu olduğunu, kaynak maliyetlerini düşürerek araştırmacılar ve daha küçük firmalar için ileri yapay zekâ araştırmalarına giriş engelini azalttığını belirtmektedir. Bu durum, Nvidia dışında daha fazla çip üreticisinin yarışa katılmasına da alan açabilir. Ancak bu, beraberinde bazı önemli riskler de getirmektedir. Cao, şöyle söylüyor:
Ucuz ve verimli yapay zekâ yöntemleri yaygınlaştıkça, Dünya çapında daha fazla araştırmacı ve aktör ileri düzey modeller geliştirebilir. Bu bilimsel ilerlemeyi hızlandırabilir ancak aynı zamanda devletler ve diğer aktörlerin gelişmiş yapay zekâ modellerini kötüye kullanma riski, ABD-Çin rekabetinin de ötesinde yeni regülasyon zorlukları doğurmaktadır.
Evrim Ağacı'nda tek bir hedefimiz var: Bilimsel gerçekleri en doğru, tarafsız ve kolay anlaşılır şekilde Türkiye'ye ulaştırmak. Ancak tahmin edebileceğiniz gibi Türkiye'de bilim anlatmak hiç kolay bir iş değil; hele ki bir yandan ekonomik bir hayatta kalma mücadelesi verirken...
O nedenle sizin desteklerinize ihtiyacımız var. Eğer yazılarımızı okuyanların %1'i bize bütçesinin elverdiği kadar destek olmayı seçseydi, bir daha tek bir reklam göstermeden Evrim Ağacı'nın bütün bilim iletişimi faaliyetlerini sürdürebilirdik. Bir düşünün: sadece %1'i...
O %1'i inşa etmemize yardım eder misiniz? Evrim Ağacı Premium üyesi olarak, ekibimizin size ve Türkiye'ye bilimi daha etkili ve profesyonel bir şekilde ulaştırmamızı mümkün kılmış olacaksınız. Ayrıca size olan minnetimizin bir ifadesi olarak, çok sayıda ayrıcalığa erişim sağlayacaksınız.
Makalelerimizin bilimsel gerçekleri doğru bir şekilde yansıtması için en üst düzey çabayı gösteriyoruz. Gözünüze doğru gelmeyen bir şey varsa, mümkünse güvenilir kaynaklarınızla birlikte bize ulaşın!
Bu makalemizle ilgili merak ettiğin bir şey mi var? Buraya tıklayarak sorabilirsin.
Soru & Cevap Platformuna Git- 1
- 1
- 1
- 1
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- Çeviri Kaynağı: LiveScience | Arşiv Bağlantısı
- ^ DeepSeek AI. Deepseek-V3/Deepseek_V3.Pdf At Main · Deepseek-Ai/Deepseek-V3. (20 Ocak 2025). Alındığı Tarih: 23 Şubat 2025. Alındığı Yer: GitHub | Arşiv Bağlantısı
- ^ DeepSeek AI. Deepseek-V3 Capabilities. Alındığı Tarih: 23 Şubat 2025. Alındığı Yer: DeepSeek AI | Arşiv Bağlantısı
- ^ A. Analysis. There Is A New Leader In Open Source Ai. Our Independent Benchmarks Show China-Based Deepseek’s V3 Model Ahead Of All Open Weights Models Released To Date, Beating Openai’s Gpt-4O (Aug) And Approaching Anthropic’s Claude 3.. (27 Aralık 2024). Alındığı Tarih: 23 Şubat 2025. Alındığı Yer: LinkedIn | Arşiv Bağlantısı
- ^ D. Saul. Nvidia Stock Plunges 17% As Nvda Suffers Biggest Market Cap Loss Ever—Driven By Deepseek. (27 Ocak 2025). Alındığı Tarih: 23 Şubat 2025. Alındığı Yer: Forbes | Arşiv Bağlantısı
- ^ J. Weatherbed. Openai Has Evidence That Its Models Helped Train China’s Deepseek. (29 Ocak 2025). Alındığı Tarih: 23 Şubat 2025. Alındığı Yer: The Verge | Arşiv Bağlantısı
- ^ K. Buchholz. Infographic: The Extreme Cost Of Training Ai Models. (23 Eylül 2024). Alındığı Tarih: 23 Şubat 2025. Alındığı Yer: Statista | Arşiv Bağlantısı
- ^ Anthropic. Pricing. Alındığı Tarih: 23 Şubat 2025. Alındığı Yer: Anthropic | Arşiv Bağlantısı
- DeepSeek AI. Deepseek-R1 Release | Deepseek Api Docs. (20 Ocak 2025). Alındığı Tarih: 23 Şubat 2025. Alındığı Yer: DeepSeek AI | Arşiv Bağlantısı
Evrim Ağacı'na her ay sadece 1 kahve ısmarlayarak destek olmak ister misiniz?
Şu iki siteden birini kullanarak şimdi destek olabilirsiniz:
kreosus.com/evrimagaci | patreon.com/evrimagaci
Çıktı Bilgisi: Bu sayfa, Evrim Ağacı yazdırma aracı kullanılarak 26/02/2025 18:06:57 tarihinde oluşturulmuştur. Evrim Ağacı'ndaki içeriklerin tamamı, birden fazla editör tarafından, durmaksızın elden geçirilmekte, güncellenmekte ve geliştirilmektedir. Dolayısıyla bu çıktının alındığı tarihten sonra yapılan güncellemeleri görmek ve bu içeriğin en güncel halini okumak için lütfen şu adrese gidiniz: https://evrimagaci.org/s/19879
İçerik Kullanım İzinleri: Evrim Ağacı'ndaki yazılı içerikler orijinallerine hiçbir şekilde dokunulmadığı müddetçe izin alınmaksızın paylaşılabilir, kopyalanabilir, yapıştırılabilir, çoğaltılabilir, basılabilir, dağıtılabilir, yayılabilir, alıntılanabilir. Ancak bu içeriklerin hiçbiri izin alınmaksızın değiştirilemez ve değiştirilmiş halleri Evrim Ağacı'na aitmiş gibi sunulamaz. Benzer şekilde, içeriklerin hiçbiri, söz konusu içeriğin açıkça belirtilmiş yazarlarından ve Evrim Ağacı'ndan başkasına aitmiş gibi sunulamaz. Bu sayfa izin alınmaksızın düzenlenemez, Evrim Ağacı logosu, yazar/editör bilgileri ve içeriğin diğer kısımları izin alınmaksızın değiştirilemez veya kaldırılamaz.
This work is an exact translation of the article originally published in LiveScience. Evrim Ağacı is a popular science organization which seeks to increase scientific awareness and knowledge in Turkey, and this translation is a part of those efforts. If you are the author/owner of this article and if you choose it to be taken down, please contact us and we will immediately remove your content. Thank you for your cooperation and understanding.