Yapay Zekada Büyük Atılım: DeepSeek V3 ve R1 Nedir ve Neden Önemlidir?
Çinli Şirket DeepSeek'in Geliştirdiği Yapay Zeka Modeli DeepSeek R1, Daha Az Maliyetle OpenAI'ın ChatGPT o1 Modelini Matematik ve Kodlamada Geride Bırakıyor!

- Çeviri
- Yapay Zeka
20 Ocak 2025'te, adı pek duyulmamış Çinli bir şirket olan DeepSeek en yeni yapay zeka modeli olan DeepSeek R1'i piyasaya sürdü ve yapay zeka sektöründe büyük yankı uyandırdı. DeepSeek şirketi, GitHub'a yüklediği bir teknik makalede "açık ağırlıklı" (İng: "open-weight") R1 modelinin, en az OpenAI'ın ChatGPT o1 modeli kadar başarılı olduğunu ve hatta bazı performans değerlendirmelerinde o1'den daha iyi sonuçlar elde ettiğini ilan etti.[1] En çarpıcı olanı ise bu sonuçlara eğitim ve çalıştırma maliyetlerini çok daha düşük tutarak ulaşmayı başarmıştı.[2], [3]
R1'in piyasalardaki etkisi de büyük oldu: DeepSeek'in, App Store'da en çok indirilen ücretsiz uygulama haline gelmesiyle ABD'li önde gelen teknoloji şirketlerinin toplam piyasa değerinden 1 trilyon dolar eksildi!
Yapay zeka eğitimi için kritik olduğu düşünülen yüksek performanslı H100 grafik çiplerini üreten teknoloji şirketi Nvidia ise, ABD tarihinin en büyük tek günlük kaybıyla 589 milyar dolar değer yitirdi.[4] Nvidia'nin hisselerinin bu denli erimesinin arkasındaki sebep; DeepSeek'in, yapay zeka modellerini bu çipler olmaksızın daha düşük kapasiteli eski Nvidia çipleri kullanarak eğitmiş olmasıydı. ABD'li teknoloji şirketleri bu gelişmelere panikle tepki gösterdi. OpenAI yetkilileri, DeepSeek'in ChatGPT'nin bazı kısımlarını çaldığını bile ima etti.[5]

Yapay zeka uzmanları, DeepSeek'in ortaya çıkışının sektörde ölçeklendirmeye (İng: "scaling") yönelik temel bir anlayışı altüst ettiğini söylemektedir. Keza DeepSeek modeli, daha büyük olmanın her zaman daha iyi olmadığını göstermiştir. Northwestern Üniversitesi'nden bilgisayar bilimi profesörü Kristian Hammond, şöyle söylüyor:
DeepSeek'in daha az maliyetle, daha az hesaplama gücü kullanılarak daha kısa sürede geliştirilebilmiş olması ve normal bilgisayarlarda lokal olarak çalıştırılabilmesi, her zaman daha büyük dil modellerine yönelen ABD sektörünün daha akıllı ve daha küçük ilk modelleri inşa etme fırsatını kaçırdığını göstermektedir.
DeepSeek V3 ve R1 Modelleri Nasıl Çalışır?
Peki DeepSeek'in V3 ve R1 modellerini bu kadar çığır açıcı yapan nedir? Bilim insanlarına göre bu sorunun cevabı, verimlilikte saklıdır. Michigan Üniversitesi'nden istatistik ve bilgisayar bilimi profesörü Ambuj Tewari, şöyle söylüyor:
Bir bakıma DeepSeek'in ilerlemeleri devrimsel değil, evrimseldir. Hâlâ çok büyük modeller (yüz milyarlarca parametre), devasa veri setleri (trilyonlarca token) ve bütçelerle çalışıyorlar. Ancak asıl yenilik, bu devasa modelleri diğer sistemler kadar iyi çalıştırırken çok daha az kaynak kullanmalarında yatmaktadır.
Bu yeniliğin anahtarı, modelleri belirli görevlere odaklanan alt modellere bölen "uzman karması" (İng: "mixture-of-experts") sistemidir. Buna ek olarak, diğer modellerin aksine aşırı yüklenen sistemi yavaşlatmak yerine görevleri dinamik olarak daha az meşgul olan alt modellere kaydıran bir yük dengeleme sistemi kullanılmaktadır. Tewari, şöyle söylüyor:
Bu sayede V3 modeli, 671 milyar parametresi olsa da her bir token için yalnızca 37 milyar parametre aktif hale geliyor.
Burada token (Tr: "belirteç"), büyük dil modellerinde (İng: "LLM") bir metin parçasına eşdeğer bir işlem birimini ifade etmektedir. Bu yük dengeleme, DeepSeek'in modellerindeki bir "ayar düğmesi" gibi çalışan "çıkarım zamanlı hesaplama ölçeklendirmesi" (İng: "inference-time compute scaling") sistemi ile daha da optimize edilmiştir. Bu teknik, atanan görevin karmaşıklığına göre ayrılan hesaplama gücünü artırıp azaltır.

Verimlilik, DeepSeek'in modellerinin eğitimine de yansımaktadır. Uzmanlar bunun, ABD'nin Çin'e olan ihracat kısıtlamalarının beklenmedik bir sonucu olduğunu belirtmektedir. DeepSeek, Çin'in ABD'li şirket Nvidia'nın en gelişmiş H100 çiplerine erişimi kısıtlandırıldığından, modellerini veri transfer hızı düşürülmüş H800 çiplerini kullanarak geliştirdiğini belirtmektedir. Nvidia bu "zayıf" çipi, 2023'te ihracat kısıtlamalarını aşmak için özel olarak tasarlamıştır.
Daha düşük performanslı çipler, DeepSeek'i bir başka önemli atılım daha yapmaya zorlamıştır. Bu atılım, "karışık hassasiyet çerçevesi" (İng: "mixed precision framework") olarak adlandırılmaktadır. Modelin ağırlıklarını (yapay zekanın yapay sinirleri arasındaki bağlantı gücünü belirleyen sayılar) tamamen 32-bit (FP32) yerine, doğruluğun kritik olduğu zor hesaplamalar dışında 8-bit (FP8) ile eğitmiştir. Tufts Üniversitesi'nden teknoloji politikası profesörü Thomas Cao, şöyle söylüyor:
Bu çerçeve, daha az hesaplama kaynağıyla daha hızlı eğitim sağlar. DeepSeek ayrıca veri yükleme, paralelleştirme stratejileri ve bellek optimizasyonu gibi eğitim sürecinin neredeyse her adımını iyileştirerek pratikte çok yüksek bir verimlilik elde etmeyi başarmıştır.
Benzer şekilde, insan etiketli verilerle eğitilmek yerine R1, denetimsiz bir şekilde akıl yürütmektedir. Yalnızca matematik ve kodlama gibi görevlerde sonuçların doğruluğunu ödül sinyali olarak kullanmaktadır. Bu yol, eğitim kaynaklarının başka kısımlara aktarılmasını sağlamaktadır.
Sonuç
Tüm bunlar, şaşırtıcı derecede verimli olan iki model ortaya çıkarmıştır. Rakip modellerin eğitim maliyetleri on milyonlarca dolardan yüz milyonlara çıkmaktadır ve eğitim süreci aylar almaktadır.[6] Öte yandan DeepSeek, V3 modelini 2 ayda yalnızca 5,58 milyon dolara eğittiğini beyan etmektedir. DeepSeek'in V3 modelini çalıştırma maliyeti de benzer şekilde çok daha düşük olarak açıklanmıştır. Bu beyanlara göre eğitimi, Anthropic'in Claude 3.5 Sonnet modelinden 21 kat daha az maliyetle tamamlanmıştır.[7]
Aslında maddi destek istememizin nedeni çok basit: Çünkü Evrim Ağacı, bizim tek mesleğimiz, tek gelir kaynağımız. Birçoklarının aksine bizler, sosyal medyada gördüğünüz makale ve videolarımızı hobi olarak, mesleğimizden arta kalan zamanlarda yapmıyoruz. Dolayısıyla bu işi sürdürebilmek için gelir elde etmemiz gerekiyor.
Bunda elbette ki hiçbir sakınca yok; kimin, ne şartlar altında yayın yapmayı seçtiği büyük oranda bir tercih meselesi. Ne var ki biz, eğer ana mesleklerimizi icra edecek olursak (yani kendi mesleğimiz doğrultusunda bir iş sahibi olursak) Evrim Ağacı'na zaman ayıramayacağımızı, ayakta tutamayacağımızı biliyoruz. Çünkü az sonra detaylarını vereceğimiz üzere, Evrim Ağacı sosyal medyada denk geldiğiniz makale ve videolardan çok daha büyük, kapsamlı ve aşırı zaman alan bir bilim platformu projesi. Bu nedenle bizler, meslek olarak Evrim Ağacı'nı seçtik.
Eğer hem Evrim Ağacı'ndan hayatımızı idame ettirecek, mesleklerimizi bırakmayı en azından kısmen meşrulaştıracak ve mantıklı kılacak kadar bir gelir kaynağı elde edemezsek, mecburen Evrim Ağacı'nı bırakıp, kendi mesleklerimize döneceğiz. Ama bunu istemiyoruz ve bu nedenle didiniyoruz.
Genel olarak uzmanlar, DeepSeek'in kazandığı popüleritenin sektör için olumlu olduğunu, kaynak maliyetlerini düşürerek araştırmacılar ve daha küçük firmalar için ileri yapay zeka araştırmalarına giriş engelini azalttığını belirtmektedir. Bu durum, Nvidia dışında daha fazla çip üreticisinin yarışa katılmasına da alan açabilir. Ancak bu, beraberinde bazı önemli riskler de getirmektedir. Cao, şöyle söylüyor:
Ucuz ve verimli yapay zeka yöntemleri yaygınlaştıkça, Dünya çapında daha fazla araştırmacı ve aktör ileri düzey modeller geliştirebilir. Bu bilimsel ilerlemeyi hızlandırabilir ancak aynı zamanda devletler ve diğer aktörlerin gelişmiş yapay zeka modellerini kötüye kullanma riski, ABD-Çin rekabetinin de ötesinde yeni regülasyon zorlukları doğurmaktadır.
Evrim Ağacı'nda tek bir hedefimiz var: Bilimsel gerçekleri en doğru, tarafsız ve kolay anlaşılır şekilde Türkiye'ye ulaştırmak. Ancak tahmin edebileceğiniz gibi Türkiye'de bilim anlatmak hiç kolay bir iş değil; hele ki bir yandan ekonomik bir hayatta kalma mücadelesi verirken...
O nedenle sizin desteklerinize ihtiyacımız var. Eğer yazılarımızı okuyanların %1'i bize bütçesinin elverdiği kadar destek olmayı seçseydi, bir daha tek bir reklam göstermeden Evrim Ağacı'nın bütün bilim iletişimi faaliyetlerini sürdürebilirdik. Bir düşünün: sadece %1'i...
O %1'i inşa etmemize yardım eder misiniz? Evrim Ağacı Premium üyesi olarak, ekibimizin size ve Türkiye'ye bilimi daha etkili ve profesyonel bir şekilde ulaştırmamızı mümkün kılmış olacaksınız. Ayrıca size olan minnetimizin bir ifadesi olarak, çok sayıda ayrıcalığa erişim sağlayacaksınız.
Makalelerimizin bilimsel gerçekleri doğru bir şekilde yansıtması için en üst düzey çabayı gösteriyoruz. Gözünüze doğru gelmeyen bir şey varsa, mümkünse güvenilir kaynaklarınızla birlikte bize ulaşın!
Bu makalemizle ilgili merak ettiğin bir şey mi var? Buraya tıklayarak sorabilirsin.
Soru & Cevap Platformuna Git- 3
- 2
- 1
- 1
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- Çeviri Kaynağı: LiveScience | Arşiv Bağlantısı
- ^ DeepSeek AI. Deepseek-V3/Deepseek_V3.Pdf At Main · Deepseek-Ai/Deepseek-V3. (20 Ocak 2025). Alındığı Tarih: 23 Şubat 2025. Alındığı Yer: GitHub | Arşiv Bağlantısı
- ^ DeepSeek AI. Deepseek-V3 Capabilities. Alındığı Tarih: 23 Şubat 2025. Alındığı Yer: DeepSeek AI | Arşiv Bağlantısı
- ^ A. Analysis. There Is A New Leader In Open Source Ai. Our Independent Benchmarks Show China-Based Deepseek’s V3 Model Ahead Of All Open Weights Models Released To Date, Beating Openai’s Gpt-4O (Aug) And Approaching Anthropic’s Claude 3.. (27 Aralık 2024). Alındığı Tarih: 23 Şubat 2025. Alındığı Yer: LinkedIn | Arşiv Bağlantısı
- ^ D. Saul. Nvidia Stock Plunges 17% As Nvda Suffers Biggest Market Cap Loss Ever—Driven By Deepseek. (27 Ocak 2025). Alındığı Tarih: 23 Şubat 2025. Alındığı Yer: Forbes | Arşiv Bağlantısı
- ^ J. Weatherbed. Openai Has Evidence That Its Models Helped Train China’s Deepseek. (29 Ocak 2025). Alındığı Tarih: 23 Şubat 2025. Alındığı Yer: The Verge | Arşiv Bağlantısı
- ^ K. Buchholz. Infographic: The Extreme Cost Of Training Ai Models. (23 Eylül 2024). Alındığı Tarih: 23 Şubat 2025. Alındığı Yer: Statista | Arşiv Bağlantısı
- ^ Anthropic. Pricing. Alındığı Tarih: 23 Şubat 2025. Alındığı Yer: Anthropic | Arşiv Bağlantısı
- DeepSeek AI. Deepseek-R1 Release | Deepseek Api Docs. (20 Ocak 2025). Alındığı Tarih: 23 Şubat 2025. Alındığı Yer: DeepSeek AI | Arşiv Bağlantısı
Evrim Ağacı'na her ay sadece 1 kahve ısmarlayarak destek olmak ister misiniz?
Şu iki siteden birini kullanarak şimdi destek olabilirsiniz:
kreosus.com/evrimagaci | patreon.com/evrimagaci
Çıktı Bilgisi: Bu sayfa, Evrim Ağacı yazdırma aracı kullanılarak 15/03/2025 05:48:49 tarihinde oluşturulmuştur. Evrim Ağacı'ndaki içeriklerin tamamı, birden fazla editör tarafından, durmaksızın elden geçirilmekte, güncellenmekte ve geliştirilmektedir. Dolayısıyla bu çıktının alındığı tarihten sonra yapılan güncellemeleri görmek ve bu içeriğin en güncel halini okumak için lütfen şu adrese gidiniz: https://evrimagaci.org/s/19879
İçerik Kullanım İzinleri: Evrim Ağacı'ndaki yazılı içerikler orijinallerine hiçbir şekilde dokunulmadığı müddetçe izin alınmaksızın paylaşılabilir, kopyalanabilir, yapıştırılabilir, çoğaltılabilir, basılabilir, dağıtılabilir, yayılabilir, alıntılanabilir. Ancak bu içeriklerin hiçbiri izin alınmaksızın değiştirilemez ve değiştirilmiş halleri Evrim Ağacı'na aitmiş gibi sunulamaz. Benzer şekilde, içeriklerin hiçbiri, söz konusu içeriğin açıkça belirtilmiş yazarlarından ve Evrim Ağacı'ndan başkasına aitmiş gibi sunulamaz. Bu sayfa izin alınmaksızın düzenlenemez, Evrim Ağacı logosu, yazar/editör bilgileri ve içeriğin diğer kısımları izin alınmaksızın değiştirilemez veya kaldırılamaz.
This work is an exact translation of the article originally published in LiveScience. Evrim Ağacı is a popular science organization which seeks to increase scientific awareness and knowledge in Turkey, and this translation is a part of those efforts. If you are the author/owner of this article and if you choose it to be taken down, please contact us and we will immediately remove your content. Thank you for your cooperation and understanding.