LLM'ler (Büyük Dil Modelleri), bir insanın yapabildiği gibi düşünerek analiz edemiyorlar. Milyonlarca materyalden oluşan bir eğitim sürecinden geçiyorlar. Bu süreçte her metni, token denen olabildiğince küçük parçalara bölerek çok yüksek boyutlu bir yapıda vektörel olarak haritalandırıyor. Bu şekilde bir çok isim, terim, kelime olabildiğince doğru bir şekilde birbiriyle ilişkilendirilebiliyor. Buna ek olarak bir çok modern LLM oldukça geniş fakat yine de sınırlı bağlam pencerelerine sahip. Bu sayede sohbette çok önceden bahsettiğiniz bir konuyu, siz promptunuzda onu yönlendirmeden dahi cevabıyla kombinleyebilir. Bu dikkat mekanizması Google beyin ekibine ait olan "Attention Is All You Need" adlı makalesinde ortaya atıldıktan sonra günümüz LLM'leri şahit olduğunuz seviyelere erişti.[1]
Eğitim sürecinde kullanılan bütün materyaller insan üretimi bilgiler, sonuçlar. Herhangi bir LLM gözünüze çok zeki veya düşünebilen bir makine gibi göründüyse bunun sebebi internet aracılığıyla elde edilmiş olan kolektif insan bilgisinin farklı bir biçimde sorunuza yönelik kombinlenerek sunulmasındandır.
Bir LLM modeli aynı anda milyonlarca kişiye ulaşamaz. Herhangi bir LLM modeli yürütüldüğü donanıma bağımlı ve onun sınırlarıyla çalışabilir. Teknoloji endüstrisinde bir çok büyük şirket, sunucu denilen özelleşmiş bilgisayar donanımlarını kullanırlar ve bu donanımların internet üzerinden hizmet vermesini sağlarlar. Bu donanımlar genelde bir bina içerisinde, fan veya daha etkili olarak sıvı soğutma sistemleri içerisinde 7/24 çalışırlar, bakım zamanları hariç.
Popüler LLM'ler, herhangi bir kişisel bilgisayarda çalışmak için fazla kaynak talep eder. Büyük şirketlerin birbirlerine entegre edilmiş sunucularında genelde birden fazla model aynı anda çalıştırılır ve talebe göre ölçeklendirilir. Size tek bir LLM gibi görünen model aslında yüzlercesinden biri ve her konuştuğunuzda aynı donanımdaki LLM örneğinden ziyade bir başka donanımdakiyle konuşuyor olmanız muhtemelen. Aynı kalan tek şey sizin kullandığınız LLM'e sahip olan şirketin veritabanında yer alan bilgileriniz, bununla size konuşmalarınız günler sonra hatırlanabiliyor olarak gösterilmekte.
Kaynaklar
-
A. Vaswani, et al. Attention Is All You Need. (12 Haziran 2017). Alındığı Tarih: 18 Ocak 2026. Alındığı Yer: arXiv
| Arşiv Bağlantısı