Evreni Simüle Etmek: Modern Kozmolojinin Bize Kattıkları ve Gelecek...

Bu yazının içerik özgünlüğü henüz kategorize edilmemiştir. Eğer merak ediyorsanız ve/veya belirtilmesini istiyorsanız, gözden geçirmemiz ve içerik özgünlüğünü belirlememiz için [email protected] üzerinden bize ulaşabilirsiniz.

Evren, akıl almaz büyüklükteki bir yapıdır. Bugüne kadar bu yapının ne kadar büyük, uçsuz bucaksız ve karmaşık olduğuna dair birçok farklı açıdan yaklaşıp, birçok perspektif sunduk. Ancak buna rağmen modern kozmolojinin ve bilimin bu yapıyı modern bilgisayarları kullanarak simülasyon üzerinde yeniden yaratabiliyor olması birçoklarına şaşırtıcı gelebilecektir. Öyle ki, kozmologlar son 20 yıldır bilgisayarlı Evren modellemeleri yapabilmektedirler. Görselde, bunu başarmamızı sağlayan en meşhur algoritmalardan biri olan Hareketli Ağ Algoritması ile elde ettiğimiz bir Evren modeli gösterilmektedir. Modelde, simüle edilmiş evrenin karanlık madde yoğunluğu, gaz yoğunluğu, gaz sıcaklığı ve gaz metalisitesi gibi fiziksel parametreleri, farklı kırmızıya kayma değerlerine bağlı olarak, yani evrenin evriminin farklı evrelerinde nasıl göründüğü gösterilmektedir. Görseldeki her bir kutucuğun bir kenarı 100 megaparseğe, yani 3.086x1021 (3.086.000.000.000.000.000.000 veya 3.1 sekstilyon) kilometreye karşılık gelmektedir. 

Günümüzdeki teknolojiyi kullanarak genellikle bir kenarı birkaç yüz megaparseklik (Mpc, yaklaşık 3.26 milyon ışık yılı) hacimler modellenmektedir ve bunu yapmak için birkaç milyar parçacık bir arada simüle edilmektedir. Bu simülasyonlar, Kozmik Mikrodalga Artalan Işıması (KMAI) haritalarından gelen parametrelerin başlangıç değerlerini taklit etmektedir ve bunu yaparken, çok yüksek kırmızıya/kızıla kayma değerleri kullanmaktadır. Bunun sebebi, evrenin evriminin başlangıcına denk gelen koşullarda kızıla kaymanın çok yüksek değerli olmasıdır. Sonrasında kızıla kayma değerleri giderek kısılır ve nihayetinde sıfıra ulaşır. Kızıla kaymanın sıfıra denk olduğu nokta, günümüzdeki evren anlamına gelmektedir.

Evren simülasyonlarında kullanılan parçacıkların kimi sadece kütleçekiminden etkilenen karanlık madde parçacıkları, kimi ise hem kütleçekiminden etkilenen hem de hidrodinamik özellikleri olan normal (veya Baryonik) madde parçacıkları olarak seçilmektedir. Bazı simülasyonlarda ise sadece karanlık madde parçacıkları kullanılmaktadır çünkü kütleçekimini modelleyip simüle edip, hidrodinamiği simüle etmekten çok daha kolaydır. Bu sayede, çok daha fazla sayıda (kimi zaman birkaç trilyon) parçacık kullanmak ve daha gerçekçi modeller elde etmek mümkün olabilmektedir. Bu, aynı zamanda, çok daha büyük kozmolojik hacimlerin eş miktarda çözünürlükle simüle edilebilmesi anlamına gelmektedir. Kimi zamansa sadece karanlık maddeyi modelleme sayesinde çok daha düşük hacimleri, çok daha yüksek çözünürlük ile modellemek mümkün olabilmektedir. 

Aslına bakacak olursanız, tarihsel olarak, sadece karanlık madde modellerini kullanan simülasyonlar çok daha uzun bir geçmişe sahiptir; çünkü bunları gerçekleştirmek çok daha kolaydır. Ancak tahmin edebileceğiniz gibi, yapılan bazı gözlemler sonucunda sadece karanlık maddeye dayalı simülasyonlarda bazı uyuşmazlıklar tespit edilmiştir. Sonradan yapılan araştırmalar, bu uyuşmazlıkların o zamanki standart kozmolojik modelle alakalı olduğunu göstermiştir. Simülasyonlara baryonların eklenmesi sonucunda çok daha isabetli sonuçların alınmaya başladığı görülmüş, söz konusu sorunlar ve uyuşmazlıklar ortadan kalkmıştır. Bu nedenle, simüle etmesi daha zor olsa da, daha isabetli sonuçlar elde etmek adına hidrodinamiği de içeren baryon parçacıklarını kullanmak gerekmektedir.

Tabii ki Evren'in böylesine büyük hacimlerini tek bir grubun tek başına modellemesi oldukça güç bir iştir; bu nedenle genellikle bu tip simülasyonlar birçok araştırma merkezi ve bilim insanının ortaklaşa çalışması sonucunda elde edilir. Çoğu zaman bu modellerin tamamlanması için on milyonlarca CPU saatinin harcanması gerekmektedir. Ancak bu sayede nefes kesen modeller elde edilebilmektedir.

Fakat bu noktada sizi muhtemelen hayal kırıklığına uğratacağız: Günümüzde henüz tekil yıldızlar düzeyinde (çözünürlüğünde) modelleme yapmak mümkün değildir. Kaldı ki gezegenleri veya onların yüzeyindeki herhangi bir cismi, olayı veya olguyu (örneğin canlılığın başlangıcını) bu evren simülasyonları içerisinde modelleyebilelim... Sözünü ettiğimiz birkaç milyar parçacık genellikle yaklaşık 10.000 galaksiye bölüştürülür. Bu durumda, tipik olarak gerçekte birkaç yüz milyar yıldıza (ve ciddi miktarda bir karanlık madde kütlesine) sahip olan bir galaksiye sadece 1 milyon parçacık civarında düşmektedir. Dolayısıyla her bir parçacık, yaklaşık 1 milyon yıldıza denk gelecektir. Bunun altındaki hiçbir nesne, çözünürlük sınırlarında olamayacaktır. 

Bu durum, araştırmalar önünde bazı engeller doğurmaktadır: Örneğin kozmologlar için bu çözünürlük-altı yapıların (karadelikler, yıldızlar, vs.) oluşumu ve evrimi, makro skalada önemli etkilere sahiptir. Ancak bunları şu anda elimizdeki çözünürlük çerçevesinde bağımsız olarak modelleyemediğimiz için, bunların simülasyonlara sonradan, "elle" eklenmesi gerekmektedir. Bu da bol miktarda özel/hassas ayarlamayı beraberinde getirmektedir. Bu durum, söz konusu simülasyonların güvenilirliği ile ilgili kuşkulara neden olmaktadır.

Peki gelecekte daha iyisini başarmak mümkün olabilir mi?

Bu konuda kuşkular bulunmaktadır. Çünkü sorun sadece donanımsal bir problem değildir. Yani über-hızlı süperbilgisayarlar elde etmek demek, bu sorunların üstesinden gelinebileceği anlamına gelmemektedir. Aslına bakarsanız, sözünü ettiğimiz modelleri de sınırlayanlar bilgisayarların işlem kapasitesi değildir. Örneğin az önce bahsettiğimiz modeller, günümüzdeki bilgisayar işlem gücünün %1'ini bile kullanmamaktadır! Sorun, simülasyonları yapmak için kullandığımız algoritmalarımızdaki eksikler ve bilinmeyenlerdir. Bunlar, simülasyonlarımızın gerçekçiliğinin altını oymaktadır. Örneğin, bu problemlerden başlıcası, eldeki simülasyonu bir bilgisayarın farklı işlemci çekirdeklerine nasıl bölüştürdüğümüzle ilgilidir. Normalde bunu yapmanın tipik bir yolu, aç bırakma (starvation) yöntemidir. Yani mesela bir galaksinin çökmesi, algoritmanın zaman adımını kısaltmasına neden olmaktadır. İşte bu çöken galaksiyi modelleyen bilgisayar çekirdeği aşırı meşgulken, diğer yüzlerce bilgisayar çekirdeği "açtır"; yani o çekirdeğin işini bitirmesini beklerken bir şey yapamazlar.

Sorunun bir diğer ayağı ise bilim kültürüyle ilgilidir. Astronomi, kendi kodlarımızı yazmakta ısrarcı olduğumuz alanlardan birisidir. Birçok astronom, fiziği ve nümerik analizi çok iyi bildiği için, hatalı bir şekilde, kodlamayı da çok iyi bildikleri varsayımı hatasına düşerler. Ne yazık ki günümüzde astrofizikçiler ile bilgisayar bilimcileri arasında çok nadiren işbirliği yapılmaktadır.

Kim bilir, belki bu satırları okuyanlar arasında olan bazı Evrim Ağacı okurları, bu sorunların çözümünde kilit rol oynayacaktır?

Kaynak: Hossam Aly (Harvard Üniversitesi, Astrofizik, PhD)

İnsanlık Yok Olursa Son Yapay Işık Kaynağı Ne Zaman Söner?

Neden Bazı Hayvanlar Evcilleştirilirken, Bazı Diğerleri Evcilleştirilemez?

Yazar

Çağrı Mert Bakırcı

Çağrı Mert Bakırcı

Yazar

Evrim Ağacı'nın kurucusu ve idari sorumlusudur. Popüler bilim yazarı ve anlatıcısıdır. Doktorasını Texas Tech Üniversitesi'nden almıştır. Araştırma konuları evrimsel robotik, yapay zeka ve teorik/matematiksel evrimdir.

Konuyla Alakalı İçerikler

Göster

Şifremi unuttum Üyelik Aktivasyonu

Göster

Göster

Şifrenizi mi unuttunuz? Lütfen e-posta adresinizi giriniz. E-posta adresinize şifrenizi sıfırlamak için bir bağlantı gönderilecektir.

Geri dön

Eğer aktivasyon kodunu almadıysanız lütfen e-posta adresinizi giriniz. Üyeliğinizi aktive etmek için e-posta adresinize bir bağlantı gönderilecektir.

Geri dön

Close
Geri Bildirim