Genel olarak orijinal verilerin bütünlüğünü korurken 1 terabayt (TB) veriyi 1 megabayt (MB) boyutuna sıkıştırmak mümkün değildir. Sıkıştırma algoritmaları, verilerdeki fazlalıkları belirleyip çıkararak çalışır. Verilerin sıkıştırılma oranı, verinin içeriğine ve kullanılan sıkıştırma algoritmasına bağlıdır.
Kayıpsız sıkıştırma algoritmaları, LZ77 (ZIP ve gzip'te kullanılır) veya Lempel-Ziv-Welch (GIF ve TIFF'te kullanılır) gibi, orijinal verileri bilgi kaybı olmadan korur. Ancak, bu tür algoritmalar, verinin doğasına bağlı olarak yaklaşık 2:1 ila 10:1 arasında sıkıştırma oranları elde eder.
Kayıplı sıkıştırma algoritmaları, resimler için JPEG veya ses için MP3 gibi, süreçte bazı bilgileri atarak daha yüksek sıkıştırma oranları elde eder. Ancak, kayıplı sıkıştırmayla bile, 1.000.000:1 (1 TB'dan 1 MB'a) sıkıştırma oranına ulaşmak düşük bir ihtimaldir.
Orijinal verinin yüksek derecede fazlalık içerdiği veya büyük tekrarlanan desenlere sahip olduğu durumlarda, teorik olarak veriyi bu kadar küçük bir boyuta sıkıştırmak mümkündür, ancak pratikte verilerinin bu tür özelliklere sahip olması pek olası değildir.
Kaynaklar
- Institute of Electrical and Electronics Engineers. A Universal Algorithm For Sequential Data Compression. Alındığı Tarih: 10 Nisan 2023. Alındığı Yer: Institute of Electrical and Electronics Engineers | Arşiv Bağlantısı
- Institute of Electrical and Electronics Engineers. Verification Testing—A Pseudoexhaustive Test Technique. Alındığı Tarih: 10 Nisan 2023. Alındığı Yer: Institute of Electrical and Electronics Engineers | Arşiv Bağlantısı
- Institute of Electrical and Electronics Engineers. A Method For The Construction Of Minimum-Redundancy Codes. Alındığı Tarih: 10 Nisan 2023. Alındığı Yer: Institute of Electrical and Electronics Engineers | Arşiv Bağlantısı