LLM'lere iş delege etmek, özellikle uzun ve detaylı doküman düzenlemelerinde, beklediğimiz kadar masum değilmiş. Son bir araştırmaya göre, en gelişmiş modeller bile (Gemini 3.1 Pro, Claude 4.6 Opus, GPT 5.4 gibi) uzun akışların sonunda doküman içeriğinin ortalama %25'ini bozuyormuş.
Bu sadece küçük yazım hataları değil, içeriğin sessizce, derinden bozulması demek. İşin matematiği, "agentic tool use" gibi yaklaşımların bile bu durumu düzeltmediğini gösteriyor. Hata, etkileşim süresi ve doküman boyutu arttıkça katlanarak büyüyor.
Yapay zeka her şeyi halleder sanırken, aslında kritik belgelerimizin altında yatan anlamı yavaş yavaş aşındırıyor olabiliriz. Güvenmek güzel ama kontrol etmek şart. Aksi halde, çıktı temiz görünse de doğru olmayabilir. İşte bu yüzden, AI'a bir şey teslim ettiğimizde "yapıldı" diye geçmek yerine, sistemi nasıl çalıştırdığını ve nerede hata yapmaya meyilli olduğunu anlamamız gerekiyor. Yoksa bilgi işçiliği denen şey, "sessiz veri çürümesi"ne dönüşecek.