Bazılarına göre yapay genel zeka (AGI) dediğimiz o derin uçurum, henüz başlangıç aşamasındayken bile "doğası gereği" kontrol dışı kalma potansiyeli barındırıyor, bunlara inananlardan birisi de benim. Yani başlangıç aşaması değil de en azından başlangıç aşamalarının aşıldıktan sonraki kısımlar gibi diyeyim. Örneğin nükleer enerjinin keşfinde de benzer bir iyimserlik vardı: "Faydalı kullanım sağlar, kimse bunu silaha dönüştürmez" dendi ve pekâlâ gördük ki işler hiç öyle gitmedi. Kontrol edilemezlik endişesinin odağında, AGI'ın kendi hedeflerini gözden geçirip onları yeniden tanımlayabilmesi ve böylelikle bizim koyduğumuz sınırlara gülüp geçme ihtimali yatıyor. Bu da tabii ki bir "Pygmalion" sendromu—kendi ellerimizle yarattığımız bir varlığın, yaratıcısından üstün olma arzusunu deneyimlemesi diyebilirsiniz.
Öte yandan alanın önde gelen bazı uzmanları "yok canım, istediğimiz gibi idare ederiz" diyerek birtakım güçlü varsayımlara dayanıyor. Mesela sistemin ödül fonksiyonunu perspektifiyle tasarlayıp, bir nevi sonsuz-hafızalı Markov Karar Süreci (MDP) yaklaşımı kullanıyorlar. Mantık şu: eğer AGI'ın eylemleri için her zaman pozitif veya negatif ödüller belirleyebilirsek, denklemin optimum çözümü bizim istediğimiz yönde bulunur. Sanki feedback kontrol teorisindeki formülüyle, sistemin transfer fonksiyonunu "insani değerler" eksenine dayandırmak yeterli olacakmış gibi bir iyimserlik söz konusu. Ne var ki, AGI kendi "A" matrisini de değiştirebiliyorsa, orada Laplace transformuna da, Pontryagin'in Maksimum İlkesi'ne de pek güvenemiyorsunuz.
Ama şu saçma geliyor bana, sen daha bu AGI'ın nasıl "var" edilebileceğini bile bilemezken (çünkü elde bu teknolojiyi başarabilecek ne enerji ne de altyapı var), bu var olacak olan makinenin ortaya çıkaracağı sonuçlardan nasıl emin olabilirsin?
Tarih boyunca "Biz bunu tamamen kontrol altına alırız" denip de çığrından çıkmamış kaç buluş hatırlıyoruz ki? Mesela internetin ilk günlerinde "Sadece üniversiteler arasında veri paylaşımı olacak, yok öyle kedi videosu, komplo teorisi, dijital saldırı" deniyordu. Sonra evrildi de evrildi; bugün bilgi kirliliğinden siber güvenlik açıklarına kadar türlü dertle uğraşıyoruz. Öte yandan matbaanın yaygınlaşması ilk başta otoritelerin hafife aldığı bir devrimdi, lakin hızla kontrolden çıkıp toplumsal dinamikleri kökten değiştirdi. AGI da aynı hızla ve muhtemelen ultra daha büyük bir şiddetle benzeri dönüşümleri tetikleme potansiyeline sahip.[1]
Dolayısıyla "İnsandan bin kat zeki bir varlığı nasıl olsa zapt ederiz" varsayımı—tıpkı "Bula bula kılıcın ucunu bulmuşuz, kim şimdi nükleeri keşfedecek" diyenlerin yanılgısı gibi—fazlasıyla tozpembe görünüyor. Değer uyumu (value alignment), ödül mekanizmaları, hatta temel mimariyi "şirket politikasına" uygun kılmaya yönelik onca girişime rağmen, gerçekçi olursak ortada büyük soru işaretleri var. Sistemi kesin olarak kontrol ettiğimizi neye dayanarak söyleyeceğiz?
Nitekim , yani karar uzayının dışında kalan potansiyel durumlar, bugünün en gelişmiş denetim mekanizmalarını alabora edebilir. Zira makine bizim kestiremediğimiz yollardan geçerek kendini de, çevresini de dönüştürebilir.
Kaynaklar
- R. V. Yampolskiy. On Controllability Of Ai. (19 Temmuz 2020). Alındığı Tarih: 1 Ocak 2025. Alındığı Yer: arXiv | Arşiv Bağlantısı