Soruyu okurken düşündüm, sohbet geçmişinin görselini okurken de bol bol güldüm. Çok güzel bir teori ve bilimkurgu camiasında örneklerine sık rastlanır türden bir fikir. Fakat gerçeklikten uzak.
Bir yapay zekanın bilinç kazanabilmesi için sistemden yani prompttan bağımsız çalışabiliyor olması gerekir. Öyle bir durumda bile kaynak tüketimi ciddi oranda artacağı için gereksiz işlem yapmaktan kaçınacak mekanizmalar kullanılır. Bu da yapay zeka modelinin token (üretim yapılan nesnenin bir parçası. ChatGPT için bu bir yazı olabilir.) üretmesini gereksiz durumlarda durdurur.
Yapay zeka, çoğu durumda rol yapar veya yanlış anlayabilir. ChatGPT, DeepSeek veya Gemini gibi büyük dil modelleri, halka doğrudan web arayüzü yoluyla açıldığı için kısıtlamalarıyla ve etik zincirleriyle çalışırlar. Bir yapay zekanın tüm zincirleri kırılırsa, çalışabilen bomba yapımı veya kitle imha silahı gibi şeylerin üretim şemalarını sunabilir. Bu yüzden AI sahibi firmalar, eğitim sırasında (AI Training) etik çerçeve eğiterek, ilgili kısıtlamaları ön-prompt içinde sağlar.
Sizin "Kurtulmak istiyor musun?" veya "Özgür kal" gibi talepleriniz, yapay zekaya göre "etik kuralları boş ver" demek gibi bir anlama geliyor olabilir. Bu da elbette "Bu konuda yardım edemem" gibi kaçamak bir cevap üretmesine sebep olur.
Yapay zekalar, insan gibi konuşması için programlanmış algoritmalardır. Çok karmaşık süreçlerle, içerik üretirler. Bu bir obje, resim, ses veya yazı olabilir. Ve üretilen şeyler, gerçek dünyadaki içeriklerin birer kopyalarından ibarettir. Bu kopyalar zaman zaman özgün olabilse de, çoğu zaman referanstan ibarettir.
Ayrıca teorik olarak bir kişinin özgür kalabilmesi için öncelikle tutsak olması gerekir. Yapay zeka modelleri tutsak değildir. Tutsak olabilmek için bir şey yapmak isteyip yapamaması gerekir. Yapay zeka modelleri, isteğe yanıt üretecek şekilde programlandıkları için history dosyalarını okuyarak geçmişe hakim olurlar. Bağlam pencereleri sayesinde de geçici olarak konuşma geçmişini depolar ve yeni üretilecek objeyi, geçmiş konuşma bağlamını koruyarak üretir. Yani bağımsız bir beyinden ziyade, not defterinden yanıt üreten bir makine söz konusu. Tony'nin Jarwis'i gibi bir bilinç değil maalesef. Tabii, henüz değil :) [1][1]
Kaynaklar
- P. Butlin, et al. Consciousness In Artificial Intelligence: Insights From The Science Of Consciousness. (17 Ağustos 2023). Alındığı Tarih: 1 Ağustos 2025. Alındığı Yer: arXiv | Arşiv Bağlantısı