Geoffrey Hinton: Yapay Zeka Eğer Önlem Alınmazsa Sonumuz Olabilir!
Nobel Ödüllü Bilim İnsanı, Regüle Edilmemesi Halinde Yapay Zekanın İnsanlık İçin Varoluşsal Risk Doğuracağını Söylüyor!

- Blog Yazısı
Modern yapay zekanın üç "babası"ndan biri olarak da tanınan İngiliz-Kanadalı bilgisayar bilimci Geoffrey Hinton, yapay zekanın önümüzdeki 30 yıl içinde insanlığı yok etme ihtimalinin düşündüğünden daha yüksek olduğunu belirterek, teknolojinin gelişim hızının "beklenenden çok daha hızlı" ilerlediği uyarısında bulunmaktadır.
Bilgisayar biliminin nobeli olarak da görülen prestijli 2018 Turing Ödülü'nün sahibi ve ayrıca 2024 Nobel Fizik Ödülü'ne layık görülen Profesör Geoffrey Hinton, önümüzdeki 30 yıl içerisinde yapay zekanın insanlığın sonunu getirme ihtimalinin %10 ila %20 olarak tahmin ettiğini belirtmektedir.
Daha önce yapay zekanın insanlık için felaketle sonuçlanma olasılığını %10 olarak değerlendiren Hinton, BBC Radyo 4'ün Today programında "Analiziniz değişti mi?" sorusuna, "Pek sayılmaz. Şimdi %10-20 diyorum" yanıtını verdi.
Hinton'ın bu tahminine programın konuk editörü ve aynı zamanda İngiltere eski maliye bakanı Sajid Javid, "Oranı artırıyorsunuz" yorumunda bulundu. Hinton ise buna, "Hatta belki daha fazla. Çünkü şimdiye kadar kendimizden daha zeki bir şeyi kontrol etmek zorunda kalmadık" cevabını verdi. Hinton, şöyle söylüyor:
Daha az zeki bir şeyin, daha zeki bir şeyi kontrol ettiği kaç örnek biliyorsunuz? Çok az. Anne ve bebek ilişkisi var. Evrim, bebeğin anne üzerinde kontrolünün olması için mekanizmalar sağladı, ancak bildiğim tek örnek bu.
Toronto Üniversitesi'nde kıdemli profesör olan Hinton, insanların gelişmiş yapay zeka sistemleri karşısında "daha yeni yürümeye başlayan bir çocuk" gibi kalacağını belirtmektedir. Hinton, şöyle söylüyor:
Şöyle düşünün: Siz ve üç yaşında bir çocuk. Biz o çocuk olacağız.
Dünya Devletleri Büyük Şirketlere Güvenmemeli
Yapay zeka, genel olarak insan zekasını gerektiren görevleri yerine getiren bilgisayar sistemleri olarak tanımlanmaktadır. Hinton, 2023 yılında, kontrolsüz yapay zeka gelişiminin risklerini açıkça konuşmak için teknoloji devi Google'daki işinden istifa etmiş ve "kötü niyetli kişilerin" bu teknolojiyi zarar vermek için kullanabileceği endişesini dile getirmişti. Hinton gibi yapay zeka güvenliği çağrısında bulunan bilim insanlarının temel kaygısı, insanlardan daha zeki sistemler (yapay genel zeka) geliştirilmesi durumunda bu sistemlerin insan kontrolünden kolaylıkla çıkabilecek olmasıdır. Hinton, yapay zekanın şu an bulunduğu seviyeye bu kadar hızlı gelmesini beklemediğini belirtmektedir. Hinton, şöyle söylüyor:
Gelişmelerin bu kadar hızlı gerçekleşeceğini tahmin etmemiştim. Şu anda alandaki uzmanların çoğu, önümüzdeki 20 yıl içinde insanlardan daha zeki yapay zeka geliştireceğimizi düşünmektedir. Bu, oldukça endişe vericidir.
Gelişim hızının "beklenenden çok daha hızlı" olduğunu vurgusunda bulunan Hinton, devletlerin bu alanda önemli regülasyonlar getirmesi gerektiğini ifade etmektedir. Hinton, şöyle söylüyor:
Görünmez bir el bizi korumayacak. Dolayısıyla yapay zeka araştırmalarını öylece büyük şirketlerin kâr motivasyonuna bırakmak, yapay zekayı güvenli bir şekilde geliştirmelerini sağlamayacaktır. Büyük şirketleri güvenlik konusunda daha fazla araştırma yapmaya zorlayabilecek tek şey, devletlerin regülasyonlar getirmesidir.
- 1
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- J. Taylor, et al. ‘Godfather Of Ai’ Geoffrey Hinton Quits Google And Warns Over Dangers Of Misinformation. (2 Mayıs 2023). Alındığı Tarih: 3 Mart 2025. Alındığı Yer: The Guardian | Arşiv Bağlantısı
- S. Shead. The 3 'Godfathers' Of Ai Have Won The Prestigious $1M Turing Prize. Alındığı Tarih: 3 Mart 2025. Alındığı Yer: Forbes | Arşiv Bağlantısı
Evrim Ağacı'na her ay sadece 1 kahve ısmarlayarak destek olmak ister misiniz?
Şu iki siteden birini kullanarak şimdi destek olabilirsiniz:
kreosus.com/evrimagaci | patreon.com/evrimagaci
Çıktı Bilgisi: Bu sayfa, Evrim Ağacı yazdırma aracı kullanılarak 30/04/2025 06:13:41 tarihinde oluşturulmuştur. Evrim Ağacı'ndaki içeriklerin tamamı, birden fazla editör tarafından, durmaksızın elden geçirilmekte, güncellenmekte ve geliştirilmektedir. Dolayısıyla bu çıktının alındığı tarihten sonra yapılan güncellemeleri görmek ve bu içeriğin en güncel halini okumak için lütfen şu adrese gidiniz: https://evrimagaci.org/s/19960
İçerik Kullanım İzinleri: Evrim Ağacı'ndaki yazılı içerikler orijinallerine hiçbir şekilde dokunulmadığı müddetçe izin alınmaksızın paylaşılabilir, kopyalanabilir, yapıştırılabilir, çoğaltılabilir, basılabilir, dağıtılabilir, yayılabilir, alıntılanabilir. Ancak bu içeriklerin hiçbiri izin alınmaksızın değiştirilemez ve değiştirilmiş halleri Evrim Ağacı'na aitmiş gibi sunulamaz. Benzer şekilde, içeriklerin hiçbiri, söz konusu içeriğin açıkça belirtilmiş yazarlarından ve Evrim Ağacı'ndan başkasına aitmiş gibi sunulamaz. Bu sayfa izin alınmaksızın düzenlenemez, Evrim Ağacı logosu, yazar/editör bilgileri ve içeriğin diğer kısımları izin alınmaksızın değiştirilemez veya kaldırılamaz.