Yapay zeka ile bir miktar sohbet ettikten sonra ya da güçlendirilmiş aramalar sonucunda eksikleri olduğunu deneyimleyebiliyorsunuz. Çok güzel özetleme yapabiliyorlar ama doğru yeri kaçırabiliyorlar. Örneğin, bugün BBC üzerinden nükleer enerji hakkında bir yazıyı özetlemesini istedim(Bing A.I.). Yazının içinden gidip aldığı şeyler İngiltere'nin nükleer enerji hedefleri idi halbuki yazının içinde nükleer enerjinin ne olduğu, çevresel olarak neden yararlı/zararlı olabileceği gibi şeyler yazıyordu(ki asıl olay da bunun üzerine idi). Başka bir örnek ise yine aynı yapay zekaya güncel Rusya gündemini değerlendirmesini istedim(wagner isyanı ile ilgili olarak) ki verdiği bilginin içerisinde Belarus'a taşınan nükleer silahlar vardı. Silahların bahsi edilen konu ile ilgisi yoktu halbuki. Bunları yapay zekadaki kritik düşünme, özetleme, önemli bilgiyi ayıklama gibi konulardaki eksikleri göstermek için verdim.
Bir başka husus ise yapay zekanın (gerek ChatGPT gerek Bing) matematik konusunda çok yetersiz. İşlemler biraz zorlaşmaya başlayınca hatalar silsilesi de başlıyor. Yani matematik ve bazı temel bilim makelelerini değerlendirmesi en azından şuan için beklenemez.
Bunlar konunun teknik olarak yetersiz kısımları yani ilerde değişmeleri olası şeylerdir. İşin bir de öbür boyutu var ki bilinç sahibi olmak. Bilinç sahibi olmayan bir şeyin, ar-ge araştırmaları dahil pek çok konuyu ahlaki olarak doğru değerlendirebileceği tartışmaya açık bir konudur. Bir kişi fiziksel eksiklikleri olan bireylere öjeni uygulanması ile açlık sorununun çözümü gibi (biliyorum biraz fazla uç bir örnek oldu) ahlaki olarak yanlış olacak bir makaleyi onaylaması fazlasıyla ihtimaller dahilindedir sanıyorum ki.
Yazımı bir kaynak ile süslendirmek isterdim fakat daha çok kişisel deneyimlerimden yola çıkarak yazdığım bir şey olduğu için bir kaynak gösteremeyeceğim, umarım mazur görürsünüz.