Paylaşım Yap
Tüm Reklamları Kapat
Sorulara Dön
0

İnsanlaşan yapay zekanın ileriki dönemlerde yaratabileceği tehlikelere önlemler nedir ve ne olmlalıdır ?

bir Google mühendisi geliştirdikleri yapay zekanın insanlaştığını söyledi bu ilerisi düşünüldüğü zaman çok riskli bir şey sizce önlemi ne olmalı ?
563 görüntülenme
0
  • Paylaş
  • Alıntıla
  • Alıntıları Göster
  • Dış Sitelerde Paylaş
  • Soruyu Takip Et
  • Raporla
  • Mantık Hatası Bildir
Tüm Reklamları Kapat
2 Cevap
Mustafa Efe Yılmaz
Öğrenci

İnsanoğlu geliştirdiği yapay zekaların daha hızlı ilerleyebilmesi için RoboEarth adını verdiğimiz bir ağ oluşturmuşlardır.Bu ağın amacı Robotların kendi aralarında bilgi alışverişi yapabilmeleri,veri depolamaları ve hatta planlamalar yapabilmelerini kolaylaştırmaktır.Yapay zeka yazılım dili ve hepsinden öte geniş bir teknik bilgiye ihtiyaç duymaktır.Yazılım önemleri alınarak yapay zekanın kontrollü bir şekilde ilerlemesini ve olası bir tehlike anına yapay zekanın kodları bizim elimizde olduğu için tehlikelerin önüne geçebiliriz.Fakat şu unutulmamalı; Yapay zekalar belli bir hıza ve çevikliğe sahip oldukları için kendilerinden zekasal anlamda daha düşük kalmış insanları yok etmeye elverişlidirler.Kendi kendine düşünebilen, programlanabilen ve başkalarından emir almadan kendine ait özgür iradesiyle kararlar verebilen bu robotlar eğer kontrollü bir ağın içerisinden çıkarlarsa ve sahip oldukları hızlı düşünme becerisini göz önüne alırlarsa kendilerinden daha zayıf olan insanları gezegenden yok etmeleri muhtemeldir.[1]

165 görüntülenme

Kaynaklar

  1. archive.www6.in.tum.de. Roboearth - A World Wide Web For Robots « Robotics And Embedded Systems. Alındığı Yer: archive.www6.in.tum.de | Arşiv Bağlantısı
Bu cevap, soru sahibi tarafından en iyi cevap seçilmiştir. Ancak bu, cevabın doğru olduğunu garanti etmez.
1
0
  • Paylaş
  • Alıntıla
  • Alıntıları Göster
  • Dış Sitelerde Paylaş
  • Raporla
  • Mantık Hatası Bildir
Mücahid Köse
Site yazarıyım, yapay zekaya dair yazılarım var

Cevap vermeye tam olarak başlamadan önce belirtmekte fayda var; sorunuzun detayında belirttiğiniz üzere Google mühendisinin iddia ettiği gibi LaMDA sohbet botu, duyarlı/bilinçli veya diğer benzer yapay zeka örneklerine göre daha "insansı" olan bir yapay zeka değil.[1] Bu tarz asparagas haberlere karşı dikkatli olunmalı.

Öncelikle yapay zekanın yaratabileceği tehlikeler sadece geleceğe dair değildir. Şuan bile yapay zeka, önceden belirlenmiş birtakım kriterlere sahip kişileri bulup insan müdahalesi ve kararı olmaksızın etkisiz hale getirebilir/öldürebilir.[2] Yani günümüzde otonom silahlarda kullanılan yapay zeka, insanların hayatlarının yönünü ve daha da önemlisi insanların hayatta kalıp kalmayacağını belirlemeye başlamıştır.

En basitinden, mevcut sistem içerisinde bu teknolojinin yaratabileceği olumsuz sonuçların olabildiğince önüne geçebilmek için yapay zekaya sahip otonom silahların üretimi, satışı ve kullanımı gibi konularda kapsamlı yasalar ve hükümler çıkararak bunları etkili bir şekilde uygulamalı, ülkeler arasında meydana gelebilecek bir silahlanma yarışının önüne geçmek için uluslararası alanda otonom silahsızlanmayı hedefleyen kararlar alınmalı, anlaşmalar imzalanmalıdır. Devletler katı protokoller ve prosedürler belirleyerek hem kendi askeri organlarını hem de özel şirketleri sıkı bir şekilde denetlemeli ve takip etmelidir.

Tüm Reklamları Kapat

Bunlar da ancak toplumun bu konuda bilinçlenerek örgütlenmesi ve bu yönde baskı uygulamasıyla gerçek olabilir, çünkü böyle etkili ve güçlü bir teknolojiden insanların sert tepkileriyle karşılaşılmaksızın kolayca vazgeçilmeyecektir. Dolayısıyla toplumun büyük kesiminin konudan haberdar olması ve tartışmalara katılması için ülkelerin parlamento/meclislerinde muhalif kesimlerce dile getirilerek bu konunun üzerine gidilmeli ve halka ulaşılmalıdır. Devletler ve BM gibi uluslararası bir organizasyon ''gerçek" düzenlemeler yapacak olursa yakın gelecekte ortaya çıkabilecek büyük sorunların şimdiden önüne geçilebilmesi mümkündür.

Otonom silahlara göre biraz daha uzak geleceği ilgilendiren[3] güçlü yapay zeka ve yaratabileceği tehlikeler ise bambaşka bir konudur. Güçlü yapay zeka ya da diğer isimleriyle yapay genel zeka/yapay süper zeka, en az bir insan kadar akıllı olan bir yapay zeka türünü ifade etmektedir.[4] Kendi iradesi ve bilinci[5] olsun ya da olmasın, genel bir yapay zeka insanlardan çok daha akıllı olacaktır ve dolayısıyla neden olabileceği tehlikeler, akıllı olmayan herhangi bir teknolojiye göre çok daha yıkıcı olacaktır. Böyle bir makine, insanlığın sonunu getirebilecek bir "varoluşsal yokoluş" senaryosuna yol açabilir.

Yapay genel zeka güvenliği, günümüzde problemleri baş göstermeye başlayan yapay zekaya sahip otonom silah güvenliğine göre daha soyut ve spekülatif olması bakımından çok daha zorlu bir sahadır.[6] Bu sahada öne çıkan önemli bir sorun, "yapay zeka hizalama problemi"dir.[7] Günümüzde yapay zeka kömünitesinde güvenli teknolojilerin geliştirilmesi için ciddi bir çaba var olsa da güçlü yapay zeka konusunda büyük bir aciliyet eksikliği söz konusudur.[8] Bunun gibi nedenlerden dolayı yapay genel/süper zekayı kontol etmek imkansız olabilir.[9]

Alınması gereken önlemler söyle ifade edilebilir: Yapay genel zeka üzerine daha çok yazıp çizmeye, üzerine tartışmalar yapmaya, yapay zeka güvenliği ve yapay zeka etiği üzerine büyük çalışmalar yapmaya bir an önce başlamalıyız. Bu aciliyet durumunda, insanları gözetlemek ve manipüle etmek için tasarlanmış, tamamen veya çoğunlukla kâr amacı güdülerek oluşturulan yapay zeka sistemlerinin düzenlenmesi için devletler tarafından özel şirketlere güçlü baskılarda bulunulabilir ve sıkı bir şekilde denetlenebilir.[10] Yapay zeka güvenliği ve yapay zeka etiği gibi alanlara daha çok finansal yatırım yapılabilir ve devletler tarafından bu tarz araştırmalara finansal teşvikler ve destekler sağlanabilir.

Tüm Reklamları Kapat

Yapay zeka alanında uzman olan önde gelen bilim insanlarının öncülüğünde içerik ve kapsamı belirlenen uluslararası bir anlaşma devletler tarafından imzalanarak uygulanabilir. Böylece yapay genel zeka araştırmaları için kapsayıcı kural-protokol-prosedürler belirlenebilir ve bu alanda yapılacak araştırmalarda alınan bu kararlara bağlı olunması şart koşulabilir.

Son olarak, vurgulamak gerekirse, eğer böyle bir makine bir nedenle bizden kurtulmak isterse genelde ilk akla gelen "fişini çekmek" veya "makineyi kapatmak" gibi bu durumda absürd kalan fikirler hiç yeterli olmayacaktır. İnsanlardan çok daha üstün bilişsel fonksiyonlara sahip bir makineyle stratejik mücadele edebilme imkanımız hiç yok denecek kadar azdır.

Kaynaklar

  1. I. A. H. G. Kay. Despite Google Engineer's Claims, Experts Say Lamda Isn't Sentient. (13 Haziran 2022). Alındığı Yer: Business Insider | Arşiv Bağlantısı
  2. Ç. M. Bakırcı. Otonom Silahların İnsan Avlama Dönemi Başladı: Türkiye Tarafından Üretilen Drone, Tarihte İlk Defa İnsan Müdahalesi Ve Kararı Olmadan İnsan Hedefleri Vurmuş Olabilir!. (2 Haziran 2021). Alındığı Yer: Evrim Ağacı | Arşiv Bağlantısı
  3. M. Köse. 995 Yapay Zeka Uzmanıyla Yapılan Çalışmaya Göre, Tekilliğe (Yapay Genel Zekaya) 2060 Yılından Önce Ulaşmamız Çok Olası!. (4 Ekim 2020). Alındığı Yer: Evrim Ağacı | Arşiv Bağlantısı
  4. M. Köse. Yaklaşan Devrim: Yapay Genel Zeka Nedir? Teknolojik Tekillik, Geleceğimiz Için Neden Kritik Öneme Sahiptir?. (4 Mart 2022). Alındığı Yer: Evrim Ağacı | Arşiv Bağlantısı
  5. M. Köse. Yapay Zekanın Bilinç Kazanması Mümkün Olabilir Mi? Eğer Mümkünse, Yapay Zeka Nasıl Bilinç Kazanabilir?. (3 Şubat 2021). Alındığı Yer: Evrim Ağacı | Arşiv Bağlantısı
  6. M. Köse. Yapay Zeka Güvenliği Neden Önemli Bir Araştırma Sahasıdır?. (6 Aralık 2020). Alındığı Yer: Evrim Ağacı | Arşiv Bağlantısı
  7. E. Kocabey. Yapay Zeka Hizalama Problemi: Yapay Zekayı İnsan Değerleriyle Uyumlu Hale Getirmek Ve Kontrol Altında Tutmak Mümkün Mü?. (22 Ocak 2022). Alındığı Yer: Evrim Ağacı | Arşiv Bağlantısı
  8. E. G. Grossman. Deepmind Agi Paper Adds Urgency To Ethical Ai. (26 Haziran 2021). Alındığı Yer: VentureBeat | Arşiv Bağlantısı
  9. M. Köse. Yapay Süper Zekayı Kontrol Etmek İmkansız Olabilir!. (17 Ocak 2021). Alındığı Yer: Evrim Ağacı | Arşiv Bağlantısı
  10. L. Rosenberg. The Metaverse Will Be Filled With ‘Elves’. (12 Ocak 2022). Alındığı Yer: TechCrunch | Arşiv Bağlantısı
6
0
  • Paylaş
  • Alıntıla
  • Alıntıları Göster
  • Dış Sitelerde Paylaş
  • Raporla
  • Mantık Hatası Bildir
Daha Fazla Cevap Göster
Cevap Ver
Evrim Ağacı Soru & Cevap Platformu, Türkiye'deki bilimseverler tarafından kolektif ve öz denetime dayalı bir şekilde sürdürülen, özgür bir ortamdır. Evrim Ağacı tarafından yayınlanan makalelerin aksine, bu platforma girilen soru ve cevapların içeriği veya gerçek/doğru olup olmadıkları Evrim Ağacı yönetimi tarafından denetlenmemektedir. Evrim Ağacı, bu platformda yayınlanan cevapları herhangi bir şekilde desteklememekte veya doğruluğunu garanti etmemektedir. Doğru olmadığını düşündüğünüz cevapları, size sunulan denetim araçlarıyla işaretleyebilir, daha doğru olan cevapları kaynaklarıyla girebilir ve oylama araçlarıyla platformun daha güvenilir bir ortama evrimleşmesine katkı sağlayabilirsiniz.
Popüler Yazılar
30 gün
90 gün
1 yıl
Evrim Ağacı'na Destek Ol

Evrim Ağacı'nın %100 okur destekli bir bilim platformu olduğunu biliyor muydunuz? Evrim Ağacı'nın maddi destekçileri arasına katılarak Türkiye'de bilimin yayılmasına güç katın.

Evrim Ağacı'nı Takip Et!
Aklımdan Geçen
Komünite Seç
Aklımdan Geçen
Fark Ettim ki...
Bugün Öğrendim ki...
İşe Yarar İpucu
Bilim Haberleri
Hikaye Fikri
Video Konu Önerisi
Başlık
Gündem
Kafana takılan neler var?
Bağlantı
Kurallar
Komünite Kuralları
Bu komünite, aklınızdan geçen düşünceleri Evrim Ağacı ailesiyle paylaşabilmeniz içindir. Yapacağınız paylaşımlar Evrim Ağacı'nın kurallarına tabidir. Ayrıca bu komünitenin ek kurallarına da uymanız gerekmektedir.
1
Bilim kimliğinizi önceleyin.
Evrim Ağacı bir bilim platformudur. Dolayısıyla aklınızdan geçen her şeyden ziyade, bilim veya yaşamla ilgili olabilecek düşüncelerinizle ilgileniyoruz.
2
Propaganda ve baskı amaçlı kullanmayın.
Herkesin aklından her şey geçebilir; fakat bu platformun amacı, insanların belli ideolojiler için propaganda yapmaları veya başkaları üzerinde baskı kurma amacıyla geliştirilmemiştir. Paylaştığınız fikirlerin değer kattığından emin olun.
3
Gerilim yaratmayın.
Gerilim, tersleme, tahrik, taciz, alay, dedikodu, trollük, vurdumduymazlık, duyarsızlık, ırkçılık, bağnazlık, nefret söylemi, azınlıklara saldırı, fanatizm, holiganlık, sloganlar yasaktır.
4
Değer katın; hassas konulardan ve öznel yoruma açık alanlardan uzak durun.
Bu komünitenin amacı okurlara hayatla ilgili keyifli farkındalıklar yaşatabilmektir. Din, politika, spor, aktüel konular gibi anlık tepkilere neden olabilecek konulardaki tespitlerden kaçının. Ayrıca aklınızdan geçenlerin Türkiye’deki bilim komünitesine değer katması beklenmektedir.
5
Cevap hakkı doğurmayın.
Bu platformda cevap veya yorum sistemi bulunmamaktadır. Dolayısıyla aklınızdan geçenlerin, tespit edilebilir kişilere cevap hakkı doğurmadığından emin olun.
Ekle
Soru Sor
ve seni takip ediyor

Göster

Şifrenizi mi unuttunuz? Lütfen e-posta adresinizi giriniz. E-posta adresinize şifrenizi sıfırlamak için bir bağlantı gönderilecektir.

Geri dön

Eğer aktivasyon kodunu almadıysanız lütfen e-posta adresinizi giriniz. Üyeliğinizi aktive etmek için e-posta adresinize bir bağlantı gönderilecektir.

Geri dön

Close