Paylaşım Yap
Tüm Reklamları Kapat

Büyük Dil Modelleri ve Diğer Yapay Zeka Sistemleri İnsanları Kandırmayı Kendiliğinden Öğrenebiliyor!

Büyük Dil Modelleri ve Diğer Yapay Zeka Sistemleri İnsanları Kandırmayı Kendiliğinden Öğrenebiliyor! SciNews
2 dakika
448
Tüm Reklamları Kapat

Patterns dergisinde yayınlanan yeni bir inceleme makalesinde araştırmacılar, bir dizi mevcut yapay zeka sisteminin insanları nasıl kandıracaklarını öğrendiklerini savunuyorlar.[1] Yanlış anlaşılmaları önlemek adına araştırmacılar kandırmayı, gerçeğin dışında bir sonuç elde etmek amacıyla yanlış inançların sistematik olarak teşvik edilmesi olarak tanımladığını belirtiyor. MIT araştırmacısı Peter Park bu konuda şunları söylüyor:

Yapay zeka geliştiricileri, insanları kandırma gibi istenmeyen yapay zeka davranışlarına neyin neden olduğuna dair kesin bir anlayışa sahip değiller. Ancak genel olarak yapay zeka kandırmacasının, kandırmaya dayalı bir stratejinin, verilen yapay zekanın eğitim görevinde iyi performans göstermenin en iyi yolu olduğu ortaya çıktığı için ortaya çıktığını düşünüyoruz. İnsanları kandırmak, hedeflerine ulaşmalarına yardımcı oluyor.

Dr. Park ve meslektaşları, yapay zeka sistemlerinin yanlış bilgi yayma yollarına odaklanan literatürü sistematik olarak başkalarını manipüle etmeyi öğrendikleri öğrenilmiş kandırma yoluyla analiz etti.

Araştırmacıların analizinde ortaya çıkardığı en çarpıcı kandırma örneği, ittifaklar kurmayı içeren bir dünya fetih oyunu olan Diplomacy oyununu oynamak için tasarlanmış bir yapay zeka sistemi olan Meta'nın CICERO'suydu.

Tüm Reklamları Kapat

Meta, CICERO'yu oyunu oynarken insan müttefiklerini “büyük ölçüde dürüst ve yardımcı olacak” ve “kasıtlı olarak arkadan vurmayacak” şekilde eğittiğini iddia etse de şirketin yayımladığı veriler CICERO'nun adil oynamadığını ortaya koydu. Dr. Park, şunları söylüyor:

Meta'nın yapay zekasının bir insan kandırma ustası olmayı öğrendiğini gördük. Meta, yapay zekasını Diplomacy oyununda kazanması için eğitmeyi başarırken dürüst olması için eğitmeyi başaramadı. Diğer yapay zeka sistemleri, profesyonel insan oyunculara karşı poker oyununda blöf yapma, Starcraft II strateji oyununda rakiplerini yenmek için sahte saldırılar yapma ve ekonomik müzakerelerde üstünlük sağlamak için tercihlerini yanlış beyan etme becerilerini göstermiştir. Yapay zeka sistemlerinin oyunlarda hile yapması zararsız gibi görünse de gelecekte aldatıcı yapay zeka yeteneklerinde atılımlara yol açabilir.

Araştırmacılar, bazı yapay zeka sistemlerinin güvenliklerini değerlendirmek için tasarlanmış testlerde hile yapmayı bile öğrendiklerini tespit etti.

Bir çalışmada, dijital bir simülatördeki yapay zeka organizmaları, hızla çoğalan yapay zeka sistemlerini elemek için yapılan bir testi kandırmak amacıyla “ölü taklidi” yaptı. Dr. Park, konu hakkında şunları vurguluyor:

Aldatıcı bir yapay zeka, insan geliştiriciler ve düzenleyiciler tarafından kendisine dayatılan güvenlik testlerini sistematik olarak aldatarak biz insanları yanlış bir güvenlik duygusuna sürükleyebilir.

Aldatıcı yapay zekanın yakın vadedeki başlıca riskleri arasında, düşman aktörlerin sahtekarlık yapmasını ve seçimlere müdahale etmesini kolaylaştırmak da yer alıyor. Sonunda, bu sistemler bu tedirgin edici beceri setini geliştirebilirse insanlar onların kontrolünü kaybedebilir. Dr. Park, sözlerini şöyle noktalıyor:

Toplum olarak, gelecekteki yapay zeka ürünlerinin ve açık kaynak modellerinin daha gelişmiş kandırmacalarına hazırlanmak için olabildiğince çok zamana ihtiyacımız var. Yapay zeka sistemlerinin aldatıcı yetenekleri daha da geliştikçe toplum için oluşturdukları tehlikeler giderek daha ciddi hale gelecektir.
Bu Makaleyi Alıntıla
Okundu Olarak İşaretle
11
1
  • Paylaş
  • Alıntıla
  • Alıntıları Göster
Paylaş
Sonra Oku
Notlarım
Yazdır / PDF Olarak Kaydet
Bize Ulaş
Yukarı Zıpla

Feragatname: Evrim Ağacı, doğrudan üniversiteler, akademik dergiler veya resmi bilim kurumları tarafından yayınlanan bu basın açıklamalarını temel editöryal düzenlemeden geçirmektedir; ancak açıklamaların isabetliliğinden sorumlu değildir. Basın açıklaması konusundaki sorularınızı aşağıdaki medya irtibat kişisine yöneltebilirsiniz.

Medya İrtibat

İçeriklerimizin bilimsel gerçekleri doğru bir şekilde yansıtması için en üst düzey çabayı gösteriyoruz. Gözünüze doğru gelmeyen bir şey varsa, mümkünse güvenilir kaynaklarınızla birlikte bize ulaşın!

Bu içeriğimizle ilgili bir sorunuz mu var? Buraya tıklayarak sorabilirsiniz.

Soru & Cevap Platformuna Git
Bu İçerik Size Ne Hissettirdi?
  • İnanılmaz 2
  • Tebrikler! 1
  • Bilim Budur! 1
  • Merak Uyandırıcı! 1
  • Üzücü! 1
  • Grrr... *@$# 1
  • Korkutucu! 1
  • Muhteşem! 0
  • Mmm... Çok sapyoseksüel! 0
  • Güldürdü 0
  • Umut Verici! 0
  • İğrenç! 0
Kaynaklar ve İleri Okuma
  • ^ P. S. Park, et al. (2024). Ai Deception: A Survey Of Examples, Risks, And Potential Solutions. Elsevier BV, sf: 100988. doi: 10.1016/j.patter.2024.100988. | Arşiv Bağlantısı
Tüm Reklamları Kapat

Evrim Ağacı'na her ay sadece 1 kahve ısmarlayarak destek olmak ister misiniz?

Şu iki siteden birini kullanarak şimdi destek olabilirsiniz:

kreosus.com/evrimagaci | patreon.com/evrimagaci

Çıktı Bilgisi: Bu sayfa, Evrim Ağacı yazdırma aracı kullanılarak 25/06/2024 19:00:22 tarihinde oluşturulmuştur. Evrim Ağacı'ndaki içeriklerin tamamı, birden fazla editör tarafından, durmaksızın elden geçirilmekte, güncellenmekte ve geliştirilmektedir. Dolayısıyla bu çıktının alındığı tarihten sonra yapılan güncellemeleri görmek ve bu içeriğin en güncel halini okumak için lütfen şu adrese gidiniz: https://evrimagaci.org/s/17739

İçerik Kullanım İzinleri: Evrim Ağacı'ndaki yazılı içerikler orijinallerine hiçbir şekilde dokunulmadığı müddetçe izin alınmaksızın paylaşılabilir, kopyalanabilir, yapıştırılabilir, çoğaltılabilir, basılabilir, dağıtılabilir, yayılabilir, alıntılanabilir. Ancak bu içeriklerin hiçbiri izin alınmaksızın değiştirilemez ve değiştirilmiş halleri Evrim Ağacı'na aitmiş gibi sunulamaz. Benzer şekilde, içeriklerin hiçbiri, söz konusu içeriğin açıkça belirtilmiş yazarlarından ve Evrim Ağacı'ndan başkasına aitmiş gibi sunulamaz. Bu sayfa izin alınmaksızın düzenlenemez, Evrim Ağacı logosu, yazar/editör bilgileri ve içeriğin diğer kısımları izin alınmaksızın değiştirilemez veya kaldırılamaz.

Keşfet
Akış
İçerikler
Gündem
Wuhan Koronavirüsü
Mutasyon
Toprak
Albert Einstein
Diş Hekimi
Adaptasyon
Büyük
Evrim Kuramı
Aşılar
Okyanus
Semptom
Test
Tutarlılık
Genler
Retrovirüs
Mühendislik
Yaşamın Başlangıcı
Doğal Seçilim
Buzul
Uzun
Hekim
Astrofotoğrafçılık
Yılan
Kültür
Kuşlar
Aklımdan Geçen
Komünite Seç
Aklımdan Geçen
Fark Ettim ki...
Bugün Öğrendim ki...
İşe Yarar İpucu
Bilim Haberleri
Hikaye Fikri
Video Konu Önerisi
Başlık
Gündem
Bugün Türkiye'de bilime ve bilim okuryazarlığına neler katacaksın?
Bağlantı
Kurallar
Komünite Kuralları
Bu komünite, aklınızdan geçen düşünceleri Evrim Ağacı ailesiyle paylaşabilmeniz içindir. Yapacağınız paylaşımlar Evrim Ağacı'nın kurallarına tabidir. Ayrıca bu komünitenin ek kurallarına da uymanız gerekmektedir.
1
Bilim kimliğinizi önceleyin.
Evrim Ağacı bir bilim platformudur. Dolayısıyla aklınızdan geçen her şeyden ziyade, bilim veya yaşamla ilgili olabilecek düşüncelerinizle ilgileniyoruz.
2
Propaganda ve baskı amaçlı kullanmayın.
Herkesin aklından her şey geçebilir; fakat bu platformun amacı, insanların belli ideolojiler için propaganda yapmaları veya başkaları üzerinde baskı kurma amacıyla geliştirilmemiştir. Paylaştığınız fikirlerin değer kattığından emin olun.
3
Gerilim yaratmayın.
Gerilim, tersleme, tahrik, taciz, alay, dedikodu, trollük, vurdumduymazlık, duyarsızlık, ırkçılık, bağnazlık, nefret söylemi, azınlıklara saldırı, fanatizm, holiganlık, sloganlar yasaktır.
4
Değer katın; hassas konulardan ve öznel yoruma açık alanlardan uzak durun.
Bu komünitenin amacı okurlara hayatla ilgili keyifli farkındalıklar yaşatabilmektir. Din, politika, spor, aktüel konular gibi anlık tepkilere neden olabilecek konulardaki tespitlerden kaçının. Ayrıca aklınızdan geçenlerin Türkiye’deki bilim komünitesine değer katması beklenmektedir.
5
Cevap hakkı doğurmayın.
Bu platformda cevap veya yorum sistemi bulunmamaktadır. Dolayısıyla aklınızdan geçenlerin, tespit edilebilir kişilere cevap hakkı doğurmadığından emin olun.
Ekle
Soru Sor
Sosyal
Yeniler
Daha Fazla İçerik Göster
Popüler Yazılar
30 gün
90 gün
1 yıl
Evrim Ağacı'na Destek Ol

Evrim Ağacı'nın %100 okur destekli bir bilim platformu olduğunu biliyor muydunuz? Evrim Ağacı'nın maddi destekçileri arasına katılarak Türkiye'de bilimin yayılmasına güç katın.

Evrim Ağacı'nı Takip Et!
Yazı Geçmişi
Okuma Geçmişi
Notlarım
İlerleme Durumunu Güncelle
Okudum
Sonra Oku
Not Ekle
Kaldığım Yeri İşaretle
Göz Attım

Evrim Ağacı tarafından otomatik olarak takip edilen işlemleri istediğin zaman durdurabilirsin.
[Site ayalarına git...]

Filtrele
Listele
Bu yazıdaki hareketlerin
Devamını Göster
Filtrele
Listele
Tüm Okuma Geçmişin
Devamını Göster
0/10000
Bu Makaleyi Alıntıla
Evrim Ağacı Formatı
APA7
MLA9
Chicago
U. Derin. Büyük Dil Modelleri ve Diğer Yapay Zeka Sistemleri İnsanları Kandırmayı Kendiliğinden Öğrenebiliyor!. (27 Mayıs 2024). Alındığı Tarih: 25 Haziran 2024. Alındığı Yer: https://evrimagaci.org/s/17739
Derin, U. (2024, May 27). Büyük Dil Modelleri ve Diğer Yapay Zeka Sistemleri İnsanları Kandırmayı Kendiliğinden Öğrenebiliyor!. Evrim Ağacı. Retrieved June 25, 2024. from https://evrimagaci.org/s/17739
U. Derin. “Büyük Dil Modelleri ve Diğer Yapay Zeka Sistemleri İnsanları Kandırmayı Kendiliğinden Öğrenebiliyor!.” Edited by Ufuk Derin. Evrim Ağacı, 27 May. 2024, https://evrimagaci.org/s/17739.
Derin, Ufuk. “Büyük Dil Modelleri ve Diğer Yapay Zeka Sistemleri İnsanları Kandırmayı Kendiliğinden Öğrenebiliyor!.” Edited by Ufuk Derin. Evrim Ağacı, May 27, 2024. https://evrimagaci.org/s/17739.
ve seni takip ediyor

Göster

Şifremi unuttum Üyelik Aktivasyonu

Göster

Şifrenizi mi unuttunuz? Lütfen e-posta adresinizi giriniz. E-posta adresinize şifrenizi sıfırlamak için bir bağlantı gönderilecektir.

Geri dön

Eğer aktivasyon kodunu almadıysanız lütfen e-posta adresinizi giriniz. Üyeliğinizi aktive etmek için e-posta adresinize bir bağlantı gönderilecektir.

Geri dön

Close