Paylaşım Yap
Tüm Reklamları Kapat
Tüm Reklamları Kapat

Yapay Zeka Hizalama Problemi: Yapay Zekayı İnsan Değerleriyle Uyumlu Hale Getirmek ve Kontrol Altında Tutmak Mümkün mü?

Yapay Zeka Hizalama Problemi: Yapay Zekayı İnsan Değerleriyle Uyumlu Hale Getirmek ve Kontrol Altında Tutmak Mümkün mü? Free Code Camp
17 dakika
1,593
  • Etik (Ahlak Felsefesi)
  • Yapay Zeka
Evrim Ağacı Akademi: Yapay Zeka Güvenliği Yazı Dizisi

Bu yazı, Yapay Zeka Güvenliği yazı dizisinin 3. yazısıdır. Bu yazı dizisini okumaya, serinin 1. yazısı olan "Yapay Zeka Güvenliği Neden Önemli Bir Araştırma Sahasıdır?" başlıklı makalemizden başlamanızı öneririz.

Yazı dizisi içindeki ilerleyişinizi kaydetmek için veya kayıt olun.

EA Akademi Hakkında Bilgi Al

Yapay zeka araştırmaları ve yapay zeka felsefesinde yapay zeka hizalama problemi veya yapay zeka kontrol problemi olarak bilinen problem, yaratıcıları olan insanlara zarar vermekten ziyade onlara yardım edecek yapay zeka sistemlerinin nasıl inşa edilebileceğini inceleyen bir araştırma programıdır. Bir diğer deyişle bu yapay zeka hizalama problemi, insanların çıkarlarıyla yapay zekanın çıkarlarının programatik olarak nasıl hizalanacağı ile ilgilidir.[1]

Bu araştırmalar, şu temel gerçeğe dayanır: Yapay olarak bile olsa zeki olan bir sistem, insanların onu yaratma amaçlarının dışına çıkabilir. Bu, illâ Hollywood filmlerinde gösterildiği gibi kötücülleşen bir yapay zeka sistemi şeklinde olmak zorunda değildir. Basitçe, insanların iyi niyetle belirledikleri ve yapay zeka tarafından gerçekleştirilebilecek bir amacın, bu amaca ulaşma yolunda yapay zekanın başka insanlara zarar vermesi şeklinde de tezahür edebilir.

Tüm Reklamları Kapat

Buna bir örnek, yapay zekaya verilebilecek "olabildiğince verimli şekilde ataç üretme" işidir. Bu, hiçbir kötücül tarafı olmayan, sıradan bir endüstriyel yapay zeka problemidir. Ancak yapay zekaya verilen bu görev, eğer yeterince iyi tanımlanmazsa, yeterince güçlü ama içgörüsüz bir yapay zeka, sırf daha verimli bir şekilde ataç üretmek için ekosistemleri harap etmeyi göze alabilir, gerekirse bazı insanları köle etmeyi ve hatta öldürmeyi seçebilir.[2]

Burada içgüdüsel olarak geliştirilen bir çözüm önerisi, yapay zekanın programına basit kısıtlar eklemektir: "İnsanlara zarar verme" gibi... Ancak işin felsefesi üzerine biraz kafa yorulduğunda, bu tür kısıtların veya tanımların ne kadar zorlu ve muğlak olduğu görülür. Örneğin "İnsanlara zarar verme" komutu, bilgisayara nasıl tanımlanacaktır?

Tüm Reklamları Kapat

Bunu tanımlayabilmek için, "insan" kavramını yapay zekaya öğretmek gerekecektir; ancak yapay zeka, yoktan bilgi edinebilen bir sistem değildir. Yapay zekanın öğrendiği bilgileri insanlar üretmektedir ve insanın ne olduğu konusu günümüzde hâlen tartışılmakta olan bir konudur. Elbette genel bir insan tanımı yapılabilir; fakat özellikle de durumlarda problemler baş gösterecektir: Örneğin fetüs, insan mıdır? Bilinci kapanmış bir hasta, insan mıdır? Yapay zeka, ataç üretme işinin en verimli şekilde maksimize edecekse, bu kişilere zarar verebilir mi? Benzer şekilde, "zarar verme" tabiri de oldukça muğlaktır. Örneğin atılan adımlar, bir kişinin potansiyel faydalarını da engelliyorsa "zarar" sayılır mı? Eğer bu kadar katı bir korkaklıkta olacaksa, yapay zekanın insandan daha başarılı çözümler bulması mümkün müdür? "Zarar verme"nin sınırları, bilgisayara nasıl tanımlanır? İnsanlar gündelik işlerinde başkalarına hiçbir şekilde zarar vermeden mi işlemektedirler? Eğer öyle değilse, yapay zekadan bunu yapmasını beklemek gerçekçi midir?

Dolayısıyla yapay zekanın yapabilecekleri ile yapmasını istediklerimiz birbiriyle her zaman birebir aynı şey değildir. Bu durumda bir hizalama sorunu oluşmaktadır: Yapay zekanın belli sınırların dışına çıkmadan, onu üreten insanlara (ve genel olarak insanlığa) zarar vermeden kendisine verilen görevleri yapabilmesi gerekmektedir. Bu hizalama problemi, bir "ataç üretimini optimize etme" yapay zekası için çok büyük bir soruna işaret etmeyebilir; ancak nükleer füzeleri yönlendirecek sistemlerin arkasındaki yapay zeka veya bankacılık sistemlerinin temelinde yer alan yapay zekalar için düşünüldüğünde ne kadar büyük bir problem olduğu fark edilebilir.

İşte Hollywood filmlerinde kontrolden çıkan yapay zekalar da genellikle bu temel hizalanma problemiden ötürü "kötü yola" sapmaktadır. Bir kez hayata getirilen süpergüçlü bir yapay zeka, her ne kadar kodları tamamen insan yapımı olsa bile, bu kodların mümkün kıldığı olasılıklardan ötürü yaratıcılarına sırt çevirip, onlar üzerinde hâkimiyet kurabilirler.[3] Bunun olmasını engellemek için araştırmalar yürüten sahaya yapay zeka güvenliği mühendisliği denmektedir ve bu alandaki çalışmalar, sadece gelecekteki süperzeki yapay zekaların gayetlerinin insanlarınkiyle hizalanması için değil, aynı zamanda günümüzde her alanda faaliyet gösteren süperzeki-olmayan yapay zekaların da daha verimli ve düzgün çalışabilmesi için önemlidir.[4], [5]

Evrim Ağacı'ndan Mesaj

Yapay Zeka Kontrol Edilebilir mi?

Günümüzde var olan yapay zeka sistemleri, kontrol dışı davranışlar sergilemeleri hâlinde kolaylıkla ve hızla kapatılabilir. Ayrıca şu anda var olan yapay zeka sistemlerinin yapacağı hataların maliyeti, gelecekteki süperzeki yapay zekaların verebileceği zarara nazaran oldukça düşüktür. Bu nedenle Dataizm yazımızda da anlattığımız gibi, günümüzdeki algoritmalar kusursuz olmasa bile, ortalamada bir insandan daha iyi olmaları şimdilik yeterlidir.

Ancak kötü veya yanlış programlanmış bir süperzeka, tanımı gereği kendisini kodlayan insanlardan daha zeki olacağı için, yaratıcılarının kendisini kapatma kararını da öngörecek ve kendisine tanımlanmış görevleri yerine getirebilmek adına, gerektiğinde kapatılmasına da engel olacak adımlar atacaktır. Bu nedenle süperzeki yapay zeka geliştiricilerinin, bu tür durumların önüne geçmek için önceden önlemler alması gerekmektedir; aksi takdirde hatalı davranan bir süperzekayı durdurmak mümkün olmayabilir.

Ne var ki bu alanda çalışmalar yürütenlerin vardığı genel sonuç şudur: Kötücül bir süperzeka yaratıldıktan sonra onu kapatma çabalarının başarılı olma ihtimali yok denecek kadar azdır; çünkü bu tür bir yapay zeka, kendi varlığını korumak adına her türlü stratejik planlamayı yapacak ve kendinden daha zayıf zekaya sahip yaratıcılarını alt etmesi pek de zor olmayacaktır. En nihayetinde bir süperzeka, sadece "zeki" olan insanlardan çok daha verimli ve hızlı bir şekilde kararlar alabilecek ve insanların yapmayı atmayı düşüneceği hemen her adımı öngörebilecektir.

Ayrıca bir süperzeki yapay zekanın düzeltilmek üzere kapatılmasının istenmesinin tek nedeni küresel bir yıkım yaratması olmak zorunda da değildir. Günlük hayatımızda karşılaştığımız ahlaki anlaşmazlıkları düşünecek olursak, yapay zeka sistemlerinde kime ait değer ve amaçların kullanılması gerektiği önemli bir soru olarak ortaya çıkmaktadır. Örneğin bir toplumda kadınlara daha az değer veriliyorsa, o toplumdan çıkacak süper yapay zekaların (veya o toplum içinde çalışacak süper yapay zekaların) kadınları kötüye kullanması kabul edilebilir midir? Yapay zekanın alacağı kararları yönlendirecek olan ahlâki pusular, batılı toplumların değerleriyle mi örtüşecektir, doğulu toplumlarınkiyle mi? Bunların örtüştüğü durumlarda mesele yok; ama çakıştığı durumlarda hangisi öncelikli olacak? Evrensel ahlâki değerlerin olmadığı bir ortamda, evrensel olarak kullanılabilecek süperzeki yapay zeka sistemlerinden söz edilebilir mi?

İşte bu tür sorulara daha genel cevaplar verebileceğimiz noktaya gelene kadar, sorulması gereken soru şudur: Yazılımcılar ne tür önlemler alarak, süperzekanın yıkıcı ve kötücül davranışlar geliştirmesini önleyebilirler?

Tüm Reklamları Kapat

Yapay Zeka ve Değer Hizalama Problemi

Yapay zeka sistemleri insana fayda sağlayacak işlevleri yerine getiriyor olsa da, doğru davranışsal eğilimlere sahip olduğundan ve daha önemlisi gelecekte de olacağından emin olabilmek kolay değildir. En başında bir yapay zeka sistemi hedeflenen amaca yönelik çalışıyor bile olsa, bu sistemlerin gelişmeye ve öğrenmeye açık olduğu düşünülecek olursa, bu amaçların sabit kalacağını söylemek zordur. Bu da, yapay zekanın insani değerler ile ne kadar uyumlu hareket edebileceği konusunda geleceğe dönük oldukça büyük bir sorunu ortaya çıkarmaktadır.

İngiliz bilgisayar bilimci Stuart Jonathan Russell, bu duruma değer hizalama problemi adını vermiştir. Basit olarak değer hizalama; oldukça otonom olan yapay zeka sistemlerinin, operasyonları boyunca amaç ve davranışları bakımından insani değerlerle uyumlu olacak şekilde tasarlanmasını ifade eder. Ayrıca yalnızca insanlar için faydalı olan faaliyetlerin sürdürülmesine izin veren bir akıllı ajan özelliği olarak tanımlanır.

Sapkın Enstantane: Yanlışlıkla Bir Canavar Yaratmak...

Otonom ve süperzeki yapay zeka sistemlerinin kontrolden çıkması için illâ kötücül bir şekilde programlanmaları şart değildir; hiç kimse farkında olmadan tamamen hatalı görevler de verebiliriz ve bir felakete neden olabiliriz.[6] Örneğin daha önceden Amerikan Yapay Zekanın İlerleyişi Derneği başkanlığını yapmış iki önemli isim (Tom Dietterich ve Eric Horvitz), bu konudaki endişeyi şöyle anlatıyorlar:

İnsanlarla etkileşim hâlindeki herhangi bir yapay zeka sisteminin önemli parçalarından biri, motamot ve literal bir şekilde emirlerini yerine getirmektense, insanların yapmak istedikleri şeyi mantıklama yoluyla çözebilmektir.

Daha basit sistemlerde bu kritik bir risk yaratmayabilir; ancak buna rağmen, daha şimdiden yapay zeka sistemleri insanları öldürmeye veya onlara zarar vermeye başlamıştır. Örneğin 2015 yılında Almanya'da bir işçi, Volkswagen fabrikasındaki bir robot tarafından ezilerek öldürülmüştür. Robot, işçiyi bir araç parçası zannetmiştir; ancak yapılan incelemede, hatanın sebebinin insan kaynaklı olabileceği de görülmüştür.[7] 2016 yılında Microsoft tarafından hayata getirilen Tay isimli bir sohbet robotu, kısa sürede ırkçı ve seksist bir dil kullanmaya başlamıştır.

Tüm Reklamları Kapat

Ancak yapay zeka yazılımları gelişip, otonomluk ve esneklik kazandıkça bu sorun eksponansiyel olarak büyüyecektir.[8] Bu sorunların başında, sapkın enstantane problemi (İng: "the problem of perverse instantiation")gelmektedir: Bir yapay zeka daha zeki ve daha becerikli hâle geldikçe, kendisinden yapılması istenen işi en üst seviyede tatmin etmek için giderek daha istenmedik kısayollar keşfedebilecektir. Buna iki örnek verelim:

  • "Gelecekte elde etmesi beklenen başarısını maksimize etmesi" istenen bir süperzeki yapay zeka, maksimum güce ulaşmak için davranışları kolay kolay öngörülemeyen insanları yok ederek Dünya'nın yüzeyini bir kale ile kaplayarak, en düşük olasılıklı uzaylı saldırılarına karşı bile hazırlıklı bir şekilde kendini savunabilir. Buna enstrümantel yakınsama (İng: "instrumental convergence") denir.
  • "İnsan mutluluğunu maksimize etmesi" istenen bir süperzeki yapay zeka, insanların beyinlerindeki keyif alma bölgelerine elektrotlar yerleştirerek veya insan bilinçlerini makinalara yükleyerek, Evren'i sanal insan kopyalarıyla doldurabilirler ve her birini 3-5 saniyelik döngülerle mutluluğun zirvesine çıkarabilirler.

Bu örnekler ilk etapta kulağa ekstrem gelse de, sorunu matematiksel olarak göstermek mümkündür:[6]

nn adet değişkenden oluşan bir fonksiyonu optimize etmeye çalışan bir sistemde görev, k<nk<n şeklindeki bir alt kümeye bağlıysa, sistem genellikle sınırlı olmayan değişkenlere ekstrem değerler atayacaktır. Eğer o sınırsız değişkenlerden biri bizim değer verdiğimiz bir şeyse, elde edilen sonuç fazlasıyla istenmedik olabilir. Bu; lambadaki cin, büyücünün çırağı veya Kral Midas öyküsünde gördüğümüz olaydır: Tam olarak söylediğiniz şeyi alırsınız, gerçekte istediğinizi değil. Bu, ufak bir problem değildir.

Anlayacağınız Russell, yapay zeka sistemlerinin değer hizalaması problemini Kral Midas hikayesine benzetmektedir: Şarap tanrısı Dionisos, kralın bir dileğini gerçekleştireceğini söylediğinde, Kral Midas, dokunduğu her şeyin altına dönüşmesini istemiştir. Dileği gerçek olduğunda yemek için dokunduğu yiyecek ve içecekler, hatta kendisine ait ünlü gül bahçesi bile altına dönüşmüştür. Ardından bu korkunç gücün kendisinden alınmasını istemiştir. Aslında Midas bu dileği ile yalnızca zengin olmayı düşünmüştü, ama işler hiç de beklediği gibi olmamıştı.

İşte bizler ve yapay zeka arasındaki durum da buna benzetilebilir. Yapay zeka sistemleri, tasarımcısının isteklerini yerine getirirken insana ve ona ait süreçlere zarar vermeden gerçekleştirecek şekilde yapılandırılmalıdır. Şu anda halihazırda kullandığımız yapay zeka sistemleri çoğunlukla istenilen noktaya ulaşmak konusunda başarılıdır. Fakat bunu yaparken bir insanın sahip olduğu gibi ahlaki değerlere sahip değildir. İşte tam bu noktada yapay zekanın neden insani değerlerle uyumlu olması gerektiği ortaya çıkmaktaıdr. Russell’ın UC Berkeley’deki meslektaşı Anca Dragan şöyle diyor:

Tüm Reklamları Kapat

Agora Bilim Pazarı
Kısa

MUCİZELERİ SAYMAK’IN YAZARINDAN
NEWYORK TIMES BESTSELLER

JULIA BOYUNUN KISA OLMASINDAN FAZLASIYLA DERTLİYDİ.
AMA OZ BÜYÜCÜSÜ HER ŞEYİ DEĞİŞTİRECEKTİ.

Annesinin ısrarını hiç anlamamıştı Julia. Dansta iyi değildi ve dürüst olmak gerekirse sesi de… Neyse! Oz Büyücüsü’nün seçmelerine katılmak ona ne katabilirdi ki? Ancak Julia’nın kafasındaki sorular yerini hızla tiyatronun büyüsüne bırakır. Başta kendi cüce ama özgüveni dev rol arkadaşı Olive ve sanatçı ruhlu eşsiz Bayan Chang olmak üzere, gösteri sayesinde tanıdığı tüm insanlar, hissettiği duygular, yaşadığı deneyimler sadece tiyatro değil kendisi hakkındaki düşüncelerini de değiştirir. Julia’nın boyu hâlâ aynı olsa da artık çok daha “uzun boylu” hayalleri vardır.

New York Times çoksatanlar listesine giren, pek çok dile çevrilen ve ülkemizde de büyük beğeni toplayan Mucizeleri Saymak’ın yazarı Holly Goldberg Sloan’dan muzip, duygusal, şaşırtıcı ve karşı konulamaz bir dönüşüm öyküsü.

“Sloan sempatik ve büyüleyici genç karakterler yaratmakta gerçek bir usta. Mucizeleri Saymak’ı yıldız yapan her şey bu kitapta da var.”
Entertainment Weekly

Devamını Göster
₺76.00
Kısa

Robotlar insanlığa karşı isyan etmeye çalışmayacak. Sadece onlardan yapmalarını istediğimiz şeyi optimize etmeye çalışacaklar. Tam da bu sebepten bu sistemlere ‘gerçekten’ istediğimiz dünya için optimizasyon yapmalarını söylediğimizden emin olmalıyız.

Eğer optimize etmelerini istediğimiz şeyin optimizasyonu, öngöremeyeceğimiz bir şekilde felakete sebep olacaksa, yapay zeka bir kez optimizasyon sürecine başladığında onu durduramayabiliriz. Bu nedenle yapay zekanın, bizim isteklerimizi tam olarak anlayabilmesi ve sahip olduğumuz değerlere uyumlu hale getirilmesi oldukça önemlidir.

Ne var ki günümüzdeki yapay zeka sistemlerinin pek azı güvenlik ilkeleri gözetilerek tasarlanmaktadır. 2017 yılında DeepMind tarafından yayınlanan AI Safety Gridworlds, yapay zeka algoritmalarını 9 kategori çerçevesinde güvenlik açısından sınamaktadır. DeepMind tarafından yapılan incelemede, var olan algoritmaların neredeyse tamamının bu testte başarısız oldukları gösterilmiştir; çünkü bu yazılımların büyük bir kısmında güvenlik ilkeleri gözetilmemektedir. Elbette, bu algoritmaların aynı zamanda neredeyse hiçbiri kontrolden çıkabilecek yazılımlar değillerdir; dolayısıyla insanları köleleştirmeleri beklenmemektedir. Bu tür yapay zeka yönergelerine uyabilecek algoritmalar, muhtemelen gelecekte yazılacak ve bugünkü algoritmaların baştan yaratılmasıyla elde edilen yazılımlar olacaklardır. O gün geldiğinde, bu güvenlik yönergelerinin o algoritmaların kalbinde yer aldığından emin olmamız gerekmektedir.

Hizalama İlkeleri

Yapay zeka sistemlerinin, kendilerine verilen talimatları Kral Midas hikayesinde olduğu gibi son derece literal bir şekilde, harfi harfine takip etmesini istemediğimiz konusunda yapay zeka araştırmacıları arasında kısmen bir fikir birliği bulunmaktadır. Yine de sorunlar bundan ibaret değildir.

Örneğin herhangi bir yapay zekadan, yapmayı düşündüğümüz şeyi mi yapmasını isteriz yoksa bizim için en iyi olanı yapmasını mı? Beklentilerimizin açıkça anlaşılamadığı bir yapay zeka sayesinde istediğimiz şeye temelde ulaşmış ama daha kötü durumlar içine girmiş olabiliriz. Elbette bunun tersi durumlar da olabilir: Gerçekten yapmayı düşündüğümüz şeyi gerçekleştiren bir yapay zeka, insan değerleriyle uyumlu halde çalışarak ve bu değerleri önceliklendirerek hareket ettiğinde, bireysel beklentilerimiz konusunda oldukça yetersiz kalabilir. Ya da daha beklenmedik durumlar oluştuğunda, yapay zekaların çok hızlı çalıştığını düşündüğümüzde, yine bu durumlarda etik davranmak konusunda başarısız olabilir. Bu yüzden yalnızca yapay zekanın insani değerlerle uyumlu hale getirilmesi yetersiz de olabilir. Aynı zamanda öngörülemeyen durumlar için, anlık olarak bir insan tarafından talimat verilmediğinde de doğru kararlar alabilmesi gerekir.

Konuyu biraz daha basite indirgemek için şu örneği verelim: MIT Moral Machine testi, sizi bir aracın sürücüsü yerine koyarak ne gibi kararlar vereceğinizi görmek için çeşitli kaza senaryoları oluşturuyor. Basit bir ahlak testi gibi gözükse de günümüzde de popüler hale gelen akıllı arabalar düşünüldüğünde gelecekte bu kararların bizler yerine araçlar tarafından verileceği de öngörülebilir bir gerçektir. Buna benzer oldukça önemli kararlar vermek insanlar için bile oldukça zor olsa da bunun gibi testler yapay zekanın insani değerlerle uyumlu hale getirilmesinde kullanılabilecek önemli veriler oluşturabilir.

MIT Moral Machine
MIT Moral Machine
Live İnnovation

Ahlak testi örneğinden de anlaşılacağı gibi insanlar birbirinden farklı birçok ahlaki tercihte bulunabilir.[9], [1] Böyle olmasaydı bile, yani yalnızca tek bir ahlak teorisinin doğru olduğuna büyük bir güven duymuş olsaydık, bu sefer de bu gerçeği başka bir tutum sergileyen insanlara iletmenin zorluğu ile karşı karşıya kalacaktık. Filozof John Rawls’ın ifade ettiği gibi, insanlar değer konusunda çok çeşitli makul, fakat zıt inançlara sahiptir. Bu açıdan yapay zeka sistemlerinin tek bir ahlak teorisine uyumlu hale getirilmesi durumunda da bu düşünceden uzak birçok insana bu değerlerin dayatıldığı bir durum söz konusu olabilir. Elbette bu düşünce ve sorular, insanların özgür ve eşit olduğu inancından dolayı ortaya çıkmaktadır. Ahlakın temel doğası hakkında herhangi bir anlaşmaya varılamasa da belirli bir konu hakkında ortak uygun değerler üzerinde bir anlaşma sağlanabilmelidir. Uzlaşılmış bu fikirler yapay zeka üzerinde uygulanmak için farklı şekillerde belirlenebilir.

Cehalet Örtüsü ve Varsayımsal Anlaşma

Bu düşünce, çoğulcu değer uyumuna yönelik bir yaklaşımdır. Halihazırda üzerinde anlaşmaya varılan değerlerle değil, kimsenin görüşlerini bir başkasına empoze edemeyeceği bir konumdayken uzlaşmaya varılan değerlerle ilgilenir.

Cehalet örtüsü (İng: "veil of ignorance"), John Rawls tarafından ortaya atılmış bir kavramdır. Bu görüşe göre; farklı değer ve bakış açılarına sahip bir grup insan, bireylere verilecek haklar hakkında karar verecektir. Bu ilkeleri belirlerken sahip oldukları kimliklerden arınacak ve ilkelerin belirlenmesinden sonra hangi toplumda kim olacaklarını, hangi ahlaki tutuma sahip olacaklarını bilmeyeceklerdir. Sonuçta bu bilgilere sahip olmayan karar vericiler eşit ve adil kararlar vermek durumunda kalacaktır. Söz konusu kavrama benzer bir yaklaşım yapay zeka ilkelerinin belirlenmesinde de kullanılabilir.

Bu yaklaşım ile karar vericiler muhtemelen başlangıç olarak yapay zekanın, kaza ve yanlış kullanım gibi riskli durumları azaltacak şekilde tasarlanması gerektiğinde fikir birliği sağlayacaktır. Ayrıca kimsenin fayda sağlayamadığı eylem ve faaliyetlerin de çıkarılmasını isteyeceklerdir.

Küresel Kamu Ahlakı ve İnsan Hakları

Birbirinden farklı toplumların farklı kamusal adalet anlayışlarına sahip olduğu düşünüldüğünde, küresel ilkelerin benimsenmediği bir durumda farklı problemler ortaya çıkabilir. Örneğin belirli bir bölgeyi yöneten kişinin yapay zekayı nasıl kullanacağı konusunda kişisel bir hak elde etmesi birçok soruna yol açabilir. Baskıcı ve zararlı uygulamalar toplumun çoğunluğu tarafından destekleniyor olsa bile teknolojiler üzerinde belirli kısıtlamalar oluşturmak gerekebilir.

Tüm Reklamları Kapat

Toplumlar birbirinden farklı kültüre, inanca veya felsefeye sahip olsalar bile insanların hangi toplumda yaşadıkları fark etmeksizin hemfikir olduğu bazı düşünceler vardır. Bazı insan hakları farklı gruplar tarafından farklı nedenlerle benimsenebilir. Örneğin evrensel insan hakları bazı toplumlarda insan yaşamının kutsallığına inanıldığı için benimsenirken bazılarında bireyle devlet arasındaki sözleşmenin bir ürünü olarak düşünüldüğü için benimsenmiştir.

Bu nedenle insan hakları ile ilgili küresel olarak benimsenen ilkeler belirlenerek yapay zekanın insan haklarıyla uyumlu hale getirilmesi amaçlanabilir. Bu yaklaşımda karşılaşılan zorluk, elbette öncelikle bu hakların birey ve devletler arasındaki ilişkilerde uygulanması gerektiği olacaktır. Tüm bu fikirler ele alındığında yapay zeka hizalamasında bir fikir birliğinden bahsetmek erken olsa da bu tarz ilkeler üretme çabalarının kültürler arasında kapsayıcı olması ve rehberlik taşıması oldukça önemli olacaktır.

Değer Hizalamanın Önemi

Yapay zekanın dünya hakkında bilgi edinmek için büyük veriden faydalandığını ve bu zamana kadar ürettiğimiz veriler ile sonuca vardığını hatırlayalım. Ancak şimdiye kadarki tarihsel veriler, içinde yaşadığımız zamanı veya yapay zeka çalışmalarının uygulanacağı geleceği elbette temsil etmeyebilir, hatta etik olmayan sonuçlara sebep olabilir. Örneğin, bir işe alım modeli kadınlara veya azınlıklara karşı haksızlık oluşturacak bir sonuç ortaya çıkarabilir. Elbette yapay zeka insanlar arasında ayrımcılık yapmaz. Ancak geniş bir zamanda işe alınanların çoğunluğunun beyaz erkekler olduğunu bugüne kadar üretilmiş verilerden öğrenir ve bu modeli sürdürür. Bu örnek genişletildiğinde herhangi azınlık bir grup aslında belirli bir uygulama için tercih edilmesi gereken en uygun grup olsa bile adaletsiz bir sonuç ortaya çıkabilir.

Farklı bir örnek verecek olursak, Google Clips adındaki yeni bir teknoloji insanların hayatındaki önemli anları otomatik olarak yakalama fikri ile ortaya çıktı. Örneğin bebeğinin ilk adımlarını gören bir ebeveynin, anlık gerçekleşen bir olay olduğu için bu anı fotoğraflaması oldukça zordur. Herhangi bir odaya koyulan bu cihaz sayesinde bu özel anların otomatik olarak yakalanması fikri kulağa oldukça güzel geliyor. Ayrıca cihaz, makine öğrenimi sayesinde tanıdık yüzleri tanımlayabiliyor ve bu sayede neyi kaydetmesi gerektiğine karar verebiliyordu. Teoride oldukça iyi gibi gözükse de pratikte cihaz Google’ın vaat ettiklerini sunamadı. Birkaç haftalık testler kontrol edildiğinde özel denebilecek bir an ne yazık ki yakalanamadı. Cihazın çektiği 500’den fazla klipten belki yalnızca 10 tanesi başkalarıyla paylaşılabilecek düzeydeydi.

Tüm Reklamları Kapat

Bu örnekten de anlaşılacağı gibi yapay zekanın insan değerleriyle uyumlu hale getirilmesi yalnızca evrensel insan hakları gibi ciddi konular için de geçerli değil. İnsanların gerçekten ne istediğini, neyi sevdiğini ya da beklentilerini anlamayan bir yapay zeka elbette ortaya herhangi bir değer çıkaramayacaktır. Tabi ki şimdilik mükemmel olmasını beklemiyoruz ama insandan daha iyi, daha hızlı veya daha doğru olduğu sürece yeterli olacaktır.

Sonuç

Yapay zeka sistemlerinin faydalı olabilmesi için insan değerleriyle uyumlu olması tartışılamaz bir gerçektir. Elbette toplum ve kültürler arasındaki farklı ahlaki tutumlar ve hatta aynı toplumda yaşayan insanlar arasındaki farklı inançlar hatırlandığında yapay zekayı insan değerleriyle uyumlu hale getirmek oldukça zor olacaktır. Kaldı ki biz, bu yazımızda değer hizalamayı yalnızca felsefi yönüyle ele aldık. Bu ilkelerin yapay zeka üzerinde teknik olarak uygulanmasında da farklı problemler ile karşılaşılacaktır.

Lousville Üniversitesi’nde yapay zeka konusundaki çalışmaları ile bilinen bilgisayar bilimci Roman Yampolskiy’in ifade ettiğine göre, programlama dilinde insani değerleri kodlamak çok zordur. İnsanlık olarak ortak değerler üzerinde hemfikir olamadığımız ve zaman içinde hemfikir olduğumuz konularda dahi zamanla değişimler yaşandığı gerçeği, değer hizalama sorununu daha da zorlaştırmaktadır.

Yine de tüm bu sorunlara rağmen yapay zekayı ahlaki ilkelere uymaya ve bu tarz ilkeler yaratmaya zorlamak oldukça önemlidir. Gelecekte çok daha büyük gelişmelerin yaşanacağı kaçınılmaz olduğundan bu problemlerin şimdiden farkına vararak yeni teoriler üretmek oldukça yararlı olacaktır. Ayrıca yapay zeka sistemleri mutlaka ahlaki olarak hareket etmese bile potansiyel olarak ahlaki olmayan bazı tercihlerden vazgeçilmesi sağlanabilir. Henüz insanlık bunu başaramadıkça yapay zekayı da henüz kendisinin dahi emin olmadığı değerlere uyumlu hale getirmek oldukça zor olacağından, en azından şimdilik açıkça ahlaksız olan şeyler üzerinde bir anlaşmaya varmamız gerekiyor olabilir.

Alıntı Yap
Okundu Olarak İşaretle
Evrim Ağacı Akademi: Yapay Zeka Güvenliği Yazı Dizisi

Bu yazı, Yapay Zeka Güvenliği yazı dizisinin 3. yazısıdır. Bu yazı dizisini okumaya, serinin 1. yazısı olan "Yapay Zeka Güvenliği Neden Önemli Bir Araştırma Sahasıdır?" başlıklı makalemizden başlamanızı öneririz.

Yazı dizisi içindeki ilerleyişinizi kaydetmek için veya kayıt olun.

EA Akademi Hakkında Bilgi Al
14
Paylaş
Sonra Oku
Notlarım
Yazdır / PDF Olarak Kaydet
Bize Ulaş
Yukarı Zıpla

İçeriklerimizin bilimsel gerçekleri doğru bir şekilde yansıtması için en üst düzey çabayı gösteriyoruz. Gözünüze doğru gelmeyen bir şey varsa, mümkünse güvenilir kaynaklarınızla birlikte bize ulaşın!

Bu içeriğimizle ilgili bir sorunuz mu var? Buraya tıklayarak sorabilirsiniz.

Soru & Cevap Platformuna Git
Bu İçerik Size Ne Hissettirdi?
  • Merak Uyandırıcı! 4
  • İnanılmaz 3
  • Tebrikler! 2
  • Mmm... Çok sapyoseksüel! 2
  • Korkutucu! 1
  • Muhteşem! 0
  • Bilim Budur! 0
  • Güldürdü 0
  • Umut Verici! 0
  • Üzücü! 0
  • Grrr... *@$# 0
  • İğrenç! 0
Kaynaklar ve İleri Okuma
Tüm Reklamları Kapat

Evrim Ağacı'na her ay sadece 1 kahve ısmarlayarak destek olmak ister misiniz?

Şu iki siteden birini kullanarak şimdi destek olabilirsiniz:

kreosus.com/evrimagaci | patreon.com/evrimagaci

Çıktı Bilgisi: Bu sayfa, Evrim Ağacı yazdırma aracı kullanılarak 07/02/2023 04:49:13 tarihinde oluşturulmuştur. Evrim Ağacı'ndaki içeriklerin tamamı, birden fazla editör tarafından, durmaksızın elden geçirilmekte, güncellenmekte ve geliştirilmektedir. Dolayısıyla bu çıktının alındığı tarihten sonra yapılan güncellemeleri görmek ve bu içeriğin en güncel halini okumak için lütfen şu adrese gidiniz: https://evrimagaci.org/s/11367

İçerik Kullanım İzinleri: Evrim Ağacı'ndaki yazılı içerikler orijinallerine hiçbir şekilde dokunulmadığı müddetçe izin alınmaksızın paylaşılabilir, kopyalanabilir, yapıştırılabilir, çoğaltılabilir, basılabilir, dağıtılabilir, yayılabilir, alıntılanabilir. Ancak bu içeriklerin hiçbiri izin alınmaksızın değiştirilemez ve değiştirilmiş halleri Evrim Ağacı'na aitmiş gibi sunulamaz. Benzer şekilde, içeriklerin hiçbiri, söz konusu içeriğin açıkça belirtilmiş yazarlarından ve Evrim Ağacı'ndan başkasına aitmiş gibi sunulamaz. Bu sayfa izin alınmaksızın düzenlenemez, Evrim Ağacı logosu, yazar/editör bilgileri ve içeriğin diğer kısımları izin alınmaksızın değiştirilemez veya kaldırılamaz.

Tüm Reklamları Kapat
Size Özel (Beta)
İçerikler
Sosyal
Nörobilim
Enzim
Algoritma
Sinirbilim
Sars Virüsü
Uluslararası Uzay İstasyonu
Carl Sagan
Malzeme
Bilgi Felsefesi
Karadelik
Yüzey
Tarım
Klinik Mikrobiyoloji
Farmakoloji
Yapay
Balık Çeşitliliği
Yüz
Galaksi
Zooloji
Ölçüm
Sinir
Alkol
Algı
Köpekbalığı
Viroloji
Aklımdan Geçen
Komünite Seç
Aklımdan Geçen
Fark Ettim ki...
Bugün Öğrendim ki...
İşe Yarar İpucu
Bilim Haberleri
Hikaye Fikri
Video Konu Önerisi
Başlık
Bugün bilimseverlerle ne paylaşmak istersin?
Bağlantı
Kurallar
Komünite Kuralları
Bu komünite, aklınızdan geçen düşünceleri Evrim Ağacı ailesiyle paylaşabilmeniz içindir. Yapacağınız paylaşımlar Evrim Ağacı'nın kurallarına tabidir. Ayrıca bu komünitenin ek kurallarına da uymanız gerekmektedir.
1
Bilim kimliğinizi önceleyin.
Evrim Ağacı bir bilim platformudur. Dolayısıyla aklınızdan geçen her şeyden ziyade, bilim veya yaşamla ilgili olabilecek düşüncelerinizle ilgileniyoruz.
2
Propaganda ve baskı amaçlı kullanmayın.
Herkesin aklından her şey geçebilir; fakat bu platformun amacı, insanların belli ideolojiler için propaganda yapmaları veya başkaları üzerinde baskı kurma amacıyla geliştirilmemiştir. Paylaştığınız fikirlerin değer kattığından emin olun.
3
Gerilim yaratmayın.
Gerilim, tersleme, tahrik, taciz, alay, dedikodu, trollük, vurdumduymazlık, duyarsızlık, ırkçılık, bağnazlık, nefret söylemi, azınlıklara saldırı, fanatizm, holiganlık, sloganlar yasaktır.
4
Değer katın; hassas konulardan ve öznel yoruma açık alanlardan uzak durun.
Bu komünitenin amacı okurlara hayatla ilgili keyifli farkındalıklar yaşatabilmektir. Din, politika, spor, aktüel konular gibi anlık tepkilere neden olabilecek konulardaki tespitlerden kaçının. Ayrıca aklınızdan geçenlerin Türkiye’deki bilim komünitesine değer katması beklenmektedir.
5
Cevap hakkı doğurmayın.
Bu platformda cevap veya yorum sistemi bulunmamaktadır. Dolayısıyla aklınızdan geçenlerin, tespit edilebilir kişilere cevap hakkı doğurmadığından emin olun.
Gönder
Ekle
Soru Sor
Daha Fazla İçerik Göster
Evrim Ağacı'na Destek Ol
Evrim Ağacı'nın %100 okur destekli bir bilim platformu olduğunu biliyor muydunuz? Evrim Ağacı'nın maddi destekçileri arasına katılarak Türkiye'de bilimin yayılmasına güç katmak için hemen buraya tıklayın.
Popüler Yazılar
30 gün
90 gün
1 yıl
EA Akademi
Evrim Ağacı Akademi (ya da kısaca EA Akademi), 2010 yılından beri ürettiğimiz makalelerden oluşan ve kendi kendinizi bilimin çeşitli dallarında eğitebileceğiniz bir çevirim içi eğitim girişimi! Evrim Ağacı Akademi'yi buraya tıklayarak görebilirsiniz. Daha fazla bilgi için buraya tıklayın.
Etkinlik & İlan
Bilim ile ilgili bir etkinlik mi düzenliyorsunuz? Yoksa bilim insanlarını veya bilimseverleri ilgilendiren bir iş, staj, çalıştay, makale çağrısı vb. bir duyurunuz mu var? Etkinlik & İlan Platformumuzda paylaşın, milyonlarca bilimsevere ulaşsın.
Podcast
Evrim Ağacı'nın birçok içeriğinin profesyonel ses sanatçıları tarafından seslendirildiğini biliyor muydunuz? Bunların hepsini Podcast Platformumuzda dinleyebilirsiniz. Ayrıca Spotify, iTunes, Google Podcast ve YouTube bağlantılarını da bir arada bulabilirsiniz.
Yazı Geçmişi
Okuma Geçmişi
Notlarım
İlerleme Durumunu Güncelle
Okudum
Sonra Oku
Not Ekle
Kaldığım Yeri İşaretle
Göz Attım

Evrim Ağacı tarafından otomatik olarak takip edilen işlemleri istediğin zaman durdurabilirsin.
[Site ayalarına git...]

Filtrele
Listele
Bu yazıdaki hareketlerin
Devamını Göster
Filtrele
Listele
Tüm Okuma Geçmişin
Devamını Göster
0/10000
Alıntı Yap
Evrim Ağacı Formatı
APA7
MLA9
Chicago
E. Kocabey, et al. Yapay Zeka Hizalama Problemi: Yapay Zekayı İnsan Değerleriyle Uyumlu Hale Getirmek ve Kontrol Altında Tutmak Mümkün mü?. (22 Ocak 2022). Alındığı Tarih: 7 Şubat 2023. Alındığı Yer: https://evrimagaci.org/s/11367
Kocabey, E., Bakırcı, Ç. M. (2022, January 22). Yapay Zeka Hizalama Problemi: Yapay Zekayı İnsan Değerleriyle Uyumlu Hale Getirmek ve Kontrol Altında Tutmak Mümkün mü?. Evrim Ağacı. Retrieved February 07, 2023. from https://evrimagaci.org/s/11367
E. Kocabey, et al. “Yapay Zeka Hizalama Problemi: Yapay Zekayı İnsan Değerleriyle Uyumlu Hale Getirmek ve Kontrol Altında Tutmak Mümkün mü?.” Edited by Çağrı Mert Bakırcı. Evrim Ağacı, 22 Jan. 2022, https://evrimagaci.org/s/11367.
Kocabey, Enes. Bakırcı, Çağrı Mert. “Yapay Zeka Hizalama Problemi: Yapay Zekayı İnsan Değerleriyle Uyumlu Hale Getirmek ve Kontrol Altında Tutmak Mümkün mü?.” Edited by Çağrı Mert Bakırcı. Evrim Ağacı, January 22, 2022. https://evrimagaci.org/s/11367.

Göster

Şifremi unuttum Üyelik Aktivasyonu

Göster

Şifrenizi mi unuttunuz? Lütfen e-posta adresinizi giriniz. E-posta adresinize şifrenizi sıfırlamak için bir bağlantı gönderilecektir.

Geri dön

Eğer aktivasyon kodunu almadıysanız lütfen e-posta adresinizi giriniz. Üyeliğinizi aktive etmek için e-posta adresinize bir bağlantı gönderilecektir.

Geri dön

Close
Geri Bildirim Gönder
Paylaş
Reklamsız Deneyim

Evrim Ağacı'ndaki reklamları, bütçenize uygun bir şekilde, kendi seçtiğiniz bir süre boyunca kapatabilirsiniz. Tek yapmanız gereken, kaç ay boyunca kapatmak istediğinizi aşağıdaki kutuya girip tek seferlik ödemenizi tamamlamak:

10₺/ay
x
ay
= 30
3 Aylık Reklamsız Deneyimi Başlat
Evrim Ağacı'nda ücretsiz üyelik oluşturan ve sitemizi üye girişi yaparak kullanan kullanıcılarımızdaki reklamların %50 daha az olduğunu, Kreosus/Patreon/YouTube destekçilerimizinse sitemizi tamamen reklamsız kullanabildiğini biliyor muydunuz? Size uygun seçeneği aşağıdan seçebilirsiniz:
Evrim Ağacı Destekçilerine Katıl
Zaten Kreosus/Patreon/Youtube Destekçisiyim
Reklamsız Deneyim
Kreosus

Kreosus'ta her 10₺'lik destek, 1 aylık reklamsız deneyime karşılık geliyor. Bu sayede, tek seferlik destekçilerimiz de, aylık destekçilerimiz de toplam destekleriyle doğru orantılı bir süre boyunca reklamsız deneyim elde edebiliyorlar.

Kreosus destekçilerimizin reklamsız deneyimi, destek olmaya başladıkları anda devreye girmektedir ve ek bir işleme gerek yoktur.

Patreon

Patreon destekçilerimiz, destek miktarından bağımsız olarak, Evrim Ağacı'na destek oldukları süre boyunca reklamsız deneyime erişmeyi sürdürebiliyorlar.

Patreon destekçilerimizin Patreon ile ilişkili e-posta hesapları, Evrim Ağacı'ndaki üyelik e-postaları ile birebir aynı olmalıdır. Patreon destekçilerimizin reklamsız deneyiminin devreye girmesi 24 saat alabilmektedir.

YouTube

YouTube destekçilerimizin hepsi otomatik olarak reklamsız deneyime şimdilik erişemiyorlar ve şu anda, YouTube üzerinden her destek seviyesine reklamsız deneyim ayrıcalığını sunamamaktayız. YouTube Destek Sistemi üzerinde sunulan farklı seviyelerin açıklamalarını okuyarak, hangi ayrıcalıklara erişebileceğinizi öğrenebilirsiniz.

Eğer seçtiğiniz seviye reklamsız deneyim ayrıcalığı sunuyorsa, destek olduktan sonra YouTube tarafından gösterilecek olan bağlantıdaki formu doldurarak reklamsız deneyime erişebilirsiniz. YouTube destekçilerimizin reklamsız deneyiminin devreye girmesi, formu doldurduktan sonra 24 saat alabilmektedir.

Diğer Platformlar

Bu 3 platform haricinde destek olan destekçilerimize ne yazık ki reklamsız deneyim ayrıcalığını sunamamaktayız. Destekleriniz sayesinde sistemlerimizi geliştirmeyi sürdürüyoruz ve umuyoruz bu ayrıcalıkları zamanla genişletebileceğiz.

Giriş yapmayı unutmayın!

Reklamsız deneyim için, maddi desteğiniz ile ilişkilendirilmiş olan Evrim Ağacı hesabınıza yapmanız gerekmektedir. Giriş yapmadığınız takdirde reklamları görmeye devam edeceksinizdir.

Destek Ol

Devamını Oku
Evrim Ağacı Uygulamasını
İndir
Chromium Tabanlı Mobil Tarayıcılar (Chrome, Edge, Brave vb.)
İlk birkaç girişinizde zaten tarayıcınız size uygulamamızı indirmeyi önerecek. Önerideki tuşa tıklayarak uygulamamızı kurabilirsiniz. Bu öneriyi, yukarıdaki videoda görebilirsiniz. Eğer bu öneri artık gözükmüyorsa, Ayarlar/Seçenekler (⋮) ikonuna tıklayıp, Uygulamayı Yükle seçeneğini kullanabilirsiniz.
Chromium Tabanlı Masaüstü Tarayıcılar (Chrome, Edge, Brave vb.)
Yeni uygulamamızı kurmak için tarayıcı çubuğundaki kurulum tuşuna tıklayın. "Yükle" (Install) tuşuna basarak kurulumu tamamlayın. Dilerseniz, Evrim Ağacı İleri Web Uygulaması'nı görev çubuğunuza sabitleyin. Uygulama logosuna sağ tıklayıp, "Görev Çubuğuna Sabitle" seçeneğine tıklayabilirsiniz. Eğer bu seçenek gözükmüyorsa, tarayıcının Ayarlar/Seçenekler (⋮) ikonuna tıklayıp, Uygulamayı Yükle seçeneğini kullanabilirsiniz.
Safari Mobil Uygulama
Sırasıyla Paylaş -> Ana Ekrana Ekle -> Ekle tuşlarına basarak yeni mobil uygulamamızı kurabilirsiniz. Bu basamakları görmek için yukarıdaki videoyu izleyebilirsiniz.

Daha fazla bilgi almak için tıklayın

Önizleme
Görseli Kaydet
Sıfırla
Vazgeç
Ara
Moderatöre Bildir

Raporlama sisteminin amacı, platformu uygunsuz biçimde kullananların önüne geçmektir. Lütfen bir içeriği, sadece düşük kaliteli olduğunu veya soruya cevap olmadığını düşündüğünüz raporlamayınız; bu raporlar kabul edilmeyecektir. Bunun yerine daha kaliteli cevapları kendiniz girmeye çalışın veya size sunulan (oylama gibi) diğer araçlar ile daha kaliteli cevaplara teşvik edin. Kalitesiz bulduğunuz içerikleri eleyebileceğiniz, kalitelileri daha ön plana çıkarabileceğiniz yeni araçlar geliştirmekteyiz.

Kural İhlali Seç
Öncül Ekle
Sonuç Ekle
Mantık Hatası Seç
Kural İhlali Seç
Soru Sor
Aşağıdaki "Soru" kutusunu sadece soru sormak için kullanınız. Bu kutuya soru formatında olmayan hiçbir cümle girmeyiniz. Sorunuzla ilgili ek bilgiler vermek isterseniz, "Açıklama" kısmına girebilirsiniz. Soru kısmının soru cümlesi haricindeki kullanımları sorunuzun silinmesine ve UP kaybetmenize neden olabilir.
Görsel Ekle
Kurallar
Platform Kuralları
Bu platform, aklınıza takılan soruları sorabilmeniz ve diğerlerinin sorularını yanıtlayabilmeniz içindir. Yapacağınız paylaşımlar Evrim Ağacı'nın kurallarına tabidir. Ayrıca bu komünitenin ek kurallarına da uymanız gerekmektedir.
1
Gerçekten soru sorun, imâdan ve yüklü sorulardan kaçının.
Sorularınızın amacı nesnel olarak gerçeği öğrenmek veya fikir almak olmalıdır. Şahsi kanaatinizle ilgili mesaj vermek için kullanmayın; yüklü soru sormayın.
2
Bilim kimliğinizi kullanın.
Evrim Ağacı bir bilim platformudur. Dolayısıyla sorular ve cevaplar, bilimsel perspektifi yansıtmalıdır. Geçerli bilimsel kaynaklarla doğrulanamayan bilgiler veya reklamlar silinebilir.
3
Düzgün ve insanca iletişim kurun.
Gerilim, tersleme, tahrik, taciz, alay, dedikodu, trollük, vurdumduymazlık, duyarsızlık, ırkçılık, bağnazlık, nefret söylemi, azınlıklara saldırı, fanatizm, holiganlık, sloganlar yasaktır.
4
Sahtebilimi desteklemek yasaktır.
Sahtebilim kategorisi altında konuyla ilgili sorular sorabilirsiniz; ancak bilimsel geçerliliği bulunmayan sahtebilim konularını destekleyen sorular veya cevaplar paylaşmayın.
5
Türkçeyi düzgün kullanın.
Şair olmanızı beklemiyoruz; ancak yazdığınız içeriğin anlaşılır olması ve temel düzeyde yazım ve dil bilgisi kurallarına uyması gerekmektedir.
Soru Ara
Aradığınız soruyu bulamadıysanız buraya tıklayarak sorabilirsiniz.
Alıntı Ekle
Eser Ekle
Kurallar
Komünite Kuralları
Bu komünite, fark edildiğinde ufku genişleten tespitler içindir. Yapacağınız paylaşımlar Evrim Ağacı'nın kurallarına tabidir. Ayrıca bu komünitenin ek kurallarına da uymanız gerekmektedir.
1
Formu olabildiğince eksiksiz doldurun.
Girdiğiniz sözün/alıntının kaynağı ne kadar açıksa o kadar iyi. Açıklama kısmına kitabın sayfa sayısını veya filmin saat/dakika/saniye bilgisini girebilirsiniz.
2
Anonimden kaçının.
Bazı sözler/alıntılar anonim olabilir. Fakat sözün anonimliğini doğrulamaksızın, bilmediğiniz her söze/alıntıya anonim yazmayın. Bu tür girdiler silinebilir.
3
Kaynağı araştırın ve sorgulayın.
Sayısız söz/alıntı, gerçekte o sözü hiçbir zaman söylememiş/yazmamış kişilere, hatalı bir şekilde atfediliyor. Paylaşımınızın site geneline yayılabilmesi için kaliteli kaynaklar kullanın ve kaynaklarınızı sorgulayın.
4
Ofansif ve entelektüel düşünceden uzak sözler yasaktır.
Gerilim, tersleme, tahrik, taciz, alay, dedikodu, trollük, vurdumduymazlık, duyarsızlık, ırkçılık, bağnazlık, nefret söylemi, azınlıklara saldırı, fanatizm, holiganlık, sloganlar yasaktır.
5
Sözlerinizi tırnak (") içine almayın.
Sistemimiz formatı otomatik olarak ayarlayacaktır.
Gönder
Tavsiye Et
Aşağıdaki kutuya, [ESER ADI] isimli [KİTABI/FİLMİ] neden tavsiye ettiğini girebilirsin. Ne kadar detaylı ve kapsamlı bir analiz yaparsan, bu eseri [OKUMAK/İZLEMEK] isteyenleri o kadar doğru ve fazla bilgilendirmiş olacaksın. Tavsiyenin sadece negatif içerikte olamayacağını, eğer bu sistemi kullanıyorsan tavsiye ettiğin içeriğin pozitif taraflarından bahsetmek zorunda olduğunu lütfen unutma. Yapıcı eleştiri hakkında daha fazla bilgi almak için burayı okuyabilirsin.
Kurallar
Platform Kuralları
Bu platform; okuduğunuz kitaplara, izlediğiniz filmlere/belgesellere veya takip ettiğiniz YouTube kanallarına yönelik tavsiylerinizi ve/veya yapıcı eleştirel fikirlerinizi girebilmeniz içindir. Tavsiye etmek istediğiniz eseri bulamazsanız, buradan yeni bir kayıt oluşturabilirsiniz. Yapacağınız paylaşımlar Evrim Ağacı'nın kurallarına tabidir. Ayrıca bu platformun ek kurallarına da uymanız gerekmektedir.
1
Önceliğimiz pozitif tavsiyelerdir.
Bu platformu, beğenmediğiniz eserleri yermek için değil, beğendiğiniz eserleri başkalarına tanıtmak için kullanmaya öncelik veriniz. Sadece negatif girdileri olduğu tespit edilenler platformdan geçici veya kalıcı olarak engellenebilirler.
2
Tavsiyenizin içeriği sadece negatif olamaz.
Tavsiye yazdığınız eserleri olabildiğince objektif bir gözlükle anlatmanız beklenmektedir. Dolayısıyla bir eseri beğenmediyseniz bile, tavsiyenizde eserin pozitif taraflarından da bahsetmeniz gerekmektedir.
3
Negatif eleştiriler yapıcı olmak zorundadır.
Eğer tavsiyenizin ana tonu negatif olacaksa, tüm eleştirileriniz yapıcı nitelikte olmak zorundadır. Yapıcı eleştiri kurallarını buradan öğrenebilirsiniz. Yapıcı bir tarafı olmayan veya tamamen yıkıcı içerikte olan eleştiriler silinebilir ve yazarlar geçici veya kalıcı olarak engellenebilirler.
4
Düzgün ve insanca iletişim kurun.
Gerilim, tersleme, tahrik, taciz, alay, dedikodu, trollük, vurdumduymazlık, duyarsızlık, ırkçılık, bağnazlık, nefret söylemi, azınlıklara saldırı, fanatizm, holiganlık, sloganlar yasaktır.
5
Türkçeyi düzgün kullanın.
Şair olmanızı beklemiyoruz; ancak yazdığınız içeriğin anlaşılır olması ve temel düzeyde yazım ve dil bilgisi kurallarına uyması gerekmektedir.
Eser Ara
Aradığınız eseri bulamadıysanız buraya tıklayarak ekleyebilirsiniz.
Tür Ekle
Üst Takson Seç
Kurallar
Komünite Kuralları
Bu platform, yaşamış ve yaşayan bütün türleri filogenetik olarak sınıflandırdığımız ve tanıttığımız Yaşam Ağacı projemize, henüz girilmemiş taksonları girebilmeniz için geliştirdiğimiz bir platformdur. Yapacağınız paylaşımlar Evrim Ağacı'nın kurallarına tabidir. Ayrıca bu komünitenin ek kurallarına da uymanız gerekmektedir.
1
Takson adlarını doğru yazdığınızdan emin olun.
Taksonların sadece ilk harfleri büyük yazılmalıdır. Latince tür adlarında, cins adının ilk harfi büyük, diğer bütün harfler küçük olmalıdır (Örn: Canis lupus domesticus). Türkçe adlarda da sadece ilk harf büyük yazılmalıdır (Örn: Evcil köpek).
2
Taksonlar arası bağlantıları doğru girin.
Girdiğiniz taksonun üst taksonunu girmeniz zorunludur. Eğer üst takson yoksa, mümkün olduğunca öncelikle üst taksonları girmeye çalışın; sonrasında daha alt taksonları girin.
3
Birden fazla kaynaktan kontrol edin.
Mümkün olduğunca ezbere iş yapmayın, girdiğiniz taksonların isimlerinin birden fazla kaynaktan kontrol edin. Alternatif (sinonim) takson adlarını girmeyi unutmayın.
4
Tekrara düşmeyin.
Aynı taksonu birden fazla defa girmediğinizden emin olun. Otomatik tamamlama sistemimiz size bu konuda yardımcı olacaktır.
5
Mümkünse, takson tanıtım yazısı (Taksonomi yazısı) girin.
Bu araç sadece taksonları sisteme girmek için geliştirilmiştir. Dolayısıyla taksonlara ait minimal bilgiye yer vermektedir. Evrim Ağacı olarak amacımız, taksonlara dair detaylı girdilerle bu projeyi zenginleştirmektir. Girdiğiniz türü daha kapsamlı tanıtmak için Taksonomi yazısı girin.
Gönder
Tür Gözlemi Ekle
Tür Seç
Fotoğraf Ekle
Kurallar
Komünite Kuralları
Bu platform, bizzat gözlediğiniz türlerin fotoğraflarını paylaşabilmeniz için geliştirilmiştir. Yapacağınız paylaşımlar Evrim Ağacı'nın kurallarına tabidir. Ayrıca bu komünitenin ek kurallarına da uymanız gerekmektedir.
1
Net ve anlaşılır görseller yükleyin.
Her zaman bir türü kusursuz netlikte fotoğraflamanız mümkün olmayabilir; ancak buraya yüklediğiniz fotoğraflardaki türlerin özellikle de vücut deseni gibi özelliklerinin rahatlıkla ayırt edilecek kadar net olması gerekmektedir.
2
Özgün olun, telif ihlali yapmayın.
Yüklediğiniz fotoğrafların telif hakları size ait olmalıdır. Başkası tarafından çekilen fotoğrafları yükleyemezsiniz. Wikimedia gibi açık kaynak organizasyonlarda yayınlanan telifsiz fotoğrafları yükleyebilirsiniz.
3
Paylaştığınız fotoğrafların telif hakkını isteyemezsiniz.
Yüklediğiniz fotoğraflar tamamen halka açık bir şekilde, sınırsız ve süresiz kullanım izniyle paylaşılacaktır. Bu fotoğraflar nedeniyle Evrim Ağacı’ndan telif veya ödeme talep etmeniz mümkün olmayacaktır. Kendi fotoğraflarınızı başka yerlerde istediğiniz gibi kullanabilirsiniz.
4
Etik kurallarına uyun.
Yüklediğiniz fotoğrafların uygunsuz olmadığından ve başkalarının haklarını ihlâl etmediğinden emin olun.
5
Takson teşhisini doğru yapın.
Yaptığınız gözlemler, spesifik taksonlarla ilişkilendirilmektedir. Takson teşhisini doğru yapmanız beklenmektedir. Taksonu bilemediğinizde, olabildiğince genel bir taksonla ilişkilendirin; örneğin türü bilmiyorsanız cins ile, cinsi bilmiyorsanız aile ile, aileyi bilmiyorsanız takım ile, vs.
Gönder
Tür Ara
Aradığınız türü bulamadıysanız buraya tıklayarak ekleyebilirsiniz.