Otonom Yapay Zekâ Geliyor: Yapay Zekâ Ajanı Nedir ve Neden Önemlidir?
ChatGPT Gibi Sohbetbotlarından Daha Fazla Otonomi ve Özerkliğe Sahip Olan, Kişiselleştirilmiş Yapay Zekâlar Yolda! Ancak Uzmanlar Endişeli!
Her günümüz, gün içerisinde bilinçli seçimler yapmakla geçmektedir. Tarih boyunca filozoflar, "kasıtlı" olarak ya da bir "irade" doğrultusunda eyleme geçme yetisinin, yani bir diğer ifadeyle bir "ajan", bir "özne" olarak davranabilmenin insanları diğer canlılardan ve makinelerden ayıran temel bir unsur olduğunu öne sürmüşlerdir. Ancak yapay zekâ alanındaki gelişmeler, bu ayrımı yakında ortadan kaldırabilir. Teknoloji şirketleri, son zamanlarda "yapay zekâ ajanı" olarak adlandırılan yapay zekâ sistemleri geliştirmektedir. Bu sistemler, görevleri yerine getirmek ve hedeflere ulaşmak için insan müdahalesine daha az gereksinim duymaktadır. Yapay zekâ ajanları, bağımsız kararlar alabilmekte ve sadece en temel gözetimle hedeflerine ulaşabilmektedir.
Yapay Zekâ Ajanları Nedir, Kimdir?
Milyarlarca dolarlık yatırımların ardından artık somut dönüşler görme baskısı yaşayan yapay zekâ geliştiricileri, yeni bir tüketici teknolojisi dalgası olarak yapay zekâ ajanlarını ileri sürmektedir.
Yapay zekâ ajanları, temelinde büyük dil modellerini kullanan ve telefon, bilgisayar gibi kişisel cihazlar üzerinden erişilebilen yapay zekâ sistemlerdir. Görünüşte sohbet botları (İng: "chatbot") gibidirler ancak sohbet robotlarından farkları, sürekli bir insan yönlendirmesine ihtiyaç duymadan kullanıcı adına dış uygulamalarla etkileşime girip görevleri otonom şekilde yerine getirebilmeleridir. Örneğin, bir sohbet botundan bir metin yazmasını istediğimizde bizim yönlendirmemize bağlı kalmaktadır; ancak bir yapay zekâ ajanı, uygulamalara ya da API'lara (farklı yazılım uygulamalarının birbirleriyle etkileşim kurmasını sağlayan araçlar) bağlanarak gerekli eylemleri gerçekleştirebilir.
OpenAI şirketi, insanın bilişsel becerisini geride bırakabilecek geniş kapsamlı bir yapay zekâ (yapay genel zekâ – İng: "AGI") inşa etme sürecini beş aşamaya ayırmış ve bu aşamalardan üçüncüsünü yapay zekâ ajanlarının geliştirilmesi olarak belirlemiştir.[1] OpenAI'nin, "Operator" (Tr: "Operatör") kod adına sahip bir yapay zekâ ajanını 2025 yılının Ocak ayında piyasaya sürmesi beklenmektedir.[2] Buna ek olarak, Meta şirketinin CEO'su Mark Zuckerberg, gelecekte yapay zekâ ajanlarının insan sayısını geçeceğini söylemektedir. Öte yandan yapay zekâ uzmanları ise şirketlerin büyük bir hızla yapay zekâ ajanlarını ticarileştirmesini tehlikeli bir adım olarak değerlendirmektedir. Uzmanlar, yapay zekâ sektörünün güvenlikten ziyade hıza öncelik verdiğini sıklıkla dile getirmektedir.
Büyük teknoloji şirketleri, yapay zekâ ajanlarının bizi angarya işlerden kurtararak daha anlamlı işlere yönelmemizi sağlayacağını iddia etmektedir. Aynı zamanda şirketlerin verimliliğini de artıracakları öne sürülmektedir. Google DeepMind kıdemli araştırmacısı Iason Gabriel, şöyle söylüyor:
Bizi gündelik, sıkıcı işlerden kurtaran yapay zekâ ajanları; ilişkilerimize, kişisel gelişimimize ve bilgili kararlar almaya odaklanmamıza destek olabilir.
Yapay Zekâ Ajanlarının Uygulamaları ve Potansiyeli
2024 yılı Mayıs ayında, Google DeepMind "Project Astra" adlı prototip bir yapay zekâ sistemi duyurmuştur. Bu sistem, "gündelik hayatta evrensel olarak yararlı olabilecek bir yapay zekâ ajanı" olarak tanımlanmıştır.[3] Astra adlı bu yapay zekâ ajanı, Google Pixel telefonla iletişim kurarak cihaz kamerasından gelen verileri analiz edebilmektedir. Gösterilen bir örnekte kullanıcı, telefonunu bilgisayar ekranına tutar; ekranda şifreleme ve şifre çözme fonksiyonlarını tanımlayan kodlar yazılıdır. Yapay zekâ ajanı Astra, bu kodu insan sesi ile "Bu kod, şifreleme ve şifre çözme fonksiyonlarını tanımlıyor." diyerek açıklar.
Günümüzde piyasadaki yapay zekâ ajanlarının yetenekleri ise genellikle sıkıcı ve tekrara dayalı işlerle sınırlıdır. Örneğin, kod oluşturma ya da faturaları dosyalama gibi faaliyetler yürütmektedirler. Bu durum, hem teknoloji açısından hâlâ kısıtlar bulunması hem de geliştiricilerin hata payının yüksek olabileceği hassas sektörlerde yapay zekâ ajanlarına henüz tam olarak güven duymamasından kaynaklanmaktadır.
Salesforce adlı bir yapay zekâ şirketinde baş bilim insanı olarak görev yapan ve "Agentforce" adı verilen bir platform kuran Silvio Savarese, yapay zekâ ajanlarının çok net tanımlanabilen ve tekrarlanan, rutin işleri uygulamak üzere geliştirilmesi gerektiğini söylemektedir. Savarese'nin geliştirdiği Agentforce platformu, müşteri hizmeti sorularını cevaplama ve belirli dar kapsamlı işlevler üstlenme gibi faaliyetler yapabilen yapay zekâ ajanları sunmaktadır. Savarese, yasal ceza belirleme gibi daha kritik uygulamalarda bu yapay zekâ ajanlarına güvenilmesi ihtimalini ise çok endişe verici olarak nitelemektedir.
Agentforce ve benzeri platformlar, esasen kurumsal alanları hedef alsa da Savarese gelecekte kişisel veri erişimi olan ve bireyin ihtiyaçları ile tercihlerini sürekli güncelleyebilen kişisel yapay zekâ ajanlarının doğuşunu öngörmektedir. Örneğin, tatil planlaması için görevlendirilmiş bir mobil uygulama tabanlı yapay zekâ ajanı; kullanıcısı adına cam kenarı uçak bileti satın alma, restoran rezervasyonu yapma, havuzu olan bir otel ayarlama gibi kullanıcısının istek ve ihtiyacına göre kişiselleştirilmiş görevleri otonom olarak yürütebilecektir. Böyle bir zekâ ajanı, beklenmeyen durumlara da uyum sağlayacaktır. Örneğin, eğer kullanıcısının istek ve ihtiyacına uygun uçuşu bir havayolunda bulamadıysa farklı bir havayolunu araştırmak gibi çözüm yollarına başvuracaktır. Savarese, şöyle söylüyor:
Bir yapay zekâ ajanının uyum sağlama ve bulunulan koşula tepki verme yeteneği son derece önemlidir.
Bu alanda ilk kişisel yapay zekâ ajanı örneklerinin yakında olduğu söylenebilir. Örneğin Amazon'un, çevrimiçi alışveriş geçmişine bakarak kullanıcılar adına ürün önerecek ve bunları satın alabilecek ajanlar üzerinde çalıştığı rapor edilmiştir.[4]
Bir Yapay Zekâ Ajanını "Ajan" Yapan Nedir?
Günümüzde büyük teknoloji şirketlerinin yapay zekâ ajanlarına yönelik ani ilgisi, aslında bu kavramın epey uzun bir geçmişi olduğunu göstermektedir. Esasında bütün makine öğrenimi algoritmaları teknik açıdan "ajan niteliği" taşımaktadır; çünkü her biri dağınık veri setlerinden öğrendiği kalıplar yardımıyla belirli hedeflere ulaşma becerisini sürekli olarak ayarlarlar. Kaliforniya Berkeley Üniversitesi'nden öncü bilgisayar bilimci ve yapay zekâ araştırmacısı Stuart Russell, şöyle söylüyor:
Aslında maddi destek istememizin nedeni çok basit: Çünkü Evrim Ağacı, bizim tek mesleğimiz, tek gelir kaynağımız. Birçoklarının aksine bizler, sosyal medyada gördüğünüz makale ve videolarımızı hobi olarak, mesleğimizden arta kalan zamanlarda yapmıyoruz. Dolayısıyla bu işi sürdürebilmek için gelir elde etmemiz gerekiyor.
Bunda elbette ki hiçbir sakınca yok; kimin, ne şartlar altında yayın yapmayı seçtiği büyük oranda bir tercih meselesi. Ne var ki biz, eğer ana mesleklerimizi icra edecek olursak (yani kendi mesleğimiz doğrultusunda bir iş sahibi olursak) Evrim Ağacı'na zaman ayıramayacağımızı, ayakta tutamayacağımızı biliyoruz. Çünkü az sonra detaylarını vereceğimiz üzere, Evrim Ağacı sosyal medyada denk geldiğiniz makale ve videolardan çok daha büyük, kapsamlı ve aşırı zaman alan bir bilim platformu projesi. Bu nedenle bizler, meslek olarak Evrim Ağacı'nı seçtik.
Eğer hem Evrim Ağacı'ndan hayatımızı idame ettirecek, mesleklerimizi bırakmayı en azından kısmen meşrulaştıracak ve mantıklı kılacak kadar bir gelir kaynağı elde edemezsek, mecburen Evrim Ağacı'nı bırakıp, kendi mesleklerimize döneceğiz. Ama bunu istemiyoruz ve bu nedenle didiniyoruz.
Biz on yıllardır yapay zekâ alanındaki tüm sistemleri birer ajan olarak ele alıyoruz. Ancak bu ajan sistemlerden bazıları elbette çok basit kalmaktadır.
Modern yapay zekâ sistemlerinin, özellikle de büyük dil modeli temelli sistemlerin artık daha güçlü "ajansal özellikler" sergilemesi yalnızca birkaç yeniliğe bağlı olabilir. Bunlardan ilki, bu sistemlerin arama motorları gibi dijital araçları kullanabilme becerisidir. Örneğin, Anthropic şirketinin Claude sohbetbotu üzerine inşa edilen bir yapay zekâ ajanının Ekim 2024'te herkese açık bir beta testinde "bilgisayar kullanımı" özelliği ile kullanıcının ekranında olanları inceleyip tıklamalar yapabildiği gösterilmiştir. Bu test, Claude'un bir satıcı talep formunu nasıl doldurduğunu ve gönderdiğini göstermektedir.
Ajansal nitelik, zamana yayılan karmaşık kararlar alma becerisiyle de yakından ilişkilidir. Ajanlar daha ileri düzeye eriştikçe daha sofistike görevlerde de kullanılacaktır. Google DeepMind'dan yapay zekâ araştırmacısı Gabriel, gelecekte bir yapay zekâ ajanının yeni bilimsel keşiflerde yardımcı olabileceğini öngörmektedir. Ağustos 2024'te yayımlanan bir makalede, "AI Scientist" (Tr: "Bilim İnsanı Yapay Zekâ") adlı bir yapay zekâ ajanı tanıtılmıştır.[5] Bu sistem, bir ölçüde yeni bilimsel araştırma fikirleri formüle edebilir ve bu formülleri deneyler yoluyla test edebilir. Bununla, bilimsel yöntemin otomasyonunun hedeflendiği belirtilmektedir.
Ajan kavramı ve irade arasındaki felsefi yakınlığına rağmen, makinelerdeki "ajansal" ilerlemelerin bir tür iradeye evrileceğini varsaymak için henüz geçerli bir neden bulunmamaktadır. Teknoloji şirketleri de bu araçları özgür irade sahibi bir mekanizmaya olarak tanıtmamaktadır. Yine de kullanıcıların ajansal özellikler sergileyen yapay zekâ sistemlerini kendi iradesi varmış gibi algılaması mümkündür. Bu durum, insan beyninin evrimine dayanmaktadır. İnsanlar, insan benzeri davranış sergileyen her şeye irade ve bir niyet atfetmeye yatkındır.
Yapay Zekâ Ajanlarının Getirdiği Etik ve Hukuki Sorular
Önümüzdeki yıllarda yapay zekâ ajanların yükselişi; iş dünyasında, sosyal medyada ve internet genelinde bazı zorlukları da beraberinde getirebilir. Yüzyıllar boyunca insan davranışlarını kısıtlamak adına dikkatle tasarlanan hukuki çerçeveler, şimdi de çok farklı işleyiş prensiplerine sahip yapay zekâ ajanlarının ortaya çıkışına uyarlanmak zorunda kalacaktır. Bazı önde gelen yapay zekâ uzmanları, insan zekâsının ve yapay zekânın işleyiş prensiplerindeki farklılığa vurguda bulunarak yapay zekâ yerine "yabancı zekâ" (İng: "Alien Intelligence") kullanımının daha isabetli olduğunu savunmaktadır.
Finans sektörünü ele alalım: Algoritmalar uzun zamandır fiyatları takip edip enflasyon gibi değişkenleri hesaba katarak modellemeler yapmaktadır. Ancak ajansal modeller, kurumlar veya bireyler için finansal kararları bizzat vermeye başlarsa bir dizi hukuki ve ekonomik soru gündeme gelecektir: Bu ajanlar, bizim belirlediğimiz kurallar çerçevesinde nasıl hareket edecek? Eğer bir ajan, bir kurum adına yasal bir sözleşme imzalayıp daha sonra bu sözleşme şartlarını ihlal ederse, sorumlu kim olacak? Ajanı kullanan kurum mu, yoksa algoritmanın kendisi mi?
Bu sorular, "yapay zekâ ajanlarına "tüzel kişilik" tanınmalı mı?" gibi tartışmaları da beraberinde getirmektedir. Örneğin, ABD'deki dev şirketler "kurumsal kişilik" statüsünden yararlanabiliyorsa, ajanlar için de benzer haklar veya yükümlülükler söz konusu olacak mı?
Yapay Zekâ Ajanlarının Geleceği ve Denetim Mekanizmaları
Bir diğer mesele, ajanların insan ahlâk normlarına uyum göstermesini sağlama sorunudur. Yapay zekâ literatüründe bu sorun, "yapay zekâ hizalama problemi" (İng: "AI alignment") olarak bilinir. Ajanların ajansal davranışları güçlenip geliştikçe, içerdikleri modellerin karar alma süreçlerini insan gözüyle takip etmek daha da zorlaşacaktır. Belirlenen hedefler, çok katmanlı alt hedeflere bölünmekte ve bazı beklenmedik davranışlar ortaya çıkabilmektedir. Yapay sinir sistemleri karmaşık ve kendiliğinden beliren kabiliyetler (İng: "Emerging Abilities") sergileyebildiği için ileri düzey ajanların eylemlerini öngörmek güçleşmektedir. Derin öğrenme ve yapay sinir ağları üzerine yaptığı öncü çalışmalar ile bilinen (bu çalışmalarından dolayı "modern yapay zekânın/derin öğrenmenin babası" olarak adlandırılmaktadır), bilgisayar bilimlerinde dünyanın en çok atıfta bulunulan, 2018 ACM A.M. Turing Ödülü sahibi bilgisayar bilimci ve yapay zekâ uzmanı Yoshua Bengio, şöyle söylüyor:[6], [7]
Yapay zekâ ajanlarının planlama yeteneğinde meydana gelen ilerlemeler, insan kontrolünün yitirilmesine doğru giden bir yolu açıyor olabilir.
Bengio'ya göre; büyük teknoloji şirketlerinin kârı öncelemesinin, toplum yararıyla çelişmesi ile birleştiğinde uyumluluk ve etik sorunları daha da büyümektedir. Bengio, şöyle söylüyor:
Para kazanmak ile kamu güvenliğini sağlamak arasında ciddi bir çıkar çatışması bulunmaktadır.
Bengio, örnek olarak 2010'larda Facebook (Meta) tarafından, salt kullanıcı katılımını maksimize etmek üzere geliştirilen algoritmaların Myanmar'da Rohingya azınlık grubuna karşı nefreti yaygınlaştırdığına dikkat çekmektedir.[8] Facebook algoritmaları, sadece kullanıcı etkileşimini artırma hedefi güdülerek eğitildiği için "tepki uyandıran, tahrik eden" içeriğin daha çok paylaşıma ve dikkat çekmeye yol açtığı fark edilmiş ve bu düzeltilmek yerine pekiştirilmiştir. Nihayetinde ise insanların gerçek dünyada birbirine zarar vermesiyle sonuçlanan bir etki oluşmuş; binlerce insan bundan dolayı yaşamını yitirmiştir.[9] Dolayısıyla mevcut riskler, algoritmalar daha ajansal hâle gelip güçlendikçe artmaktadır.
Yapay Zekâ Ajanları ve Yasal Düzenleme İhtiyacı
Yoshua Bengio ve Stuart Russell, yapay zekâ alanında kapsamlı bir yasal düzenleme yapılması gerektiğini; aksi takdirde geçmişteki hataları tekrarlamanın veya gelecekte ortaya çıkabilecek beklenmedik sorunlara hazırlıksız yakalanmanın kaçınılmaz olduğunu savunmaktadır. Bu doğrultuda Mart 2023'te, yapay zekâ araştırmalarına ara verilerek yapay zekâ güvenliği risklerinin değerlendirilmesi çağrısıyla bir açık mektup yayımlanmıştır.[10] Pek çok bilim insanı ve uzman da dahil olmak üzere 33 bin kişinin imzasını alan bu açık mektupta Yoshua Bengio, Stuart Russell ve Geoffrey Hinton gibi dev isimlerin de imzaları bulunmaktadır. Mektup, yapay zekâ araştırmalarının en az 6 ay süreyle durdurulmasını ve bu süreçte gereken güvenlik önlemlerinin tartışılmasını talebinde bulunmuştur.
Bengio, ajansal yapay zekâ geliştirilmesi konusundaki rekabet kızıştıkça ihtiyatlılık ilkesine (İng: "precautionary principle") daha da önem verlimesi gerektiğine dikkat çekmektedir. Bu ilke; bilimsel ilerlemenin getirdiği güçlü teknolojilerin hemen geniş ölçekte dağıtıma sokulmaması, ticari kazanç yerine güvenliğin ve kamu yararının öne çıkarılması gerektiği fikrini içermektedir.
Bu ilkenin, hâlihazırda başka sektörlerde uygulanan bir model olduğunu biliyoruz. Örneğin, ABD ilaç endüstrisinde geliştirilen herhangi bir yeni ilaç Gıda ve İlaç Dairesi (İng: "FDA") onayından geçmeden satışa sunulamaz; havacılık endüstrisinde ise yeni bir yolcu uçağı Federal Havacılık İdaresi (İng: "FAA") sertifikası olmadan piyasaya çıkamaz. Ancak yapay zekâ teknolojisi cephesine gelindiğinde henüz kapsamlı bir yasal mevzuat yoktur. Yakın geçmişte bazı adımlar atılmıştır; örneğin ABD Başkanı Joe Biden 2021'de yapay zekâ üzerine bir başkanlık kararnamesi yayımlamıştır. Ancak bu yönerge, birçok uzmanca kapsamlı bir çerçeve olarak görülmemektedir ve yeni Beyaz Saray Yönetiminin bu emirleri iptal etme imkânı ve ihtimali de bulunmaktadır.
Sonuç
Bengio, büyük teknoloji şirketlerinin yapay zekâ ajanlarını hızla ticarileştirme yönündeki çabasının, "geri dönüşü olmayan bir noktayı" çabucak aşma riskini taşıdığını savunmaktadır. Bir teknolojinin geniş kullanım alanı bulup ekonomik değeri arttıkça onu durdurmanın politik ve ticari açıdan zorlaştığı; sosyal medya sektöründe de görülmüş bir fenomen olarak önce çıkmaktadır. 2010'larda Facebook gibi sosyal medya şirketleri hızla büyüyüp toplumsal yapıda kök salarken devlet müdahalesi geriden gelmiş ve oldukça etkisiz kalmıştır. Bu karşılaştırma, ajansal yapay zekânın kitlesel yayılımını da benzer şekilde kontrol etmenin çok güç olacağını düşündürmektedir. Bengio şöyle söylüyor:
Yapay zekâ ajanlarını kullanıma sunar sunmaz insanlar yararlarını görmeye başlayacak, ajanların ekonomik değeri giderek artacak ve hükümetler de bu teknolojinin tehlikelerini fark ettiğinde iş işten geçmiş olacak. Çünkü sağlayacağı ekonomik değer, herhangi bir kısıtlamayı veya yasaklamayı siyaset açısından güçleştirecek kadar yüksek olacak.
Yapay zekâ ajanlarının hızla yayılmasına hazırlanırken insanlar olarak bizlerin de kendi özneliğimize, yani karar verme ve eyleme geçme irademize her zamankinden daha çok sarılmamız gerektiği görülmektedir. Bengio bunu şöyle ifade ediyor:
Bir şeye kalkışmadan önce iyice düşünmemiz şarttır.
İçeriklerimizin bilimsel gerçekleri doğru bir şekilde yansıtması için en üst düzey çabayı gösteriyoruz. Gözünüze doğru gelmeyen bir şey varsa, mümkünse güvenilir kaynaklarınızla birlikte bize ulaşın!
Bu içeriğimizle ilgili bir sorunuz mu var? Buraya tıklayarak sorabilirsiniz.
Soru & Cevap Platformuna Git- 2
- 1
- 1
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- Türev İçerik Kaynağı: Scientific American | Arşiv Bağlantısı
- ^ R. Metz. Openai Scale Ranks Progress Toward ‘Human-Level’ Problem Solving. (11 Temmuz 2024). Alındığı Tarih: 14 Aralık 2024. Alındığı Yer: Bloomberg | Arşiv Bağlantısı
- ^ S. Ghaffary, et al. Openai Nears Launch Of Ai Agent Tool To Automate Tasks For Users. (13 Kasım 2024). Alındığı Tarih: 14 Aralık 2024. Alındığı Yer: Bloomberg | Arşiv Bağlantısı
- ^ Google DeepMind. Project Astra. (11 Aralık 2024). Alındığı Tarih: 14 Aralık 2024. Alındığı Yer: Google DeepMind | Arşiv Bağlantısı
- ^ W. Knight. Amazon Dreams Of Ai Agents That Do The Shopping For You. (9 Ekim 2024). Alındığı Tarih: 14 Aralık 2024. Alındığı Yer: WIRED | Arşiv Bağlantısı
- ^ C. Lu, et al. (2024). The Ai Scientist: Towards Fully Automated Open-Ended Scientific Discovery. ArXiV. | Arşiv Bağlantısı
- ^ A. S. Index. Yoshua Bengio - Ad Scientific Index 2025. Alındığı Tarih: 4 Ocak 2025. Alındığı Yer: AD Scientific Index | Arşiv Bağlantısı
- ^ A. M. Turing. Yoshua Bengio - A.m. Turing Award Laureate. Alındığı Tarih: 4 Ocak 2025. Alındığı Yer: A. M. Turing | Arşiv Bağlantısı
- ^ V. Milko, et al. 'Kill More': Facebook Fails To Detect Hate Against Rohingya. (22 Mart 2022). Alındığı Tarih: 14 Aralık 2024. Alındığı Yer: AP News | Arşiv Bağlantısı
- ^ A. P. B. Ortutay, et al. Amnesty Report Finds Facebook Amplified Hate Ahead Of Rohingya Massacre In Myanmar. (29 Eylül 2022). Alındığı Tarih: 14 Aralık 2024. Alındığı Yer: PBS News | Arşiv Bağlantısı
- ^ Future of Life Institute. Pause Giant Ai Experiments: An Open Letter - Future Of Life Institute. (1 Temmuz 2024). Alındığı Tarih: 14 Aralık 2024. Alındığı Yer: Future of Life Institute | Arşiv Bağlantısı
Evrim Ağacı'na her ay sadece 1 kahve ısmarlayarak destek olmak ister misiniz?
Şu iki siteden birini kullanarak şimdi destek olabilirsiniz:
kreosus.com/evrimagaci | patreon.com/evrimagaci
Çıktı Bilgisi: Bu sayfa, Evrim Ağacı yazdırma aracı kullanılarak 13/01/2025 21:46:44 tarihinde oluşturulmuştur. Evrim Ağacı'ndaki içeriklerin tamamı, birden fazla editör tarafından, durmaksızın elden geçirilmekte, güncellenmekte ve geliştirilmektedir. Dolayısıyla bu çıktının alındığı tarihten sonra yapılan güncellemeleri görmek ve bu içeriğin en güncel halini okumak için lütfen şu adrese gidiniz: https://evrimagaci.org/s/19274
İçerik Kullanım İzinleri: Evrim Ağacı'ndaki yazılı içerikler orijinallerine hiçbir şekilde dokunulmadığı müddetçe izin alınmaksızın paylaşılabilir, kopyalanabilir, yapıştırılabilir, çoğaltılabilir, basılabilir, dağıtılabilir, yayılabilir, alıntılanabilir. Ancak bu içeriklerin hiçbiri izin alınmaksızın değiştirilemez ve değiştirilmiş halleri Evrim Ağacı'na aitmiş gibi sunulamaz. Benzer şekilde, içeriklerin hiçbiri, söz konusu içeriğin açıkça belirtilmiş yazarlarından ve Evrim Ağacı'ndan başkasına aitmiş gibi sunulamaz. Bu sayfa izin alınmaksızın düzenlenemez, Evrim Ağacı logosu, yazar/editör bilgileri ve içeriğin diğer kısımları izin alınmaksızın değiştirilemez veya kaldırılamaz.