Yapay Zekânın Bir Pandemi Başlatması Mümkün mü?
Son yıllarda sadece ChatGPT gibi büyük dil modelleri olan sohbet botlarında değil, ayrıca biyolojik verilere dayalı olarak eğitilmiş özel yapay zekâ modellerinde de önemli ilerlemeler kaydedildi. Bu modeller; aşı geliştirme sürecini hızlandırmak, hastalıkları tedavi etmek ve kuraklığa dayanıklı bitkiler geliştirmek gibi uygulamalar için büyük potansiyele sahiptir. Ancak bu modelleri yararlı kılan nitelikler, aynı zamanda potansiyel tehlikeleri de beraberinde getirmektedir. Örneğin güvenli bir aşı tasarlayabilecek bir yapay zekâ modelinin, öncelikle neyin zararlı olduğunu bilmesi gerekmektedir.
Önde gelen akademik bilim dergisi Science üzerinden yayımlanan bir makalede uzmanlar, biyolojik modeller için zorunlu denetim ve güvenlik önlemlerinin getirilmesi çağrısında bulunmaktadır.[1] Uzmanlar, makalede şu anki yapay zekâ modellerinin biyolojik risklere "önemli ölçüde katkıda bulunmadığını", ancak gelecekteki yapay zekâ sistemlerinin, yeni bir pandemiye neden olabilecek patojenlerin geliştirilmesine katkı sağlayabileceğini öngörüyor.
İngiltere'de yer alan Stanford Üniversitesi Tıp Fakültesi, Fordham Üniversitesi ve Johns Hopkins Sağlık Güvenliği Merkezinden halk sağlığı ve hukuk uzmanları, makalede şöyle söylemektedir:
İleri düzey biyolojik modellerin oluşturulması için gerekli temel bileşenler hâlihazırda var olabilir ya da henüz olmasa bile yakında var olacaktır. Etkili bir yönetişim sistemi oluşturmak için şimdi harekete geçilmesi gerekmektedir.
Makalenin ortak yazarlarından ve Johns Hopkins Sağlık Güvenliği Merkezinde müdür yardımcısı olan Anita Cicero, konuya dair şunları söylemektedir:
Şimdi plan yapmamız gerekiyor. Gelecekte özellikle güçlü olan modellerin riskini azaltmak için yapılandırılmış bazı hükûmet gözetimi ve gereksinimlerine ihtiyaç duyulmaktadır.
Biyolojik Unsurların Silah Olarak Kullanılması
İnsanlar, biyolojik unsurları silah olarak kullanma konusunda uzun bir geçmişe sahiptir. Örnek olarak, 14. yüzyılda Moğol ordularının veba bulaşmış cesetleri düşman duvarlarının ötesine fırlattığı ve bu durumun, Avrupa'da vebanın yayılmasına katkıda bulunmuş olabileceği düşünülmektedir.[2] İkinci Dünya Savaşı sırasında veba ve tifüs gibi biyolojik silahlarla deneyler yapılmış, hatta o dönem Japonya bu silahları Çin'in birkaç şehrinde kullanmıştır. Soğuk Savaş'ın zirve yaptığı dönemde ise Amerika ve Sovyetler Birliği geniş biyolojik silah programları yürütmüştür. Ancak, 1972'de her iki taraf ve dünya genelindeki diğer ülkeler bu tür Ar-Ge programlarını durdurmayı ve biyolojik silahları yasaklamayı kabul ederek Biyolojik Silahlar Sözleşmesi'ni oluşturmuştur.
Bu uluslararası anlaşma genel olarak etkili kabul edilse de, biyolojik silah tehdidini tamamen ortadan kaldıramamıştır. Daha 1990'ların başında bile, Japon Aum Şinrikyo tarikatı, antraks gibi biyolojik silahlar geliştirme ve bunu dünyaya yayma girişiminde bulunmuştur ancak bu girişimler, teknik uzmanlık eksikliği nedeniyle başarısız olmuştur.[3]
Yapay Zekânın Biyolojik Silah Olarak Kullanımı
Uzmanlar, gelecekteki yapay zekâ sistemlerinin tam olarak bu teknik uzmanlık boşluğunu doldurabileceği konusunda uyarılarda bulunuyor. Cicero, şöyle söylüyor:
Bu modeller daha güçlü hale geldikçe, kötü niyetli bir aktörün zarar vermek için ihtiyaç duyacağı teknik uzmanlık düzeyi de düşecektir.
Silah olarak kullanılan tüm patojenler, kişiden kişiye yayılabilir özellikte değildir ve bu özellikte olanlar da bulaşıcılıkları arttıkça genellikle daha az ölümcül hale gelir. Ancak bir yapay zekâ, bir patojenin bulaşıcılığını koruyacağı ve aynı zamanda öldürücülüğünü sürdürebileceği etkili ve verimli yollar bulabilir. Bu durum, yalnızca bir terör grubu ya da kötü niyetli bir aktör tarafından değil; aynı zamanda doğru ve yeterli protokollere sahip olmayan bir şirket, devlet ve hatta iyi niyetli bir araştırmacı tarafından da gerçekleştirilebilir.
Sanal bir biyolojik silah taslağı ile fiziksel bir biyolojik silah arasındaki geçişkenlik şaşırtıcı derecede azdır. Günümüzde her ne kadar tehlikeli genetik dizilerin satın alınmasını önlemeye yönelik olarak bazı önlemler bulunsa da, bu önlemler hem ABD içinde hem de ABD dışında düzensiz bir şekilde uygulanmaktadır ve genellikle yetersiz kalmaktadır. Şu anda birçok şirketin, biyolojik materyalleri çevrim içi olarak sipariş etmeye olanak tanıdığı göz önüne alındığında, bu engellerin aşılması pek zor olmayacaktır. Cicero, durumu şöyle ifade etmektedir:
Barajda küçük ama bir sürü delik var ve her birinden dışarı su fışkırıyor.
Cicero ve makalenin yazarları diğer uzmanlar, zorunlu tarama gereksinimlerini teşvik ediyor. Ancak bunların bile biyolojik yapay zekâ modellerinin risklerine karşı tam bir güvenlik sağlayamayacağını belirtiyorlar.
Yapay Zekânın Biyolojik Silah Olarak Kullanılmasını Önlemek
2024 başlarında Harvard, Moderna ve Microsoft gibi şirketlerden araştırmacılar, akademisyenler ve sektör profesyonelleri de dahil olmak üzere alandan ve sektörden 175 uzman; Sorumlu Yapay Zekâ ve Biyotasarım (İng: "Responsible AI x Biodesign") başlıklı bir komünite bildirisinde yer alan bir dizi gönüllü taahhüt imzaladı. Bu imzacılardan biri olan Cicero; kendisi ve makalenin ortak yazarlarının, bu taahhütlerin anlamlı ama risklere karşı korunmada yetersiz kaldığını düşündüklerini belirtiyor. Makale, diğer yüksek riskli biyolojik alanlarda (örneğin, Ebola virüsü ile laboratuvarda çalışma gibi) gönüllü taahhütlere güvenilmediğini, dolayısıyla hukuki bir bağlayıcılığı bulunmayan bir sözün etkisiz kalacağını vurgulayarak alana yönelik regülasyonlar getirilmesinin önemine dikkat çekiyor.
Aslında maddi destek istememizin nedeni çok basit: Çünkü Evrim Ağacı, bizim tek mesleğimiz, tek gelir kaynağımız. Birçoklarının aksine bizler, sosyal medyada gördüğünüz makale ve videolarımızı hobi olarak, mesleğimizden arta kalan zamanlarda yapmıyoruz. Dolayısıyla bu işi sürdürebilmek için gelir elde etmemiz gerekiyor.
Bunda elbette ki hiçbir sakınca yok; kimin, ne şartlar altında yayın yapmayı seçtiği büyük oranda bir tercih meselesi. Ne var ki biz, eğer ana mesleklerimizi icra edecek olursak (yani kendi mesleğimiz doğrultusunda bir iş sahibi olursak) Evrim Ağacı'na zaman ayıramayacağımızı, ayakta tutamayacağımızı biliyoruz. Çünkü az sonra detaylarını vereceğimiz üzere, Evrim Ağacı sosyal medyada denk geldiğiniz makale ve videolardan çok daha büyük, kapsamlı ve aşırı zaman alan bir bilim platformu projesi. Bu nedenle bizler, meslek olarak Evrim Ağacı'nı seçtik.
Eğer hem Evrim Ağacı'ndan hayatımızı idame ettirecek, mesleklerimizi bırakmayı en azından kısmen meşrulaştıracak ve mantıklı kılacak kadar bir gelir kaynağı elde edemezsek, mecburen Evrim Ağacı'nı bırakıp, kendi mesleklerimize döneceğiz. Ama bunu istemiyoruz ve bu nedenle didiniyoruz.
Mesela araştırmacılar hükûmetlerin; makine öğrenimi, enfeksiyon hastalıkları ve etik alanlarından uzmanlarla iş birliği yaparak biyolojik yapay zekâ modellerinin kamuya açılmadan önce geçmesi gereken bir test geliştirilmesini öneriyor. Makalede bu testin, yapay zekâ modellerinin "pandemi düzeyinde risk oluşturabilecek" bir potansiyele sahip olup olmadığını odak noktası yapması gerektiği belirtiliyor. Cicero, şöyle söylüyor:
Sağlanması gereken bazı temel gereksinimler olması gerek. En azından, biyolojik tasarım modelleri ve güçlü büyük dil modellerinin risk-fayda değerlendirmeleri ve piyasaya sürülmeden önceki gözden geçirilme süreçleri, bu modellerin pandemi düzeyinde risklere yol açma ihtimalini de dahil etmelidir.
Bununla birlikte makalenin yazarları, bir yapay zekâ sisteminde bu tür yeteneklerin test edilmesinin de kendi başına bir risk teşkil edebilecek olmasından ötürü, "vekil değerlendirmeler" yapılmasını öneriyor. Örneğin, bir yapay zekânın zararsız ama sıfırdan yeni bir patojen sentezleyip sentezleyemeyeceğini test etmek, insanlarda öldürücü olan bir patojeni de sentezleme kabiliyetinin olup olmadığının bir değerlendirmesi olarak kabul edilebilir. Böyle bir test ile doğrudan ölümcül bir patojen taslağı yaratılmaksızın, yapay zekâ modelinin patojen sentezleme kabiliyeti test edilebilir. Böylece test sonucunda model geliştiricisi taraf, bir modele erişimin kısıtlanıp kısıtlanmayacağına ve ne ölçüde kısıtlanacağına karar verebilir.
Makalede ayrıca, gözetim politikalarının; açık kaynak modeller piyasaya sürüldükten sonra bu modellerin değiştirilebileceği ve bu süreçte potansiyel olarak daha tehlikeli hale gelebileceği gerçeğini de ele alması gerektiği belirtiliyor. Bunlara ilaveten araştırmacılar; ABD özelinde, "kaygı uyandıran patojenik özelliklere" dair geniş ölçekli veri setlerinin sorumlu bir şekilde paylaşımını yönlendirecek bir dizi standart oluşturmasını ve federal bir kurumun, bunun için ABD Yapay Zekâ Güvenlik Enstitüsü ile iş birliği yapmasını öneriyor. Örnek olarak ABD ile yakından çalışan Birleşik Krallık Yapay Zekâ Güvenlik Enstitüsü, lider yapay zekâ modellerinde biyolojik riskler de dahil olmak üzere güvenlik testleri gerçekleştirmiştir. Ancak bu testler, çoğunlukla genel amaçlı büyük dil modellerinin yeteneklerini değerlendirmeye odaklanmıştır.
Yapay zekâ araştırmalarını aşırı düzenlemeyle engellemekten kaçınmak için makalede düzenleyici organların başlangıçta yalnızca iki tür modele odaklanması tavsiye ediliyor: çok büyük miktarda biyolojik veriyle eğitilmiş büyük yapay zekâ modelleri ve özellikle halka açık olmayan hassas biyolojik verilerle, örneğin viral genetik dizilerle pandemiye yol açma potansiyeli arasındaki bağlantılara dair yeni bilgilerle eğitilmiş büyük ya da küçük yapay zekâ modelleri. Cicero, konu hakkında şöyle söylüyor:
Sektörü baltalayacak ve gelişmeyi engelleyecek bir sonuca varmak istemiyoruz. Bu bir dengeleme eylemidir.
Makalede, özellikle gelecekte yapay zekâlar daha özerk ve otonom özellikler kazanarak kendi kendilerine araştırma yapabilecek kapasiteye sahip oldukça "kaygı uyandıran modeller"in kapsamının zamanla genişletilebileceği söyleniyor. Cicero, şöyle söylüyor:
Pfizer'in bilim sorumlusu olarak hareket edecek potansiyel bir yapay zekâ modelinin, gerçek bir bilim insanının hızının ve verimliliğinin 100 katı bir hızla çalıştığını hayal edin. Bu durum, ilaç tasarımı ve keşfinde inanılmaz ilerlemelere yol açabilir. Ancak, aynı zamanda büyük bir risk de oluşturabilir.
Sonuç
Makale, bu risklerin tüm dünyayı tehdit ettiği göz önünde bulundurularak, riskleri yönetmek için uluslararası iş birliğine duyulan ihtiyacı vurguluyor. Bununla birlikte, makalede politikaların uyumlu hale getirilmesinin ideal olacağı belirtiliyor. En ileri yapay zekâ teknolojisine sahip ülkelerin, uluslararası uyumun getirebileceği bazı maliyetlere rağmen etkili değerlendirmeleri öncelemesi gerektiğine özellikle yer veriliyor.
Cicero; yapay zekâ yeteneklerinde öngörülen gelişmeler ve biyolojik materyallerin sağlanmasının ve deneyleri uzaktan gerçekleştirebilecek üçüncü taraflarla çalışmanın görece kolaylığı nedeniyle, yapay zekânın neden olabileceği biyolojik risklerin, önümüzdeki 20 yıl içinde ve belki de çok daha kısa sürede kendini gösterebileceğini düşünüyor. Cicero, şöyle söylüyor:
Mevcut yapay zekâ modellerin sadece şu anki versiyonlarını değil, bir sonraki versiyonlarını da düşünmemiz gerekiyor. Çünkü gördüğümüz üzere bu modeller, üstel bir artış göstererek gelişiyor. Bu modeller giderek daha güçlü hâle gelecek.
İçeriklerimizin bilimsel gerçekleri doğru bir şekilde yansıtması için en üst düzey çabayı gösteriyoruz. Gözünüze doğru gelmeyen bir şey varsa, mümkünse güvenilir kaynaklarınızla birlikte bize ulaşın!
Bu içeriğimizle ilgili bir sorunuz mu var? Buraya tıklayarak sorabilirsiniz.
Soru & Cevap Platformuna Git- 0
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- Çeviri Kaynağı: Time | Arşiv Bağlantısı
- ^ D. Bloomfield, et al. (2024). Ai And Biosecurity: The Need For Governance. American Association for the Advancement of Science (AAAS), sf: 831-833. doi: 10.1126/science.adq1977. | Arşiv Bağlantısı
- ^ B. R. Schneider. Biological Weapon. (30 Kasım 2024). Alındığı Tarih: 7 Aralık 2024. Alındığı Yer: Encyclopedia Britannica | Arşiv Bağlantısı
- ^ K. B. Olson. (2009). Aum Shinrikyo: Once And Future Threat?. Centers for Disease Control and Prevention (CDC), sf: 413-416. doi: 10.3201/eid0504.990409. | Arşiv Bağlantısı
Evrim Ağacı'na her ay sadece 1 kahve ısmarlayarak destek olmak ister misiniz?
Şu iki siteden birini kullanarak şimdi destek olabilirsiniz:
kreosus.com/evrimagaci | patreon.com/evrimagaci
Çıktı Bilgisi: Bu sayfa, Evrim Ağacı yazdırma aracı kullanılarak 18/12/2024 13:53:35 tarihinde oluşturulmuştur. Evrim Ağacı'ndaki içeriklerin tamamı, birden fazla editör tarafından, durmaksızın elden geçirilmekte, güncellenmekte ve geliştirilmektedir. Dolayısıyla bu çıktının alındığı tarihten sonra yapılan güncellemeleri görmek ve bu içeriğin en güncel halini okumak için lütfen şu adrese gidiniz: https://evrimagaci.org/s/19207
İçerik Kullanım İzinleri: Evrim Ağacı'ndaki yazılı içerikler orijinallerine hiçbir şekilde dokunulmadığı müddetçe izin alınmaksızın paylaşılabilir, kopyalanabilir, yapıştırılabilir, çoğaltılabilir, basılabilir, dağıtılabilir, yayılabilir, alıntılanabilir. Ancak bu içeriklerin hiçbiri izin alınmaksızın değiştirilemez ve değiştirilmiş halleri Evrim Ağacı'na aitmiş gibi sunulamaz. Benzer şekilde, içeriklerin hiçbiri, söz konusu içeriğin açıkça belirtilmiş yazarlarından ve Evrim Ağacı'ndan başkasına aitmiş gibi sunulamaz. Bu sayfa izin alınmaksızın düzenlenemez, Evrim Ağacı logosu, yazar/editör bilgileri ve içeriğin diğer kısımları izin alınmaksızın değiştirilemez veya kaldırılamaz.
This work is an exact translation of the article originally published in Time. Evrim Ağacı is a popular science organization which seeks to increase scientific awareness and knowledge in Turkey, and this translation is a part of those efforts. If you are the author/owner of this article and if you choose it to be taken down, please contact us and we will immediately remove your content. Thank you for your cooperation and understanding.