Yapay Zekâ ve Tıp Etiği: Yapay Zekâyı Tıp Alanında Kullanmak Ne Kadar Doğru?
Yapay Zekâ; akıl yürütme, öğrenme, algoritma oluşturma ve komutları gerçekleştirme olaylarının, insanların sinir sistemlerinden ilham alınarak geliştirilen ve bir dizi hesaplama teknolojisine dayanan bir bilimdir. Sanayi devrimi ile temelleri atılan makineleşme, önceleri sadece fiziksel işlerde insanlığa yardım ederken günümüzde insanlık düşünce ve bilgi işlem gerektiren durumlarda da yapay zekâya danışabilmektedir. Bundan dolayı yapay zekâ son yıllarda hayatımızın bir parçası haline gelmiştir.
Günlük işlemlerimizden en komplike işlemlere kadar insanlığa her konuda destek sağlayan yapay zekâ, tıp alanında da etkin bir şekilde kullanılmaktadır. Teknoloji geliştikçe yapay zekânın bu alanda daha fazla kullanılacağı ve kendisine verilen görevlerin daha da karmaşıklaşacağı tahmin edilebilir. Bu kulağa her ne kadar iyi ve yararlı bir gelişme gibi gelse de bilgisayar uzmanlarının ve hekimlerin yapay zekânın nasıl davranması gerektiği ve etik açısından bizleri nasıl etkileyeceği hakkında oldukça yoğun şüpheleri vardır. Bu şüphelerin nedeni, bilim insanlarının yapay zekâyı tıp etiğinin ilkelerini benimseyecek şekilde eğitmenin mümkün olup olmayacağı hakkında emin olamamalarıdır.[1], [2]
Tıp Etiğinin İlkeleri
Etik, insanoğlunun oluşturduğu değerleri inceleyen ve bunları "iyi" veya "kötü" ya da "doğru" veya "yanlış" şeklinde yorumlayan bir felsefe dalıdır. Tıp etiği ise hekimlerin davranışlarının etik yönden nasıl olması gerektiğini söyleyen, eylemlerinde onlara yol gösteren kuralların tamamıdır.
Tıp etiğinin ilkelerinin nasıl olması gerektiği konusunda en önemli bilimsel çalışmalardan biri Tom L. Beauchamp ve James F. Childress tarafından yapılmıştır. Bu araştırmacılar Biyomedikal Etik Prensipleri isimli kitaplarında 4 farklı temel tıp ilkesinden bahsederler:[3], [4], [5]
- Yarar Sağlama İlkesi: Tıp etiğinin en temel ve en önemli ilkesi olan yarar sağlama ilkesi; sağlık çalışanının hasta yaşamına destek vermesini, onu tedavi ederek acısını dindirmesini ve hastaya her koşulda yarar sağlaması gerektiğinden bahseder.
- Zarar Vermeme İlkesi: Tıp etiğinde yararlılık ilkesine bağlı olarak gelişen zarar vermeme ilkesi, hastaya müdahale anında hastaya zarar vermekten kaçınılması gerektiğini söyler.
- Özerkliğe Saygı İlkesi: Hasta ve hekim arası şeffaflığı hedefleyen bu ilke hastaların haklarına saygı gösterilmesi gerektiğinden bahseder.
- Adalet İlkesi: Sonuncu etik ilke, tüm tıbbi kaynakların ihtiyaca göre dürüstçe ve adaletli bir şekilde paylaştırılması gerektiğini söyler.[4], [5]
Yapay zekânın tıp etiğini nasıl uygulayacağı, bu uygulamaların gerçekten etik olup olmayacağı gibi hem yapay zekânın tercihleri sırasında hem de tercih sonrasında yaşanabilecek sorunlar dikkatle ele alınmalıdır. Bu sorunları önceden tahmin etmek bizi olası felaketlerden koruyacaktır.
Ahlakın Kodlanması ve Sorumluluk
Yapay zekânın "ahlaklı" olan davranışları yapması için nasıl kodlanacağı hakkındaki bilgilerimiz henüz yok denebilecek düzeydedir. Çünkü ahlak kuralları, fizik kuralları gibi kesin sonuç veren ve her koşulda aynı olan kurallar değildir. Farklı olaylarda farklı yorumlanmaları gerekmektedir. Ayrıca her ülkenin, dinin ve hatta her insanın farklı bir etik anlayışı ve dünya görüşünün olması, yapay zekâya kodlanacak etik kuralların doğruluğunun değişken olacağı sonucunu doğurmaktadır.
Örneğin kalp krizi şikâyeti yüzünden hastaneye farklı zamanlarda gelen 2 farklı hasta düşünelim. İlk gelen hasta işlediği bir suç dolayısı ile hüküm giymiş suçlu biri, daha sonra gelen ise herhangi bir sabıka kaydı bulunmayan biri olsun. Yalnızca birini kurtarmaya yetecek yardım malzemesi olduğu bir durumda yapay zekâ kimi seçmelidir? İlk gelen hastayı mı tedavi etmelidir yoksa suçlu olmayan hastayı mı?
Böyle bir durumda yapay zekânın kimi kurtaracağı, yapay zekânın kodlama ve eğitimini üstlenen kişilerin ahlak anlayışına göre belirlenecektir. Alınan kararın sorumluluk yükünün kimin üzerinde olacağı da oldukça önem arz etmektedir. Kararların sonuçlarını yapay zekânın üstlenmesi ne derece etik olacaktır? İnsani anlamda bir iradesi olmayan bir mekanizma yaptıklarının sonuçlarını anlayamayacağı gibi yanlış kararları sonucunda ceza alması durumunda cezayı da algılayamayacaktır. Bu durum sorumluluk yükünün yapay zekâyı kodlayanlara verilmesi gerektiği düşüncesini öne çıkarabilir.[1], [2], [6], [7]
- OpenAI, GPT-4o İsimli Yeni Modelini Tanıttı! Anlık Diyaloglar, Anlık Çeviri, Anlık Video Analizi ve Çok Daha Fazlası!
- IBM Watson, Doktorların 160 Saatte Belirlediği Kanser Tedavi Programını 10 Dakikada Hazırlayabiliyor!
- Bir Algoritma, İnsanlığın En İkonik Şarkısını Seçti: Smells Like Teen Spirit - Nirvana
Ayrıca tüm bu sorunları çözsek bile, yapay zekâyı tam olarak "ahlaklı" kodlamayı başarmış olsak da bu onu gerçek anlamda etik yapar mı? Yoksa sadece kendine verilen kuralları uygulayan bir makine mi olur? Küçük bir hatanın bile büyük sonuçlar doğuracağı tıp alanında yapay zekânın kullanım alanlarını genişletmeden önce çözmemiz gereken problemlerin oldukça fazla olduğunu görüyoruz.[1], [2], [6], [7]
Önyargı ve Taraflı Öğrenme
Yapay zekâya eğitim için sağlanan veriler nedeniyle yapay zekânın bazı durumlarda cinsiyetçi ve ırkçı davranışlar sergilediği görülmüştür. Örneğin bazı çalışmalarda, otomatik reklam dağıtan yapay zekâların erkeklere kadınlara göre daha yüksek ücretli işler için reklam verme eğiliminde olduğu gözlenmiştir. Ayrıca yapay zekânın işe alım sırasında da görüşmeye gelenler konusunda önyargılı davrandığı tespit edilmiştir. Bir yapay zekâ, işe alım değerlendirmelerinde erkeklerin başvurularını kadınların başvurularına göre daha üst sıraya alarak erkekleri işe alım konusunda daha fazla tercih etmiştir.
Bu tarz önyargıların temeli genellikle yapay zekâya sağlanan verilerin taraflı olmasıdır. Örneğin yüz tanıma cihazlarında kullanılan Faces in the Wild isimli veri ağında %70 erkek ve %80 beyaz tenli kişilerin verilerinin bulunduğu görülmüştür. Bu durum kadın ve siyah ten renkli kişilerin yüz tanımasında zorluk yaşayabilmesine neden olmaktadır.[2], [7]
Aslında maddi destek istememizin nedeni çok basit: Çünkü Evrim Ağacı, bizim tek mesleğimiz, tek gelir kaynağımız. Birçoklarının aksine bizler, sosyal medyada gördüğünüz makale ve videolarımızı hobi olarak, mesleğimizden arta kalan zamanlarda yapmıyoruz. Dolayısıyla bu işi sürdürebilmek için gelir elde etmemiz gerekiyor.
Bunda elbette ki hiçbir sakınca yok; kimin, ne şartlar altında yayın yapmayı seçtiği büyük oranda bir tercih meselesi. Ne var ki biz, eğer ana mesleklerimizi icra edecek olursak (yani kendi mesleğimiz doğrultusunda bir iş sahibi olursak) Evrim Ağacı'na zaman ayıramayacağımızı, ayakta tutamayacağımızı biliyoruz. Çünkü az sonra detaylarını vereceğimiz üzere, Evrim Ağacı sosyal medyada denk geldiğiniz makale ve videolardan çok daha büyük, kapsamlı ve aşırı zaman alan bir bilim platformu projesi. Bu nedenle bizler, meslek olarak Evrim Ağacı'nı seçtik.
Eğer hem Evrim Ağacı'ndan hayatımızı idame ettirecek, mesleklerimizi bırakmayı en azından kısmen meşrulaştıracak ve mantıklı kılacak kadar bir gelir kaynağı elde edemezsek, mecburen Evrim Ağacı'nı bırakıp, kendi mesleklerimize döneceğiz. Ama bunu istemiyoruz ve bu nedenle didiniyoruz.
Ayrıca dilimize yerleşmiş bazı kalıplaşmış ifadelerin toplumsal önyargıları yapay zekâya nasıl aktardığını inceleyen bir çalışmada, "kadın" ve "hemşirelik" kavramları arasında güçlü bir bağlantı bulunmuştur. Aynı çalışmada "silah" ve "siyahi" kelimelerinin de birbirleri ile ilişkilendirilmesi önyargının ne kadar fazla olduğunu anlamamız açısından oldukça önemlidir. Yine benzer bir araştırmada Microsoft veri ağında kayak ve tenis raketleri gibi spor malzemeleri erkek bireyler ile ilişkilendirilirken kaşık ve çatal gibi mutfak eşyaları kadın bireyler ile ilişkilendirilmiştir.
Ayrıca genetik araştırmaların yapıldığı çalışmalarda daha az veri alınan cinsiyet veya ırklarda ortaya çıkacak sonuç detaylı olmayacak ve yetersiz veriden dolayı birçok aksilik olacaktır. Örneğin, beyaz ten rengine sahip olmayan ırklardaki kardiyovasküler olayların riskini belirmek için, Framingham Kalp Çalışmasının verileri kullanıldığı zaman ve riskin "aşırı yüksek" veya "aşırı düşük" olduğu tahmin edilmiş ve yeterince güvenilir olmayan değerlere ulaşılmıştır.
Eğer yapay zekânın oldukça önyargılı kararlar verdiği olaylar kontrol altına alınmadan ve sorunlar çözülmeden tıp alanında yapay zekâya derin görevler verilirse oldukça büyük hatalar yapılabilir ve birçok insan mağdur olabilir.[2], [7]
Yapay zekâ sistemlerinin giderek karmaşıklaşması; özerkliğe saygı ilkesinin temeli olan bireylerin kendi kişisel bilgileri üzerindeki kontrolünü de zayıflatmaktadır. Bireylerin kendisinden hekimler yolu ile toplanan bilgilerin 3. kişilere ulaşması ihtimali hasta-hekim gizliliğini oldukça olumsuz etkileyecektir.[2]
İşsizlik
Yapay zekânın giderek hızlı bir şekilde gelişme kaydetmesi ve gittikçe insanların yapabileceği işleri kendi başına yapmaya daha da yakınlaşması insanların aklına yapay zekânın insanların yerini alabileceği fikrini getirmektedir. Dolayısıyla birçok insan, işlerini kaybetme konusunda endişelenmektedir. McKinsey Global Institute'nün yaptığı bir araştırmada yapay zekânın kullanımının artması sonucunda 800 milyon insanın 2030 yılına kadar işini kaybedeceği belirtilmektedir.
Ancak hatırlamak gerekir ki geçmişte işsizlik hakkında endişelenen Leontief, tıpkı atların motorların icadıyla unutulması ve kullanılmaması gibi insanların da yerini makinelerin alacağını düşünüyordu. Fakat geçmişte, makineleşme kısa dönemde insan gücünün yerini almış olsa bile uzun dönemde yeni iş kollarının açılmasına yol açmıştır. Kısa süreli işsizlik özellikle kalifiye olmayan işçileri etkileyecek olsa bile yapay zekânın kullanımının uzun vadeli sonuçları hem sosyal hem de ekonomik anlamda insanları iyi şekilde etkileyebilir.[2], [4]
Yapay zekânın hasta bakımını üstlenen hekimlerin yerini alması ise uzun vadede insanların yalnızlaşmasına, başka insanlarla iletişimlerinin azalmasına ve dolayısıyla toplumdan izole yaşamalarına sebep olabilir. Bunu engellemek için yapay zekânın hasta bakımındaki rolleri kesin bir şekilde belirlenmelidir.[7]
Sonuç
Görüldüğü üzere yapay zekânın dolaylı veya doğrudan oluşturduğu sorunların bazılarının çözümü hakkında fikirlerimiz olsa da bazı sorunların çözümü veya doğurabileceği başka sorunlar hakkında net düşüncelerimiz yoktur. Fakat bazı sorunlara henüz çözüm bulamamamız, bu sorunların gelecek yıllarda da çözümsüz kalacağı anlamına gelmemektedir. Yapılan araştırmalar yapay zekânın etik anlamdaki gelişimin oldukça iyi yönde olduğunu göstermektedir. Yapay zekânın kullanım alanlarının sınırlarını belirlemek ve yapay zekânın verdiği kararların hekimler tarafından denetlenmesi, olası etik sorunların birçoğuna çözüm olabilir.[2], [8]
İçeriklerimizin bilimsel gerçekleri doğru bir şekilde yansıtması için en üst düzey çabayı gösteriyoruz. Gözünüze doğru gelmeyen bir şey varsa, mümkünse güvenilir kaynaklarınızla birlikte bize ulaşın!
Bu içeriğimizle ilgili bir sorunuz mu var? Buraya tıklayarak sorabilirsiniz.
Soru & Cevap Platformuna Git- 4
- 1
- 1
- 1
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- ^ a b c M. Karabağ. (2021). Ahlaki Değerlerin Kodlanabilmesi Bağlamında Yapay Zekâ Etiğine Kuramsal Bir Bakış. Trt Akademi̇ | Cilt 06 | Sayı 13, sf: 748-767. | Arşiv Bağlantısı
- ^ a b c d e f g h T. Turan, et al. (2022). Yapay Zekâ Etiği: Toplum Üzerine Etkisi. Mehmet Akif Ersoy Üniversitesi Fen Bilimleri Enstitüsü Dergisi Cilt: 13 Sayı: 2, sf: 292-299. | Arşiv Bağlantısı
- ^ J. F. C. T. L. Beauchamp. Biyomedikal Etik Prensipleri. ISBN: 9786058695764.
- ^ a b c E. Aydın, et al. (2023). Tıp Etiği İlkeleri. Türkiye Klinikleri Tıp Etiği-Hukuku-Tarihi Dergisi 1995 - Cilt 3 Sayı 2, sf: 48-52. | Arşiv Bağlantısı
- ^ a b N. Ö. Büken, et al. (2023). Nedir Bu Tıp Etiği Dedikleri?. Sürekli Tıp Eğitimi Dergisi Cilt 11 Sayı 1, sf: 17-20. | Arşiv Bağlantısı
- ^ a b A. Topakkaya, et al. (2019). Yapay Zeka Ve Etik Ilişkisi. Felsefe Dünyası Dergisi Sayı 70, sf: 81-99. | Arşiv Bağlantısı
- ^ a b c d e C. H. Güvercin. (2020). Yapay Zekâ Ve Tıp Etiği. Tıpta Ve Enfeksiyon Hastalıklarında Yapay Zekâ. 1. Baskı. Ankara: Türkiye Klinikleri; 2022., sf: 24-29. | Arşiv Bağlantısı
- ^ A. Efe. (2021). Yapay Zekâ Risklerinin Etik Yönünden Değerlendirilmesi. Yapay Zekâ Risklerinin Etik Yönünden Değerlendirilmesi Bilgi Ve İletişim Teknolojileri Dergisi Cilt: 3, sf: 1-24. | Arşiv Bağlantısı
- L. Özdemir, et al. (2021). Sağlıkta Yapay Zekanın Kullanımı Ve Etik Sorunlar. Sağlık Ve Hemşi̇reli̇k Yöneti̇mi̇ Dergi̇si̇, sf: 439-445. | Arşiv Bağlantısı
- O. Hayran. (2019). Yeni Tıp Teknolojilerinin Kullanımı Ve Etik. J Biotechnol And Strategic Health Res. 2019;3(2), sf: 54-60. | Arşiv Bağlantısı
Evrim Ağacı'na her ay sadece 1 kahve ısmarlayarak destek olmak ister misiniz?
Şu iki siteden birini kullanarak şimdi destek olabilirsiniz:
kreosus.com/evrimagaci | patreon.com/evrimagaci
Çıktı Bilgisi: Bu sayfa, Evrim Ağacı yazdırma aracı kullanılarak 18/12/2024 15:04:09 tarihinde oluşturulmuştur. Evrim Ağacı'ndaki içeriklerin tamamı, birden fazla editör tarafından, durmaksızın elden geçirilmekte, güncellenmekte ve geliştirilmektedir. Dolayısıyla bu çıktının alındığı tarihten sonra yapılan güncellemeleri görmek ve bu içeriğin en güncel halini okumak için lütfen şu adrese gidiniz: https://evrimagaci.org/s/15091
İçerik Kullanım İzinleri: Evrim Ağacı'ndaki yazılı içerikler orijinallerine hiçbir şekilde dokunulmadığı müddetçe izin alınmaksızın paylaşılabilir, kopyalanabilir, yapıştırılabilir, çoğaltılabilir, basılabilir, dağıtılabilir, yayılabilir, alıntılanabilir. Ancak bu içeriklerin hiçbiri izin alınmaksızın değiştirilemez ve değiştirilmiş halleri Evrim Ağacı'na aitmiş gibi sunulamaz. Benzer şekilde, içeriklerin hiçbiri, söz konusu içeriğin açıkça belirtilmiş yazarlarından ve Evrim Ağacı'ndan başkasına aitmiş gibi sunulamaz. Bu sayfa izin alınmaksızın düzenlenemez, Evrim Ağacı logosu, yazar/editör bilgileri ve içeriğin diğer kısımları izin alınmaksızın değiştirilemez veya kaldırılamaz.