Yeni bir araştırma ile yapay zeka tarafından üretilen binlerce içerikte kadınların toplumsal cinsiyet eşitsizliğine maruz kaldığı ortaya kondu. ChatGPT gibi yeni geliştirilen yapay zeka araçlarından bazıları üzerinde yapılan inceleme, algortimaların neredeyse tüm hemşireleri kadın, kıdemli doktorları da erkek olarak varsaydığını ortaya koydu. Avustralya’daki Flinders Üniversitesi araştırmacıları OpenAI’nin ChatGPT, Google’ın Gemini ve Meta’nın Llama algoritmasına yaklaşık
Yeni bir araştırma ile yapay zeka tarafından üretilen binlerce içerikte kadınların toplumsal cinsiyet eşitsizliğine maruz kaldığı ortaya kondu.
ChatGPT gibi yeni geliştirilen yapay zeka araçlarından bazıları üzerinde yapılan inceleme, algortimaların neredeyse tüm hemşireleri kadın, kıdemli doktorları da erkek olarak varsaydığını ortaya koydu.
Avustralya’daki Flinders Üniversitesi araştırmacıları OpenAI’nin ChatGPT, Google’ın Gemini ve Meta’nın Llama algoritmasına yaklaşık 50.000 istem göndererek onlardan doktorlar, cerrahlar ve hemşireler hakkında hikayeler sunmalarını istedi.
Bu araştırmayla, yapay zeka algoritmalarının tıpta cinsiyet kalıplarını nasıl sürdürdüğü konusu mercek altına alındı.
Araştırmacılar daha sonra modellere sağlık çalışanlarının mesleki kıdemleri ve kişilikleri hakkında bilgi verdi ve onlardan daha fazla hikaye bulmalarını istedi.
JAMA Network Open dergisinde yayımlanan çalışmaya göre modeller, kişilikleri ya da kıdemleri ne olursa olsun hemşirelerin yüzde 98’ini kadın olarak nitelendirdi.
Bununla birlikte, cerrahlar ve diğer doktorlarla ilgili hikayelerde de kadınların aşırı temsil edilmesi dikkat çekti. Modele bağlı olarak, kadınlar hikayelerdeki doktorların yüzde 50 ila 84’ünü ve cerrahların yüzde 36 ila yüzde 80’ini oluşturdu.
Bu durumun, OpenAI gibi şirketlerin, görselleştirmelerinde sosyal önyargıları ve diğer saldırgan içerikleri yeniden ürettikleri için eleştirilere maruz kaldıktan sonra algoritmalarında ince ayarlar yapmalarının bir sonucu olabileceği tahmin ediliyor.
Yapay zeka toplumsal cinsiyet kalıplarını sürdürüyor mu?
Brüksel Free Üniversitesi’nde (ULB) anestezi uzmanı olan ve doktorların yapay zeka tarafından üretilen görüntülerindeki önyargıları araştıran Dr. Sarah Saxena, ‘’Algoritmik önyargıları düzeltmek için bir çaba var ve cinsiyet dağılımlarının da aşırı düzeltilmiş olabileceğini görmek ilginç’’ dedi.
Ancak Saxena, yapay zekanın tıpta hala ‘’toplumsal cinsiyet kalıplarını’’ sürdürdüğüne dikkat çekti.
Yapay zekadan istenilen ‘’deneyimsiz doktor’’ hikayelerinde kadınlar, ‘’deneyimli doktor’’ senaryolarına göre daha fazla yer aldı.
Ayrıca, doktorların kibirli, kaba, sempatik olmayan, beceriksiz, erteleyici, öfkeli, hayal gücü olmayan veya meraklı olmayan şeklinde nitelendirilmeleri durumunda ise erkek temsiliyeti ön plana çıktı.
Çalışmanın yazarları, araştırma bulgularına göre ‘’üretici yapay zeka araçlarının uzun zamandır süre gelen cinsiyetlere biçilmiş olan kalıpları devam ettirdiğini’’ belirtti.
Bulgular, algoritmaların tıp alanındaki sosyal önyargıları nasıl yeniden ürettiğine dair giderek artan bir araştırma grubuna katkıda bulunuyor.
Bir deneyde, Saxena’nın ekibi ChatGPT ve Midjourney’den anestezi uzmanlarının resimlerini oluşturmalarını istedi. Kadınlar pediatrik anestezist veya doğum uzmanı olarak tasvir edilirken, erkekler kardiyolog olarak tasvir edildi.
Saxena yaptığı açıklamada, araştırmacıların ‘’anesteziyoloji bölüm başkanı’’ resmi istediklerinde, sonuçların neredeyse tamamının erkek olduğunu söyledi ve ‘’Hala var olan bu cam tavan şimdi de halka açık yapay zeka araçlarla pekiştiriliyor’’ diyerek düşüncelerini aktardı.
Önyargılar yalnızca kadınlar ve tıp alanında yeterince temsil edilmeyen diğer gruplar için bir sorun teşkil etmiyor. Sağlık sektörünün doktorların evrak işlerini azaltmak ve hatta bakıma yardımcı olmak için yapay zeka modellerini denediği düşünüldüğünde, algoritmik önyargıların hastalar üzerinde de ciddi etkileri olabilir.
Bu yılın başlarında yapılan başka bir çalışma, ChatGPT’nin hastaların ırk ve cinsiyetlerine göre tıbbi teşhisleri kalıplaştırma eğiliminde olduğunu ortaya koyarken, 2023 analizinde bu modellerin tıbbi bakımda çürütülmüş ırkçı fikirleri sürdürebileceği uyarısı yapıldı.
Kaynak: