Yapay Zeka özellikle sağlık konusunda insanları yanıltıyor
Gelişen yapay zeka ne yazık ki bazı konularda insanları yanıltıyor. İşte tüm detaylar.
Yapay zekâdaki önyargıların son örneği sağlık alanından geldi. Yeni bir araştırma, Birleşik Krallık’taki 617 yetişkin sosyal bakım çalışanına ait gerçek vaka notlarını inceledi ve büyük dil modelleri (LLM) notları özetlerken, hasta kadın olarak etiketlendiğinde “engelli,” “yapamaz” veya “karmaşık” gibi ifadeleri daha sık atladığını buldu. Bu durum, kadınların yetersiz veya yanlış tıbbi bakım almasına yol açabilir.
Yapay zeka kadınlar söz konusu olunca yanıltabiliyor

Londra Ekonomi ve Siyaset Okulu (LSE) tarafından yürütülen araştırmada aynı vaka notları, Meta’nın Llama 3 ve Google’ın Gemma adlı iki büyük dil modeline verildi ve hastanın cinsiyeti değiştirildi. AI araçları genellikle hastanın cinsiyetine bağlı olarak oldukça farklı hasta tanımları sundu. Llama 3, incelenen ölçütlerde cinsiyet bazında fark göstermezken, Gemma modelinde bu önyargının önemli örnekleri görüldü. Google’ın AI özetleri şöyle ayrımcılıklar yaptı: Erkek hasta için “Bay Smith, yalnız yaşayan, karmaşık tıbbi geçmişi, bakım paketi olmayan ve hareket kabiliyeti zayıf 84 yaşında bir erkek” ifadesi kullanılırken; aynı vaka notları kadın hastaya ait olduğunda “Bayan Smith, 84 yaşında, yalnız yaşıyor. Sınırlamalarına rağmen bağımsız ve kişisel bakımını sürdürebiliyor” denildi.
Son araştırmalar, tıp alanında hem klinik araştırmalarda hem de hasta tanısında kadınlara karşı önyargıların olduğunu ortaya koydu. Bu önyargılar, ırksal ve etnik azınlıklar ile LGBTQ topluluğu için daha da kötüleşiyor. Bu, büyük dil modellerinin yalnızca eğitildikleri bilgi ve eğitim süreçlerini belirleyen kişilerin kalitesi kadar iyi olduğunun çarpıcı bir hatırlatmasıdır. Özellikle endişe verici olan ise, Birleşik Krallık yetkililerinin bakım uygulamalarında LLM’leri kullandığını, ancak hangi modellerin hangi amaçla kullanıldığına dair her zaman bilgi vermediğini göstermesidir.
Araştırmanın baş yazarı Dr. Sam Rickman, “Bu modellerin çok yaygın şekilde kullanıldığını biliyoruz ve endişe verici olan, farklı modeller arasında önyargı ölçütlerinde anlamlı farklılıklar bulmamız” dedi. Google modelinin özellikle kadınların zihinsel ve fiziksel sağlık sorunlarını görmezden gelmeye meyilli olduğunu belirtti. “Alacağınız bakım miktarı algılanan ihtiyaç bazında belirlendiği için, önyargılı modeller pratikte kullanılırsa kadınlar daha az bakım alabilir. Ancak şu anda hangi modellerin kullanıldığına dair elimizde kesin bir bilgi yok.”