Kadınların yaşamın her alanında boğuştuğu eşitsizlikler teknoloji alanında da görünür oluyor. Özellikle hızla gelişen yapay zekâ algoritmaları toplumsal cinsiyet eşitsizliğini yeniden üretiyor.

Büyük veri setlerinden öğrenen yapay zekâ sistemleri geçmişteki eşitsizlikleri de içselleştiriyor. Örneğin, teknolojide erkeklerin ağırlığı nedeniyle geçmiş işe alım verilerinin çoğunlukla erkek adaylardan oluşması, bir yapay zekâ modelinin erkekleri tercih etmesine yol açabiliyor.

UNESCO’nun 2019 tarihli bir raporu, teknoloji şirketlerindeki ağırlıkla erkeklerden oluşan ekiplerin, farkında olmadan, kadın karakterli dijital asistanları itaatkâr ve edilgen bir kişilikle programladıklarını ortaya koydu.

2018’de Stanford Üniversitesi’nde yapılan “Gender Shades” isimli çalışmada ise yüz tanıma teknolojilerinin performansında ırk ve cinsiyet etkileşimli bir adaletsizlik bulunduğunu göstererek algoritma geliştirme pratiklerinin yeniden değerlendirilmesi çağrısı yapıldı. Araştırmaya göre açık tenli erkeklerin cinsiyetini belirlemedeki hata oranları en fazla 0,8 olurken koyu tenli kadınlar için hata oranları 34'ün üstünde.

KADINLAR OTOMATİK OLARAK ELENDİ

Öte yandan 2014-2017 yılları arasında kullanılan, Amazon’un geliştirdiği otomatik özgeçmiş eleme sisteminin kadın adayları otomatik olarak elediği ortaya çıktı. Bu vakadaki sorunun yapay zekâ modelinin geçmiş verilerdeki cinsiyet dağılımını birebir kopyalaması olduğu belirtildi. Teknoloji sektöründe erkeklerin çoğunlukta olmasından kaynaklı sistemin “erkek aday idealdir” şeklinde bir kuralı benimsediği anlaşıldı.

Sivrisinekten farksız mini drone! Savaş alanları ve operasyonlarda kullanılması amaçlanıyor
Sivrisinekten farksız mini drone! Savaş alanları ve operasyonlarda kullanılması amaçlanıyor
İçeriği Görüntüle

Benzer bir sorun da çeviri sistemlerine yaşanıyor. 2017’de yapılan bir çalışmada, dil modellerindeki kelime vektörlerinin toplumsal cinsiyet ön yargılarını taşıdığı görüldü. (Örneğin sistem mühendis kelimesini erkek olarak çevirirken hemşire kelimesini kadın olarak çevirebiliyor).

Google görsel arama sonuçlarının da ön yargıları sürdürdüğü görülüyor. Örneğin, “CEO” kelimesi Google’da aratıldığında ilk 100 görsel sonucun sadece %11’i kadın iken, ABD’de CEO’ların yaklaşık %27’si kadın. Bu durum, arama algoritmalarının mevcut toplumsal temsilleri daha da aşırı biçimde yansıtma eğiliminde olduğunu ortaya koyuyor.

Sesli asistanlar ve genel olarak kullanıcı arayüzlerinde cinsiyet temsili ise giderek daha da dikkat çeken bir konu. Sesli dijital asistanların (Apple Siri, Amazon Alexa, Google Asistan vb.) çoğu kadın sesiyle ve kadın ismiyle sunuluyor. UNESCO’nun 2019’da yayınladığı “I'd Blush If I Could” (Kızarabilseydim Kızarırdım) başlıklı raporu (2019), Siri gibi asistanların kullanıcılardan gelen aşağılayıcı veya tacizkâr ifadelere bile alttan alan veya özür dileyen yanıtlar verdiğini, bunun da kadınların itaatkâr olması gerektiği yönündeki kalıp yargıyı pekiştirdiğini belirtiyor. Yapay zekâ sistemleri cinsiyetçi önyargılara sahip olan şirketler ise genellikle “YZ’miz önyargılı değildi, veriler öyleydi; aslında kullanmıyorduk sorun olursa düzeltiriz” gibi sorumluluğu üzerinden atan ifadeler kullanıyor. Örneğin Amazon yetkilileri, sistemin hiç resmi olarak kullanılmadığını vurgulayarak olası tepkileri azaltmaya çalışmıştı.