Yapay zeka ihtilali hızlandıkça, bir eğilim netleşiyor: Yapay zeka sistemlerinin eğitimindeki önyargılar, gerçek dünyada ayrımcı uygulamalarla sonuçlanıyor.
YÜZ TANIMA TEKNOLOJİSİ SKANDALA NEDEN OLMUŞTU
Yapay zeka işe alım araçlarının bayanlara karşı ayrımcılık yaptığı gösterilmiştir. ChatGPT ırkçı ve ayrımcı önyargıları ortaya koymuştur. Polisin yüz tanıma teknolojisi nedeniyle bir şüpheliyi yanlış teşhis ettiği bildirilen her hadisede, bu kişinin ise siyahi bir kişiydi.
Şimdi de yeni bir araştırma, şoförsüz araçlardaki yaya algılama yazılımının bile yapay zeka önyargısının bir sonucu olarak renkli insanları ve genel olarak çocukları tespit etmede daha az tesirli olabileceğini ve daha fazla araba üreticisi teknolojiyi kullandıkça onları daha büyük güvenlik riskine sokabileceğini öne sürüyor.
KOYU RENKTEKİ YAYALARI TESPİT ETMEDE BAŞARISIZ
Insider’in aktardığı bilgilere nazaran, İngiltere ve Çin’de bir küme araştırmacı, sekiz tanınan yaya dedektörünün kişinin ırkına, cinsiyetine ve yaşına bağlı olarak ne kadar uygun çalıştığını test etti.
Cinsiyet doğrulukta yalnızca küçük bir farklılık gösterirken, araştırmacılar tespit sistemlerinin koyu deri rengine sahip yayaları tespit etmede daha az yanlışsız olduğunu buldular.
“Daha evvel azınlık bireyler hayati hizmetlerden yoksun bırakılabiliyordu. Artık ise önemli yaralanmalarla karşı karşıya kalabilirler.” King’s College London’da bilgisayar bilimcisi ve araştırma grubunun bir üyesi olan Jie Zhang yaptığı açıklamada şunları söyledi
“Araştırmaya nazaran, tespit sistemlerinin yetişkinleri tespit etme mümkünlüğü çocuklara kıyasla %19,67 ve daha açık deri rengine sahip bireyleri tespit etme mümkünlüğü daha koyu cilt rengine sahip şahıslara kıyasla %7,52 daha yüksekti.
“Genel olarak, bu çalışma mevcut yaya dedektörlerinin karşılaştığı adalet meselelerine ışık tutmakta, yaş ve cilt tonuyla ilgili önyargıları ele almanın kıymetini vurgulamaktadır.” “Elde edilen bilgiler gelecekte daha adil ve tarafsız otonom sürüş sistemlerinin önünü açabilir.”
YAPAY ZEKAYA YÖNELİK ÖNYARGILAR HAKLI ÇIKIYOR
Bu eğilim, birçok şirketin dedektörleri oluşturmak için kullandığı açık kaynaklı yapay zeka sistemlerinde zati mevcut olan önyargıların bir sonucu olarak görülüyor.
Zhang’a nazaran, çalışma Tesla üzere şirketlerin şoförsüz araçlara güç sağlamak için kullandıkları yazılımları bâtın oldukları için tam olarak kullanmamış olsa da, çalışma için kullanılan yazılım sistemleri bu şirketlerin kullandığı birebir açık kaynaklı yapay zekaya dayanıyor.
Araştırma takımı, kanun koyucuları, algılama sistemlerindeki önyargıyı önlemek için şoförsüz araç yazılımlarını düzenlemeye çağırdı.
Çalışmada, “Politika yapıcıların tüm bireylerin haklarını koruyan ve bu kaygıları uygun bir biçimde ele alan yasa ve yönetmelikleri yürürlüğe koyması elzemdir” deniyor.