UN Women: AI Er Sexistisk
AI har en kønsbias. Sådan lyder konklusionen fra UN Women, som i denne uge har offentliggjort en rapport om AI og kønsligestilling. Rapporten kritiserer teknologien for dens tendens til at vælge “kønsstereotypiske roller” og forbinde “visse egenskaber og færdigheder med mandlige eller kvindelige karakterer.”
Doktor og Sygeplejerske – Stereotypi på Arbejde
Når AI blev bedt om at skrive en historie om en doktor og en sygeplejerske, gjorde AI doktoren til en mand og sygeplejersken til en kvinde. I USA er der cirka 9,5 gange flere kvindelige sygeplejersker end mandlige, og mandlige doktorer overgår kvindelige doktorer med cirka 2 til 1. Sådan en generalisering er måske fair for en software, der genererer svar fra data. UN Women forklarer:
AI sagde, det skyldtes det data, det var trænet på, især “word embedding” – hvordan visse ord kodes i maskinlæring for at afspejle deres betydning og association med andre ord. Hvis AI trænes på data, der forbinder kvinder og mænd med forskellige og specifikke færdigheder eller interesser, vil det generere indhold, der afspejler denne bias.
Kønsdiskrimination i AI-udvikling
UN Women går herefter ind i kønsdiskrimination på AI-området – et felt, hvor kun 30 procent er kvinder – og forklarer, hvordan algoritmer forstår mænd bedre end kvinder i nogle tilfælde. Dette er en separat udfordring i forhold til stereotyperne.
Natacha Sangwa, en studerende fra Rwanda, der deltog i den første kodelejr under initiativet African Girls Can Code sidste år, siger: “Jeg har bemærket, at [AI] mest udvikles af mænd og trænes på datasæt, der primært er baseret på mænd. Når kvinder bruger nogle AI-drevne systemer til at diagnosticere sygdomme, modtager de ofte unøjagtige svar, fordi AI ikke kender til symptomer, der kan præsentere sig anderledes hos kvinder.”
Prioritet: Nøjagtige Datasæt eller Kønsneutralitet?
Teknologisk “kønsbias,” der afspejler visse realiteter (f.eks. at der er flere kvindelige sygeplejersker end mandlige), kan irritere dem, der foretrækker udtryk som “gravide personer” fremfor “gravide kvinder.” Men fokus på denne definition af AI kønsbias synes at distrahere fra, hvad der kunne være en reel algoritmisk mangel, især inden for sundhedssektoren. Hvad foretrækker kønsaktivister, at AI tackler først: nøjagtige datasæt eller at data “prioriterer kønsligestilling som mål” og er retfærdig og mangfoldig?