AI-stystem kan förstärka könsbias om datan som används för att träna systemen innehåller biaser. Till exempel, om historiska anställningsdata visar på könsbias, kan ett AI-system som tränats på den datan oavsiktligt rekommendera kandidater baserat på partiska kriterier.
– Vi måste bryta den onda cirkeln och utveckla AI-systemen så att de själva kan upptäcka mönstren och inte mata sig själva, säger Tove Ørsted, IT-expert inom arkiv och bevaring.
För att undvika partiskhet i AI-system kan man till exempel i datainsamlingsfasen medvetet skapa bättre förutsättningar, det vill säga samla in data med en större diversitet. Men det går också att göra med redan insamlade data. Om man kan hitta biasen kan man justera och ta bort data om en grupp som är överrepresenterad.
– Det behövs en feministisk synvinkel för att hitta de här groparna, som är både svåra att se och förstå, konstaterar Tove Ørsted.
Från AI användarnas perspektiv behövs medvetenhet gällande varifrån datan kommer. När man utvecklar nya system kan man ta problematiken kring bias i beaktande redan från början. Men det kan bli svårt eftersom branschen är mansdominerad.
– Man ser världen från sin egen synvinkel, det gör vi alla. Det gör att en man kanske inte inser att när han använder systemet fungerar det bra, till skillnad från när någon annan använder det, säger Frida Hartman, mjukvaruutvecklare med bakgrund inom AI och genusstudier.