Vi har förtydligat hur vi behandlar personuppgifter och cookies.
Du följer nu ämnet: STOCKHOLMS STAD (sparas i Mitt DN)
Ekonomi

Forskare: Algoritmerna är anpassade till vita

När Joy Buolamwini studerade ansiktsigenkänning vid MIT upptäckte hon att algoritmen var anpassad efter de vita, manliga programmerarna. Nu vill hon sprida kunskap om orättvisor som kan uppstå när maskiner gör jobbet. 

Det började med att en webbkamera inte kunde uppfatta hennes ansikte utan att hon hade på sig en vit mask. Det fick Joy Buolamwini att vidare utforska hur dominansen av vita män inom programmering påverkar artificiell intelligens.  

– Maskininlärning baseras på data och datan är i huvudsak vit. En stor del av den kommer också från män. Det gör att datan blir vinklad, säger hon. 

Foto: Erik Ardelius

Joy Buolamwini är grundare av kollektivet ”the Algorithmic Justice League” och doktorand vid MIT Media Lab. När DN träffar henne har hon precis pratat på scenen under evenemanget Women in tech på Folkets hus i Stockholm. Flera personer kommer senare under lunchminglet att nämna hennes tal som morgonens höjdpunkt. Hon berättar om sin forskning: 

Maskininlärning baseras på data och datan är i huvudsak vit. En stor del av den kommer också från män. Det gör att datan blir vinklad.

– En stor del av det vi har testat fungerar bättre på manliga och ljusa ansikten än på kvinnliga och mörkare ansikten, säger hon. 

Women in tech, som under fem år har hållits på kvinnodagen, har samlat 1.300 kvinnor inom teknikbranschen. Fyrtio kvinnliga talare, däribland Centerpartiets ledare Annie Lööf och KTH-professorn Danica Kragic, är på plats för att inspirera. Bakom evenemanget står bland annat Bonnier, MTG, Google och Accenture. 

Foto: Erik Ardelius

Artificiell intelligens, robotar och blockkedjan är återkommande ämnen. Joy Buolamwini förklarar att data som endast har utgått från en viss typ av person kan få allvarliga konsekvenser. När exempelvis anställningar eller bolån baseras på data som inte är representativ kommer fel bedömningar att göras. Men det kan även få allvarligare konsekvenser. 

– Man kanske har skapat ett system för att hitta en försvunnen person, exempelvis en 18-årig kvinna. Systemet kanske klassificerar personen som en man, vilket gör det omöjligt att hitta personen, säger Joy Buolamwini. 

– Det kan även bli problematiskt att leta efter någon som är misstänkt för ett brott. Fel person kan bli misstänkt, säger hon. 

Det finns personer som skulle hävda att automatiserade processer och maskininlärning är mer rättvist, hur ser du på det? 

– Vår forskning visar att vinklad data ger ett vinklat resultat. Det som man tror är neutralt är inte nödvändigtvis det utifrån hur systemen är utvecklade i dag, säger hon. 

Joy Buolamwini

Gör: Doktorand vid det amerikanska universitetet MIT och grundare av kollektivet Algorithmic Justice League. Hennes forskning fokuserar på orättvisor som uppstår när algoritmer baseras på samma typ av personer. Hon kallas sig själv en ”kodande poet”. Är  även delägare i Techturized Inc, som arbetar med teknologi inom hårvård. 

 

Utbildning: Master i lärande och teknologi från Oxford University. Filosofie kandidatexamen i Computer Science från Georgia Institute of Technology. 

 

Aktuell: Talare vid evenemanget Women in tech på Folkets hus i Stockholm. 

Så här jobbar DN med kvalitetsjournalistik: uppgifter som publiceras ska vara sanna och relevanta. Rykten räcker inte. Vi strävar efter förstahandskällor och att vara på plats där det händer. Trovärdighet och opartiskhet är centrala värden för vår nyhetsjournalistik. Läs mer här.
Kommentera artikeln
I samarbete med tjänsten Ifrågasätt erbjuder DN möjligheten att kommentera vissa artiklar. Håll dig till ämnet och håll en god ton. Visa respekt för andra skribenter och berörda personer i artikeln. Vi tar bort inlägg som vi bedömer är olämpliga.