Automatiserad diskriminering

Som jag skrivit tidigare när det gäller ansiktsigenkänning, så tycker jag det är läskigt. Jag skulle vara ganska nöjd med om mitt ansikte aldrig kändes igen.

Men när ansiktsigenkänningsprogrammet inte uppfattar Joys ansikte som ett ansikte, medan det uppfattar en vit mask som ett ansikte – ja då är det lätt att inse att någon har gjort fel.

Och det är ett allvarligt fel, eftersom det innebär en snedvridning som påverkar redan utsatta grupper negativt, och som dessutom sprider sig snabbt över värden – lika snabbt som du laddar ned källkoden.

– Vem som kodar, hur vi kodar och varför vi kodar spelar roll, säger Joy Buolamwini.

Tidigare har jag skrivit om hur lätt det är att vi bygger in våra fördomar i de maskiner vi skapar.

Men Joy är inte den som bara knyter handen i fickan. Hennes initiativ Algorithmic Justice League samlar in kunskap om och belyser brister i de olika kodbibliotek som finns. Dessutom kan man som kodare få hjälp att undvika att skriva diskriminerande kod.

 

Lämna ett svar

E-postadressen publiceras inte. Obligatoriska fält är märkta *