Rasistmaskinerna anfaller

När vi lär upp våra maskiner, är risken stor att vi även lär dem våra fördomar – ja det kanske till och med är oundvikligt.

Maskininlärning går ut på att mata en maskin med en stora volymer av data, och utifrån denna data dra slutsatser eller göra förutsägelser. Men om datat är snedvriden – på grund av att vår värld är det – så bibehålls denna snedvridning i systemet.

Bilden har ingenting med Svartbäcken att göra. Inte ens med Gottsunda.Ett exempel:  Låt säga att polisens AI som förutsäger brottsplatser, ”vis av erfarenheten” säger att den största sannolikheten är att brott kommer att ske i Gottsunda, så kommer polisen att leta noggrannare efter brottslingar där än i Svartbäcken. De tillslag som görs, adderas till systemets data, och systemet har då anledning att göra ännu starkare förutsägelser om att brott kommer att begås i Gottsunda.

Jag har skrivit om det här tidigare men denna artikel sammanfattar och redogör ytterligare.

 

Källa: Rise of the racist robots – how AI is learning all our worst impulses | Inequality | The Guardian

Automatiserad diskriminering

Som jag skrivit tidigare när det gäller ansiktsigenkänning, så tycker jag det är läskigt. Jag skulle vara ganska nöjd med om mitt ansikte aldrig kändes igen.

Men när ansiktsigenkänningsprogrammet inte uppfattar Joys ansikte som ett ansikte, medan det uppfattar en vit mask som ett ansikte – ja då är det lätt att inse att någon har gjort fel.

Och det är ett allvarligt fel, eftersom det innebär en snedvridning som påverkar redan utsatta grupper negativt, och som dessutom sprider sig snabbt över värden – lika snabbt som du laddar ned källkoden.

– Vem som kodar, hur vi kodar och varför vi kodar spelar roll, säger Joy Buolamwini.

Tidigare har jag skrivit om hur lätt det är att vi bygger in våra fördomar i de maskiner vi skapar.

Men Joy är inte den som bara knyter handen i fickan. Hennes initiativ Algorithmic Justice League samlar in kunskap om och belyser brister i de olika kodbibliotek som finns. Dessutom kan man som kodare få hjälp att undvika att skriva diskriminerande kod.

 

Maskinerna ärver våra fördomar

Jag skrev härom veckan om risken att vi smittar maskinerna med våra fördomar som finns inbyggda i våra språk.

Här är några fler exempel från forskningen på hur vi riskerar att föra över våra fördomar till våra AI. Googles foto-app klassificerade bilder på svarta som gorillor. Nikons kamera-mjukvara påstod att personen blinkade på bilden när det var ett foto på en asiat. Polisens system diskriminerade svarta. Jobbannonser om höglönejobb presenterades mer sällan för kvinnor än för män.

Our world is increasingly shaped by biased algorithms that have been built with little oversight.

Source: Artificial Intelligence’s White Guy Problem – The New York Times

När maskiner lär sig våra språk, lär de sig också våra fördomar

I och med att våra språk i sig innehåller fördomar, överförs de till maskiner när man använder språken som exempel i maskininlärning. Det har forskare vid Princetons universitet kommit fram till. Man kan se det som att maskinerna lätt smittas av människans tillkortakommanden.

Source: When computers learn human languages, they also learn human prejudices