I ett test identifierade Amazons programvara för ansiktsigenkänning felaktigt 1 av 5 folkvalda som kriminella. Testet genomfördes av medborgarrättsorganisationen American Civil Liberties Union of Northern California (ACLU) som lät Amazons AI-system "Rekognition" analysera 120 bilder av kongressledamöter och jämföra dem med en databas av 25 000 bilder av arresterade och resultatet visade att systemet är långt från perfekt.

Att på det här sättet försöka automatiskt identifiera personer med hjälp av artificiell intelligens blir allt vanligare, exempelvis för att underlätta inloggning på din telefon. Identifieringen utgår ifrån att varje ansikte är unikt. Ögon, näsa, mun, kindben och avstånden mellan dem skapar ett biometriskt fingeravtryck bestående av ca 80 punkter, och det är detta som AI-systemen kan räkna ut för att identifiera dig.

I takt med att datorerna blir kraftfullare kan identifieringen också användas i större skala, som när Facebook hjälper dig identifiera vänner på dina bilder eller vid säkerhetskontroller på flygplatser i Kina, USA och Storbritannien.

Med snabba uppkopplingar kan identifieringen även ske i realtid. I Orlando har polisen testat Amazons AI för att identifiera invånare via stadens övervakningskameror och i Kina är det redan en verklighet där övervakningskameror på stan används för att för att hålla koll på medborgarna och hur de rör sig. Ansiktsigenkänning används också för att varna om om en viss person är misstänkt för brott.

Fördomsfulla algoritmer ett problem

Problemet är att identifieringen — korrekt eller ej — kan innebära att människor frihetsberövas i onödan. Forskning har visat att ansiktsigenkänning är mindre träffsäkert för kvinnor och icke-vita personer. Testet ACLU gjorde bekräftar detta. Omkring 40 procent av de felaktiga svaren var människor med mörkare hy, även om de bara utgör 20 procent av de kongressledamöter som användes i testet.

Det visar med all tydlighet hur ofta vit hy är normen i samhället och hur det också återspeglas i hur artificiell intelligens är programmerad. ACLUs test var lite av ett PR-jippo för att uppmärksamma allmänheten på hur fel det kan bli men också för försöka få till stånd lagar som bättre skyddar vår integritet, inte bara data vi själva uppgett.

I videon visar Amazons Ranju Das ansiktsigenkänning i realtid för en publik i Korea. Bilden visar video från en gata i Orlando, där polisen testar tekniken. Bild: Skärmdump från Amazon Web Services Korea från NPR

Ansiktsigenkänning är alltså ingen hypotetisk övning. Amazon marknadsför sin teknik till polismyndigheter runt om i världen, och skryter om att deras tjänster kan identifiera upp till hundra ansikten i en enda bild, och att deras servers är kraftfulla nog för att utföra matchningen i realtid. Om du låst upp din telefon med ansiktet vet du hur effektivt det är, men frågan är förstås hur många som har tillgång till informationen och om den används i andra sammanhang.

-

Rättelse 200408: I en tidigare version av texten användes felaktigt begreppet “mörkhyad” som omnämning av de icke-vita som testet handlade om, trots att detta ord också är ett exempel på en omedveten tillämpning av vithetsnorm.