2022/4
Gezichtsherkenning

Gezichtsherkenningstechnologie helpt om personen in fotografische en audiovisuele collecties te herkennen en zo rijkere metadata te genereren. In dit en het volgende nummer bekijken we met een ethische en juridische bril of dat zomaar kan. Deel 1: het ethische luik (uitgebreider besproken in het juninummer van faro | tijdschrift over cultureel erfgoed).

Referentiesets

De toepassing van gezichtsherkenningstechnologie vereist goede referentiesets. Dat zijn verzamelingen foto’s die met zekerheid een bepaalde persoon afbeelden. Een algoritme vergelijkt die referentiefoto’s met de foto’s uit de doelcollectie en voorspelt met welke waarschijnlijkheid afgebeelde personen daar ook in voorkomen.

Referentiefoto’s kunnen uit diverse bronnen komen, waaronder het web. Hoe ethisch is het massaal verzamelen (inclusief scrapen) en bewaren van foto’s op het web zonder toestemming van de afgebeelde personen? Is er een verschil wanneer de foto’s tot het publiek domein behoren of gepubliceerd zijn onder een vrije licentie? Er ontstaat een spanning tussen open content en ethische overwegingen wanneer open content gebruikt wordt voor gezichtsherkenning, al dan niet door grote commerciële spelers of overheden. Het uiteindelijke doel en mogelijke negatieve gevolgen bepalen of het massaal verzamelen van foto’s voor gezichtsherkenning ethisch verantwoord is.

Een stap verder is het openstellen van referentiesets voor hergebruik. In het verleden zijn grote open datasets gebruikt voor zowel commerciële gezichtsherkenningstoepassingen als voor toepassingen van politie en veiligheidsdiensten. We moeten een evenwicht zoeken tussen enerzijds het verzekeren van open data en transparante processen en anderzijds het voorkomen van ongewenst hergebruik.

Bias

(Potentiële) vooringenomenheid van algoritmen noemen we bias. Binnen gezichtsherkenningstoepassingen komen vooral raciale en gender-biases voor.

Bestaande gezichtsherkenningsmodellen zijn vaak weinig transparant over de gebruikte algoritmen en baseren zich op trainingsdata  die onvoldoende representatief zijn. Zo zijn etnische minderheden, maar ook bijvoorbeeld vrouwen, kinderen en mensen met fysieke beperkingen vaak ondervertegenwoordigd.

Een zorgvuldige afweging tussen de potentiële winst die genderdetectie oplevert en de mogelijk kwalijke gevolgen ervan is cruciaal. Het algoritme kan immers fouten maken bij de genderbepaling, mede omdat niet iedereen zich herkent in de binaire opsplitsing tussen vrouw en man.

Door bias dreigt een bevestiging of uitvergroting van bestaande maatschappelijke ongelijkheden. Het is niet alleen van belang om, waar mogelijk, bias te voorkomen, maar ook om de gevolgen te proberen beperken en de potentiële bias maximaal zichtbaar te maken.

Milieu-impact

Gezichtsdetectie en -herkenning vragen veel rekenkracht en energie. Een substantieel deel daarvan komt niet uit hernieuwbare bronnen. Zowel het terugdringen van nefaste effecten (bijvoorbeeld door energie-efficiëntere workflows en algoritmen) als transparantie zijn belangrijke aandachtspunten.

Data labelers

Algoritmen trainen met grote hoeveelheden data vraagt veel mankracht. Wie dat werk van data labeling uitvoert en in welke omstandigheden dat gebeurt, varieert. Soms gaat het om correct betaalde vaste werknemers, soms om stagiairs of vrijwilligers, al dan niet via crowdsourcing. Soms wordt ook een beroep gedaan op zogeheten ghost workers of click workers in lageloonlanden met penibele arbeidsomstandigheden.

Technologie is niet neutraal of onschuldig. Gezichtsherkenning verantwoord toepassen kan dus enkel met een ethisch kompas dat aandacht heeft voor de rechten en vrijheden van burgers.

Wil je kennismaken met het team van MoMu Library of mee terugblikken op de carrière van An Renard (Erfgoedbibliotheek Hendrik Conscience)?