Collage, der viser biometrisk overvågning af borgerne.

Collage: CUPP

Dataetisk Råd vil begrænse ansigtsgenkendelse

Brugen af teknologi til ansigtsgenkendelse risikerer at udhule vores grundlæggende rettigheder og skabe et samfund mindre præget af tillid, mener Johan Busse, der er formanden for Dataetisk Råd.

Udbredelsen af teknologi til ansigtsgenkendelse bør gøres til et samfundsanliggende med henblik på at skabe en kontrolleret, begrænset og transparent anvendelse.

Sådan lyder det fra Dataetisk Råd, der i en ny rapport kommer med en række klare anbefalinger til myndighederne.

Det sker samtidig med, at der både i EU-Kommissionen og EU-Parlamentet er en voksende erkendelse af, at udviklingen i brugen af biometrisk teknologi skal holdes i stramme tøjler.

Formanden for Dataetisk Råd, Johan Basse, konstaterer, at teknologi til ansigtsgenkendelse anvendes i flere og flere sammenhænge i alt fra fitnesscentre til stadions, butikker og lufthavne, og at det kommercielle marked for ansigtsgenkendelsesprodukter er hastigt voksende.

”Ansigtsgenkendelse er en teknologi, som påvirker vores privatliv, retssikkerhed og samfundet som sådan. Det er vigtigt, at vi sikrer at brugen af ansigtsgenkendelse i det offentlige rum og alment tilgængelige steder, sker på en etisk ansvarlig måde”, siger Johan Basse i en pressemeddelelse.

Der er risiko for, at brugen af ansigtsgenkendelse udhuler vores grundlæggende rettigheder og skaber et samfund mindre præget af tillid
- Johan Busse, formand for Dataetisk Råd

Han anerkender, at ansigtsgenkendelse giver nye muligheder og vil kunne bruges til legitime formål som for eksempel at bekæmpe kriminalitet, men at teknologien også kan have utilsigtede skadevirkninger.

”Ansigtsgenkendelse kan være med til at effektivisere processer, men teknologien er også behæftet med store risici. Der er blandt andet risiko for, at brugen af ansigtsgenkendelse udhuler vores grundlæggende rettigheder og skaber et samfund mindre præget af tillid. Og teknologien kan misbruges på meget alvorlig vis”, siger Johan Basse.

Dataetisk Råd anbefaler derfor, at der indføres klar national lovgivning om brug af ansigtsgenkendelse i det offentlige rum, så teknologien forankres i dataetiske principper som individets privatliv, selvbestemmelse, retssikkerhed og grundlæggende frihedsrettigheder.

På den baggrund har Dataetisk Råd formuleret 10 anbefalinger, som kan indgå i den politiske debat om, hvor langt vi skal gå i Danmark med at tage teknologien i brug.

10 anbefalinger fra Dataetisk Råd

Dataetisk Råd anbefaler, at ansigtsgenkendelse i det offentlige rum og alment tilgængelige steder bør:

1. Kun finde sted med klar, specifik og formålsafgrænset lovhjemmel.

2. Være begrundet i ønsket om opnåelse af anerkendelsesværdigt formål, der ikke opnås på en mindre indgribende måde uden uforholdsmæssig stor ressourcebyrde.

3. Kun ske på baggrund af en bred og åben demokratisk samtale om fordele og ulemper og en dataetisk vurdering under inddragelse af relevant viden og forskning om de og kort- og langsigtede risici og konsekvenser.

4. Alene ske, hvis der er klar proportionalitet mellem det formål, der ønskes opnået, og de potentielle skadevirkninger, jf. ovenfor. I denne vurdering bør også risikoen for utilsigtet datafangst indgå sammen med en vurdering af teknologiens præcision til det påtænkte formål.

5. Så vidt muligt kun finde sted på baggrund af et klart og informeret samtykke. Så vidt muligt, bør der stilles et alternativ til rådighed, så ansigtsgenkendelsen kan fravælges og samtykket er udtryk for reel frivillighed.

6. Ikke føre til lagring af biometriske data.

7. Være omgærdet med en ekstraordinær høj grad af sikkerhed og med privacy-by-design og dataminimering som default. Denne anbefaling gælder uanset om, der foreligger samtykke.

8. Være effektivt oplyst, skiltet eller på anden måde synliggjort, så personer hvis data opfanges af teknologien, er oplyst herom.

9. Være oplistet i en offentlig tilgængelig fortegnelse.

10. Være baseret på åbenhed om formål, anvendelse, metode og teknologi og efter udarbejdelse af offentligt tilgængelige konsekvensanalyser