Danmark er blandt de førende i verden, når det gælder digitalisering af borgernes kontakt med den offentlige sektor.
Denne digitalisering indbefatter i stigende grad også brug af kunstig intelligens til at træffe afgørelser om for eksempel ydelser, indsatser eller sanktioner overfor borgere.
Men trods et stort politisk fokus på området – for eksempel i regeringens strategi for kunstig intelligens – mangler der et overblik over offentlige myndigheders brug af kunstig intelligens, samt hvorledes disse systemer griber ind i borgerens rettigheder.
Spørgsmålet om, hvorledes myndighedernes brug af kunstig intelligens påvirker borgeren, er kun sporadisk blevet adresseret i Danmark, og det offentliges forskellige digitaliseringsstrategier kommer ikke nærmere ind på, hvilke følger det eksempelvis kan få for borgernes retssikkerhed, at dele af sagsbehandlingen udføres af profileringsmodeller.
Både i EU, Europarådet og FN er man bekymret for, at kunstig intelligens kan underminere beskyttelsen af den enkeltes rettigheder.
Der mangler et overblik over offentlige myndigheders brug af kunstig intelligens
For brugen af profileringsmodeller kan skabe nye risici for diskrimination og komme i konflikt med databeskyttelsens princip om dataminimering.
Det kan også underminere det grundlæggende retsstatsprincip, at borgere og offentlighed kan kigge forvaltningen i kortene og få indsigt i sagsbehandling og afgørelser.
Fordi profileringsmodeller potentielt har så stor betydning for borgernes rettigheder, er det afgørende, at de udvikles ud fra en rettighedsbaseret tilgang.
En rettighedsbaseret tilgang indebærer, at det skal være muligt at få indblik i myndighedernes brug af profileringsmodeller og til en vis grad også indblik i, hvordan modellerne virker.
Ligeledes bør offentlige myndigheder kunne dokumentere, at de overholder samtlige rettigheder og retsgarantier for borgerne, når de bruger profileringsmodeller.
Amsterdam og Helsinki blev i efteråret 2020 nogle af de første byer i verden, der åbnede offentligt tilgængelige AI-registre over myndigheders brug af kunstig intelligens.
Registrene giver overblik over, hvilke AI-systemer der anvendes.
For hvert system er der oplysninger om datasæt, databehandling, sikring mod diskrimination, menneskelig kontrol og generelle risici.
Læs mere i to rapporter fra Institut for Menneskerettigheder
For at skabe større klarhed over området, har Institut for Menneskerettigheder blandt andet anbefalet, at Digitaliseringsstyrelsen opretter en offentligt tilgængelig oversigt over samtlige offentlige myndigheders brug af profileringsmodeller rettet mod borgere.
Instituttet har også anbefalet, at alle offentlige myndigheder, der anvender profileringsmodeller rettet mod borgere, forpligtes til at oplyse borgere om dette samt ved afgørelser at informere borgere om, hvordan modellen er nået frem til sine resultater.
Disse og flere andre anbefalinger er led i en større rapport om offentlige myndigheders brug af profileringsmodeller samt de rettighedsmæssige udfordringer, det rejser.
Lad os håbe, at regeringen tager anbefalingerne til sig, så den danske digitaliseringsdagsorden kan få en stærk rettighedsbaseret forankring.