Når det offentlige bruger kunstig intelligens i sagsbehandlingen, skaber det risiko for diskrimination og manglende åbenhed om beslutninger, der kan have store konsekvenser for borgerne. Sådan lyder fra Institut for Menneskerettigheder (IMR) i to nye analyser, der undersøger brugen af kunstig intelligens i den offentlige forvaltning.
IMR fastslår, at det i en retsstat er et grundlæggende princip, at borgere og offentlighed skal kunne kigge magthaverne i kortene og få indsigt i de processer, der ligger bag love og afgørelser. Men når dele af afgørelsen træffes af en algoritmisk profileringsmodel, bliver det princip udfordret.
”Borgeren har ret til at kende til de oplysninger, der indgår i vedkommendes egen sag, og vide, hvad der ligger til grund for en afgørelse. På samme måde har kontrolinstanser og i visse tilfælde også offentligheden krav på at vide, hvordan myndigheden træffer afgørelser”, siger Marya Akhtar, der er jurist og chefkonsulent i IMR.
Modellerne benyttes blandt andet på socialområdet og beskæftigelsesområdet, men det har ikke været muligt for IMR at få et overblik over, hvor mange myndigheder der bruger profileringsmodeller i deres sagsbehandling.