Louise Holck, der er direktør for Institut for Menneskerettigheder
perspektiv

Kunstig intelligens kalder på brobygning

Der en risiko for, at det offentliges brug af kunstig intelligens kan underminere beskyttelsen af den enkelte borgers rettigheder, skriver Louise Holck, der er direktør for Institut for Menneskerettigheder.

Algoritmerne er flyttet ind i vores liv. Uden dem, ingen GPS. Uden kunstig intelligens, ingen ansigtsgenkendelse på vores mobiltelefon. Og mon ikke vi alle omfavner den nye teknologi med både forholdsvis stor begejstring og en del skepsis?

For livet bliver jo nemmere med de teknologiske landvindinger. Men hvor meget ved for eksempel mobiltelefonen om os, efterhånden som vi fodrer den med vores data? Og vel at mærke data, som ofte er temmelig personlige?

Den samme kritiske sans er der brug for, i takt med at den kunstige intelligens og algoritmerne vinder indpas i den offentlig administration.

For ja, den nye teknologi er fuld af løfter, og på mange områder er jeg sikker på, at den vil medføre store og nyttige fremskridt. Når det offentlige langt hurtigere end før kan behandle meget store mængder af data, bør det vel føre til mere ensartethed i afgørelserne – alt andet lige?

Hvordan kan vi være sikre på, at teknologien ikke er forudindtaget?
- Louise Holck, direktør for Institut for Mennesrettigheder

Men det er blandt andet det, som er kernen: Hvor stor bliver ensartetheden faktisk?

Hvordan kan vi være sikre på, at teknologien ikke er forudindtaget? Den fodres jo med data, der i sig selv kan rumme eller afspejle fordomme.

For nu at tage et tænkt eksempel: Lad os sige, at et datasæt rummer viden om politiets efterforskning. Og lad os sige, at den efterforskning særligt ofte finder sted i boligområder, hvor en relativt stor andel af beboerne har ikke-vestlig baggrund. Hvis en algoritme så fodres med de data, kan der være en fare for, at algoritmens forudsigelser vil afspejle – og måske endda forstærke – den bias, det vil sige hældning eller fordom, som datasættet rummer.

Kort sagt er der en risiko for, at det offentliges brug af kunstig intelligens kan underminere beskyttelsen af den enkelte borgers rettigheder.

Folketinget: Kunstig intelligens skal op i fart

Finansloven afsætter 143 millioner kroner i perioden 2022-2025 til en fond, der skal accelerere den offentlige sektors anvendelse af nye teknologier som kunstig intelligens.

Derfor er der brug for klare rammer og lovgivning på området, inden teknologien tages i brug.

Det er en af hovedkonklusionerne i en rapport, som Institut for Menneskerettigheder udgav i oktober. Og konklusionen kan faktisk koges ned til en enkelt sætning: Når borgeren møder forvaltningen, skal samfundet sikre den samme høje beskyttelse af rettigheder og retssikkerhed, som hele tiden har været et krav.

Samtidig er der brug for at bygge bro mellem faglighederne: Mellem de programmører, der udvikler systemerne, de politikere, der anskaffer dem, de sagsbehandlere, der benytter dem, og menneskerettighedseksperterne, som kan være med til at vurdere konsekvenserne.

Brugen og grænserne for kunstig intelligens bør også være et vigtigt element i Danmarks offentlige digitaliseringsstrategi, som snart skal opdateres.

For målet må være, at den kunstige intelligens ikke underminerer den enkelte borgers rettigheder, men tværtimod styrker dem.