Kunstig intelligens omgiver os overalt i dagligdagen – også når vi ikke lige tænker over det. Vores mobiltelefoner viser os vej og præsenterer os for ruteforslag, de sociale medier kender vores præferencer og viser os det indhold, vi formentlig gerne vil se, og musiktjenester præsenterer os for ny musik baseret på de genrer, vi normalt lytter til.
Men den kunstige intelligens er for længst rykket endnu længere ind i vores liv. Også til steder, hvor vi måske ikke har et helt lige så afslappet syn på, at det er algoritmer, der tager beslutninger om os og vores nærmeste.
Algoritmer er hverken gode eller onde. Men de er ikke neutrale
Det gælder eksempelvis hos de offentlige myndigheder, hvor der i øjeblikket kører en række såkaldte signaturprojekter i den kommunale sagsbehandling anført af Digitaliseringsstyrelsen og Kommunernes Landsforening (KL). Her kan kunstig intelligens bruges til at træffe afgørelser om for eksempel ydelser, tilskud, indsatser eller sanktioner over for borgerne.
Problemet er, at der ikke eksisterer noget overblik over myndighedernes brug af kunstig intelligens eller algoritmiske profileringsmodeller. Og at vi uden regulering, politisk debat og borgerinddragelse risikerer at udvikle nogle modeller og værktøjer, som er uigennemskuelige, og som i sidste ende risikerer at skade borgernes retssikkerhed.
FN’s højkommissær for menneskerettigheder (OHCHR) tænder i rapporten 'The right to privacy in the digital age' en række advarselslamper om brugen af kunstig intelligens og opfordrer verdens lande til at indføre et stop for salg og brug af AI-systemer, der udgør en alvorlig fare for menneskerettighederne. Rapporten kan læses på www.ohchr.org
Sådan lyder det fra Institut for Menneskerettigheder (IMR), der i en ny stor rapport om kunstig intelligens kommer med forslag til en række styringsværktøjer, der er nødvendige, hvis vi som samfund skal holde fast i retssikkerheden og tilliden til de offentlige myndigheders sagsbehandling i den digitale tidsalder.
– Algoritmer er hverken gode eller onde. Men de er ikke neutrale, og de kan rejse diskriminationsrisici på mange forskellige måder. Det skal både borgere og myndigheder være opmærksomme på, og vi skal stille samme høje krav til forvaltningerne, når de bruger algoritmer, som vi gør i dag, uanset hvilket sagsområde vi taler om, siger Marya Akhtar, der er chefkonsulent i Institut for Menneskerettigheder.
Hun er også en af hovedforfatterne til rapporten 'Når algoritmer sagsbehandler – rettigheder og retssikkerhed i offentlige myndigheders brug af profileringsmodeller'.
Rapporten blev lanceret i oktober i samarbejde med Algoritmer, Data og Demokrati (ADD-projektet), hvor strategidirektør Lisbeth Knudsen var vært, og hvor KL, Digitaliseringsstyrelsen, KMD, D-mærket og Datatilsynet var indbudt til debat.
Udover at præsentere en række anbefalinger til myndigheder og it-udviklere, peger Marya Akhtar også på behovet for, at vi som samfund får et fælles sprog for den kunstige intelligens og hvilke grundlæggende udfordringer, det rejser, når man bruger algoritmer i sagsbehandlingen.
– Det giver ikke mening at tale om rettigheder, hvis man ikke kender teknologien. Alle skal have en grundviden, så det bliver mere normalt at tale om det hele vejen rundt i samfundet, siger hun.
Institut for Menneskerettigheder fremhæver tre retsområder, hvor brugen af kunstig intelligens udfordrer vores gængse retsopfattelse. Det gælder forvaltningsretten, databeskyttelsen og diskriminationsforbuddet.
For alle tre områder gælder det, at den manglende transparens i og om profileringsmodellerne risikerer at begrænse borgernes rettigheder og retssikkerhed.
Med Marya Akhtars ord handler det om det algoritmiske dilemma. Nemlig at de algoritmer, der er rigtig gode til at løse problemer, ofte er meget komplekse og uigennemsigtige – og dermed også svære at forstå.
Dermed er der også overhængende risiko for, at de diskriminerer på køn, etnicitet eller handicap med en indbygget bias.
Borgerne bliver stadigt mere gennemsigtige
Omvendt er de mere simple algoritmer også mere transparente, men ofte mindre effektive.
– Men det er fuldstændig centralt for myndighedernes brug af algoritmiske profileringsmodeller, at vi kan forstå dem og gennemskue dem. Det er kernen i de krav, vi stiller til myndighederne. Vi skal kunne kigge ind i den sorte boks, siger Marya Akhtar.
Samtidig slår instituttet til lyd for, at der etableres et offentligt tilgængeligt register over de algoritmiske værktøjer, der anvendes i forvaltningerne.
– Vi ved reelt ikke af, hvem det bliver brugt, til hvad det bliver brugt, og hvilke afgørelser der træffes med kunstig intelligens i dag. Og den manglende indsigt er et stort problem for den offentlige debat om profileringsværktøjer, siger hun.
Udover et offentligt register foreslår IMR blandt andet, at Justitsministeriet sammen med Digitaliseringsstyrelsen og Datatilsynet udsteder en vejledning om offentlige myndigheders brug af profileringsmodeller, og at der etableres et tilsyn med profileringsværktøjerne.
– En vejledning vil efter vores vurdering sikre ensartethed, transparens og forudsigelighed i myndighedernes brug af modellerne, og det er der et akut behov for. Ellers stiger risikoen for, at myndighederne begår fejl eller træffer forkerte valg, siger Marya Akhtar.
Louise Holck, der er direktør for Institut for Menneskerettigheder, fortæller, at instituttet allerede for flere år siden besluttede at engagere sig i techudviklingen, og at kunstig intelligens er et af flere fokusområder.
Hun anerkender, at kunstig intelligens kan være med til at sikre, at sager belyses fra mange forskellige vinkler, men at der er mange snubletråde, som myndighederne er nødt til at håndtere for at garantere borgerne samme høje beskyttelse som i dag.
– Vi kan konstatere, at algoritmerne for alvor er flyttet ind i den offentlige sagsbehandling. Men det er et meget komplekst område, og det er helt afgørende, at vi tager de nødvendige hensyn til borgerne, så vi ikke underminerer retssikkerheden, siger Louise Holck.
Algoritmernes magt i den offentlige forvaltning vokser. Men går vi for hurtigt frem, og kan vi gøre skade på grundlæggende værdier og rettigheder? Det spørgsmål rejser den nye debatbog ’Fra velfærdsstat til overvågningsstat’, redigeret af Michael Jarlner og Kim Escherich og med bidrag fra blandt andre Hanne Motzfeldt, Mikkel Flyverbom og Marya Akhtar. Udgivet på Djøf Forlag.
Hun fremhæver, at FN’s højkommissær for menneskerettigheder, Michelle Bachelet, i september opfordrede til, at stater ikke indfører kunstig intelligens, hvor der er uklarhed om teknologiens indvirkning på rettigheder.
FN vurderer, at kunstig intelligens kan have ”katastrofale konsekvenser” for menneskers liv, hvis teknologien benyttes til profilering og automatiseret sagsbehandling, og at den vilkårlige måde, som data indsamles, deles, gemmes og bruges på ”udgør et af tidens mest påtrængende menneskerettighedsspørgsmål”.
Louise Holck mener ikke, at vi herhjemme skal vente på, at FN eller EU kommer med præcise retningslinjer for brugen af kunstig intelligens. Det er i høj grad også et nationalt anliggende, understreger hun.
– Borgerne bliver stadigt mere gennemsigtige, fordi vi kan indsamle så meget information om det enkelte individ. Omvendt bliver myndighedernes afgørelser mere uigennemsigtige, når vi tager kunstig intelligens i brug som et redskab til at træffe beslutninger. Derfor er der behov for en rettighedsbaseret tilgang til kunstig intelligens. Det handler om at sikre menneskerettighederne i en digital verden, siger Louise Holck.
Datatilsynets direktør Cristina Gulisano erklærer sig enig i mange af konklusionerne i rapporten, som hun roser for at tage fat på et af tidens vigtigste problematikker.
– På det personlige plan oplever jeg, at når man taler om kunstig intelligens, så opfatter mange det som et grundvilkår for vores samfund. Men vi mangler at tage den helt grundlæggende dataetiske debat om, hvornår det er okay, at algoritmer sagsbehandler. Det er vigtigt, at vi sikrer en ansvarlig anvendelse af borgernes data i et digitaliseret samfund, siger Cristina Gulisano.
Hun sammenligner kunstig intelligens med den debat, der rasede om kloning, da forskere på Roslin Institute i Skotland i 1996 præsenterede fåret Dolly som verdens første klonede pattedyr. Dolly førte til en ophedet debat om de etiske konsekvenser af kloning, og i Danmark nedsatte Folketinget et lovforberedende udvalg, hvor Cristina Gulisano også var med. Udvalgets arbejde udmøntede sig i en rapport, der siden i store træk blev indarbejdet i lovforslaget.
– Det var nogle meget vanskelige etiske afvejninger, men man tog diskussionen på forhånd, og det interessante er, at loven stort set er som dengang, siger Cristina Gulisano.
Vi må og skal have dette emne højere op på den politiske dagsorden
Og selv om kunstig intelligens breder sig på en række områder i samfundet, så er det ikke for sent at tage debatten på samme måde som med Dolly.
– Selv om det er et tog, der kører superhurtigt, så er det vigtigt, at vi tager os tiden til at diskutere, hvordan vi gerne vil have, at vores samfund ser ud om 30 år. Min holdning er, at man ikke behøver at gøre brug af kunstig intelligens på alle områder, bare fordi man kan, siger Cristina Gulisano.
Cristina Gulisano understreger, at Datatilsynet er meget bevidste om, at de også skal føre tilsyn med anvendelsen af kunstig intelligens både i det offentlige og hos private virksomheder, men at der for nuværende ikke er overblik over området.
– Vil man gøre brug af disse værktøjer, skal det ske på en ansvarlig måde. Derfor kan det være en rigtig god idé med et register, ligesom det er vigtigt at få uddannet flere it-sikkerhedsfolk i Danmark, siger Cristina Gulisano.
Hun efterlyser også, at de dataansvarlige både i offentlige og private virksomheder inviterer Datatilsynet med ind i maskinrummet, når de eksperimenterer med kunstig intelligens.
– Vi modtager ikke særlig mange henvendelser. Måske fordi de er bekymrede for, at det kommer til at ligge dem til last. Men vi må og skal have dette emne højere op på den politiske dagsorden, siger hun.
Institut for Menneskerettigheder udgav i oktober rapporten ’Når algoritmer sagsbehandler – rettigheder og retssikkerhed i offentlige myndigheders brug af profileringsmodeller’.
Rapporten anbefaler blandt andet, at: