Jesper Ryberg påpeger, at i hvert fald de første to er praksis under en eller anden form i forskellige lande og stater, og at nummer tre sagtens kan vente lige om hjørnet.
”Det med at skaffe informationer til dommeren er brugt i flere stater i USA i årevis. Blandt andet kompasalgoritmen. Dommeren kan eksempelvis få hjælp til at se gerningspersonens historik og koble med sandsynlighed for gentagen kriminalitet, som så kan hjælpe med domsafsigelsen. Det kan også være hjælp til at trawle tilsvarende sager igennem og give et fingerpeg om strafudmåling og domme på området, og det kan være en stor hjælp,” fortæller han.
Professoren fortsætter:
”Hvis vi kigger på nummer to, altså hvor algoritmen anbefaler en straf, så findes det i Malaysia i to delstater og bruges i voldtægts- og narkotikasager. Mange er interesserede i deres måde at gøre det på og på deres erfaringer.”
Og så er der robot-dommeren, altså muligheden for at kunstig intelligens selv kan afsige domme.
”Det er ikke så teknisk svært, som det lyder og kan helt klart benyttes til at speede sagsbehandlingstiden op. Det kunne ske i simple og mindre sager, hvor der foreligger tilståelser, og strafudmåling er let at automatisere. Måske standardbøder som i spirituskørsel for eksempel. Spørgsmålet er mere, om vi er villige til at gøre det og har tillid til det,” siger Jesper Ryberg.
Der er altså fordele ved at indføre kunstig intelligens ved domstolene – og derfor er det også interessant at undersøge, og noget som retssystemer over hele verden er interesserede i, herunder den danske Domstolsstyrelse.
Jesper Ryberg nævner blandt fordelene især sagsbehandlingstiden.
”Sager ved domstolene er meget tunge, tidskrævende og kan være rigide. Der kan være meget lang ventetid for ofre og gerningspersoner eller i sager med civile søgsmål. Det er selvfølgelig ikke tilfredsstillende, og hvis algoritmer og brug af AI-modeller kan hjælpe på det, så er det en gevinst”, siger han og fortsætter:
”Dertil kommer muligheden for at få ensartethed i strafafsigelse. Forskning har mange gange dokumenteret, at der er menneskelig bias. At domme kan variere i samme type af sager baseret på personlige indtryk og oplevelser. Så hvis et AI-system kan gøre op med den uensartethed, er det en fordel.”
Professoren medgiver dog, at der er en stribe af udfordringer, som gør introduktionen til AI svær.
”Uh, der er mange. Der er inputproblemet, som har været kendt siden 1980erne, nemlig hvordan kan man sikre, at systemet har alle input i forhold til forslag til straf i en konkret straffesag. Hvor meget blev offeret skadet? Har gerningspersonen angret? Hvad er relevante informationer, så to straffesager, der ikke er helt ens, bliver behandlet rigtigt i forhold til domsafsigelse? Hvordan får vi ensartethed i beskrivelsen?”
Selv med open source kan algoritmer være så komplicerede, at vi reelt ikke kan få en forklaring. Hvad gør vi så retssikkerhedsmæssigt?
Her skeler professorerne blandt andet til sundhedsvæsenet, som arbejder med samme problemstilling, hvis en sygdom skal beskrives korrekt med alle forhold.
Det har været et problem ud fra journaldata, lyder det.
”Et andet simpelt problem er, hvordan man introducerer en straffeanbefalingsalgoritme? Hvornår er den god nok? Hvornår kan vi sige, den er lige så god eller bedre end en dommer? Vi kan måle den op mod domsafsigelser og se, hvordan den præsterer, men de er jo biased, og så bliver den ikke bedre. Hvilke kriterier skal vi opstille for algoritmer, hvis vi ikke ønsker at genskabe menneskelige bias? Hvornår performer en algoritme her?”
Næste udfordring er ifølge Jesper Ryberg transparens – altså gennemskuelighed.
”Hvis en algoritme foreslår straf i en straffesag, hvor meget behøver vi så at vide om, hvordan den er kommet frem til den straf? Det kan jo være black box.”
”Det har der faktisk været en sag med i USA, hvor en person blev dømt i en drive by shooting, og der i anbefalingerne til dommen indgik en risikovurdering for, hvad sandsynligheden var for, at han ville begå ny kriminalitet. Den dømte og hans advokat ville gerne vide, hvordan systemet var kommer frem til den risikovurdering", siger han.
"Men da det var et privat firma, som havde udviklet algoritmen, og det var en forretningshemmelighed i closed source, altså black box, så sagde højesteret, at det kunne den dømte ikke få, og han måtte altså acceptere dommen uden, at vide hvad der lå til grund for vurderingen,” fortæller Jesper Ryberg.
Han fortsætter:
”For at komme over det problem, kan man naturligvis kræve, at alle systemer skal være open source. Men selv med open source kan algoritmer være så komplicerede, at vi reelt ikke kan få en forklaring. Hvad gør vi så retssikkerhedsmæssigt? Skal vi så have et system med explainable AI, som forklarer, hvordan en anden AI-model er kommet frem til en dom eller anbefaling? I princippet er udfordringen dog ikke så stor, som den lyder, hvis vi kan blive enige om, hvilke forklaringer vi behøver, og om vi har tillid til algoritmen,” siger han.
Kan vi bruge AI-advokater? I USA har man allerede tilfælde, hvor en DoNotPay-app kan downloades og medbringes i retssalen.
Jesper Ryberg nævner en fjerde nærliggende udfordring:
”Det er bias. Mennesker kan være biased på alle måder, og det samme kan AI. Det ved vi fra machine learning, nemlig udfordringen med garbage in og garbage out. Altså det data, vi træner på, vil også være biased, så modellen bliver biased. Hvad skal man så stille op? Hvornår er noget ikke biased? Hvilke kriterier og hvor går grænsen?” spørger han.
Nedenunder overnævnte problematikker gemmer sig mange flere.
Datasikkerhed, privacy med mere. Hvad hvis det er en stor amerikansk standard-AI-model, man benytter – på samme måde som da dansk politi entrerede med den amerikanske tech-gigant Palantir?
”Ja, der er mange udfordringer, som er spændende at dykke ned i og kortlægge. Hvem skal taste informationer og data? Skal dommerne taste mere selv? Hvor kommer data fra? Hvilke arbejdsgange?”
”Og der vil helt sikkert være privacy-issues. Men man skal også huske på, at det er noget, som domstole og regeringer synes er interessant og ser potentiale i. I Domstolsstyrelsens strategi står, at de skal bruge AI-systemer,” fortæller Jesper Ryberg.
Og potentialet stopper ikke bare ved dommersædet.
”Der er også forsvarsadvokaten. Kan vi bruge AI-advokater? I Australien har kun 50 procent af retssagerne en forsvarsadvokat. Kan man bruge AI for at gøre det lettere og skabe større retssikkerhed? I USA har man allerede tilfælde, hvor en DoNotPay-app kan downloades og medbringes i retssalen. Her får den tiltalte så råd undervejs i et headset fra en AI-advokat om, hvordan han eller hun skal svare, hvornår de skal sige noget, og hvad de skal gøre,” siger Jesper Ryberg.
Centeret åbner som nævnt efter sommer, men arbejdet er allerede i gang. Herunder samarbejde med dommere og domstolsstyrelsen for at forstå og kortlægge dommeres arbejdsgang og sagsgange.
”Det er enormt spændende og supersjovt at se på etiske udfordringer og mulige faldgruber, når en ny teknologi presser sig på, buldrer og kan forandre og også forbedre så tunge og vigtige institutioner som retsvæsenet. Et sted, hvor konsekvenser er meget store og konkrete,” fortæller professoren.
Ifølge ham skal resultaterne af arbejdet i centeret ses over en femårig periode, hvor der også skal skabe løbende fokus på problemstillingerne.
”Arbejdet vil langt hen ad vejen handle om grundforskning, som vil blive offentliggjort i faglige tidsskrifter, men det bliver også at sikre skærpet fokus og viden på emnet via konferencer, oplæg og kommunikation.” ★