Der kan være store gevinster og effektiviseringspotentialer ved at bruge kunstig intelligens ved domstolene. Foto: AI/THINKcreative

Robojudge: Hvad sker der, hvis dommeren er en algoritme?

To danske forskere har fået 21 millioner kroner til at etablere det første center i verden, som skal forske i effekterne, når kunstig intelligens bruges af domstolene. Det er ikke science fiction. Det sker faktisk allerede, at AI og algoritmer spiller en rolle i retssystemer, lyder det.

 

Det er ikke kun i sundhedsvæsnet, at kunstig intelligens står på spring til at hjælpe med diagnoser og effektivisere arbejdsgange.

Også domstolene, eller hele retsplejen, har åbnet øjnene for brug af AI, som kan effektivere og hjælpe med domsafsigelse.

Domstolene er nemlig et tungt, dyrt og omfattende apparat, hvor sager kan vente på afgørelse i måneder og år, og hvor dommere og system kan være ramt af menneskelig og social bias, og hvor adskillige undersøgelser har vist, at domme kan falde forskelligt ud afhængigt af social status eller andre omstændigheder.

Brug af kunstig intelligens kan altså være en oplagt mulighed for at effektivisere, skabe større lighed og sikre hurtigere sagsgange.

Men hvordan kan det lade sig gøre? Hvad sker der, når algoritmer bliver en del af domsafsigelsen og kan være med til at sende borgere i fængsel? Hvad med retssikkerheden? Hvad med borgernes tillid til koder versus mennesker?

Hvordan introducerer man en straffeanbefalingsalgoritme? Hvornår er den god nok? Hvornår kan vi sige, den er lige så god eller bedre end en dommer?


Får vi ”robojudges”, og er det en god ide?

Alt det og mere til skal professor Jesper Ryberg og kollegaen Thomas Søbirk Petersen undersøge. I januar blev de to tildelt 21 millioner kroner af Carlsbergfondet til at starte det første center i verden, som skal forske i de etiske problemstillinger, potentialer og brug af kunstig intelligens i retsplejen.

Centeret åbner efter sommerferien på Roskilde Universitet, og ansættelsen af 10 til 12 ph.d.-studerende og post docs til at hjælpe med forskningen er i fuld gang.

Så vidt har centeret ikke et officielt navn, men lander ifølge Jesper Ryberg nok på forkortelsen ”CenCAI” (Center for Criminal Justice and AI).

Jesper Ryberg har en baggrund i retsfilosofi og har i årevis beskæftiget sig med de etiske dilemmaer, der opstår i forhold til retsstater, domme, borgernes møde med retssystemer og de konsekvenser, det har at kunne dømme borgere.

Herunder hvordan domstole fungerer og opererer som institutioner. Derfor ligger forskning i algoritmer og kunstig intelligens’ indtog og brug også lige for.

”Siden 1980erne har der været en del forsøg med computerbaserede systemer, som på den ene eller anden måde har kunnet hjælpe dommerne. Så det er langt fra science fiction. Det bruges allerede på flere måder,” fastslår professoren.

Han nævner tre måder, som systemer og kunstig intelligens kan benyttes på:

1. Skaffe informationer, der er relevante for, at dommeren kan lave sit arbejde. Det kan være omkring tiltalte eller forbrydelsen.

2. Komme med direkte anbefalinger i en straffesag, eksempelvis til forslag til straf og dom.

3. Generelt erstatte dommeren med en algoritme – en slags ”robojudge”.


Jesper Ryberg påpeger, at i hvert fald de første to er praksis under en eller anden form i forskellige lande og stater, og at nummer tre sagtens kan vente lige om hjørnet.

”Det med at skaffe informationer til dommeren er brugt i flere stater i USA i årevis. Blandt andet kompasalgoritmen. Dommeren kan eksempelvis få hjælp til at se gerningspersonens historik og koble med sandsynlighed for gentagen kriminalitet, som så kan hjælpe med domsafsigelsen. Det kan også være hjælp til at trawle tilsvarende sager igennem og give et fingerpeg om strafudmåling og domme på området, og det kan være en stor hjælp,” fortæller han.

Professoren fortsætter:

”Hvis vi kigger på nummer to, altså hvor algoritmen anbefaler en straf, så findes det i Malaysia i to delstater og bruges i voldtægts- og narkotikasager. Mange er interesserede i deres måde at gøre det på og på deres erfaringer.”

Og så er der robot-dommeren, altså muligheden for at kunstig intelligens selv kan afsige domme.

”Det er ikke så teknisk svært, som det lyder og kan helt klart benyttes til at speede sagsbehandlingstiden op. Det kunne ske i simple og mindre sager, hvor der foreligger tilståelser, og strafudmåling er let at automatisere. Måske standardbøder som i spirituskørsel for eksempel. Spørgsmålet er mere, om vi er villige til at gøre det og har tillid til det,” siger Jesper Ryberg.

Der er altså fordele ved at indføre kunstig intelligens ved domstolene – og derfor er det også interessant at undersøge, og noget som retssystemer over hele verden er interesserede i, herunder den danske Domstolsstyrelse.

Jesper Ryberg nævner blandt fordelene især sagsbehandlingstiden.

”Sager ved domstolene er meget tunge, tidskrævende og kan være rigide. Der kan være meget lang ventetid for ofre og gerningspersoner eller i sager med civile søgsmål. Det er selvfølgelig ikke tilfredsstillende, og hvis algoritmer og brug af AI-modeller kan hjælpe på det, så er det en gevinst”, siger han og fortsætter:

”Dertil kommer muligheden for at få ensartethed i strafafsigelse. Forskning har mange gange dokumenteret, at der er menneskelig bias. At domme kan variere i samme type af sager baseret på personlige indtryk og oplevelser. Så hvis et AI-system kan gøre op med den uensartethed, er det en fordel.”

Professoren medgiver dog, at der er en stribe af udfordringer, som gør introduktionen til AI svær.

”Uh, der er mange. Der er inputproblemet, som har været kendt siden 1980erne, nemlig hvordan kan man sikre, at systemet har alle input i forhold til forslag til straf i en konkret straffesag. Hvor meget blev offeret skadet? Har gerningspersonen angret? Hvad er relevante informationer, så to straffesager, der ikke er helt ens, bliver behandlet rigtigt i forhold til domsafsigelse? Hvordan får vi ensartethed i beskrivelsen?”

Selv med open source kan algoritmer være så komplicerede, at vi reelt ikke kan få en forklaring. Hvad gør vi så retssikkerhedsmæssigt?


Her skeler professorerne blandt andet til sundhedsvæsenet, som arbejder med samme problemstilling, hvis en sygdom skal beskrives korrekt med alle forhold.

Det har været et problem ud fra journaldata, lyder det.

”Et andet simpelt problem er, hvordan man introducerer en straffeanbefalingsalgoritme? Hvornår er den god nok? Hvornår kan vi sige, den er lige så god eller bedre end en dommer? Vi kan måle den op mod domsafsigelser og se, hvordan den præsterer, men de er jo biased, og så bliver den ikke bedre. Hvilke kriterier skal vi opstille for algoritmer, hvis vi ikke ønsker at genskabe menneskelige bias? Hvornår performer en algoritme her?”

Næste udfordring er ifølge Jesper Ryberg transparens – altså gennemskuelighed.

”Hvis en algoritme foreslår straf i en straffesag, hvor meget behøver vi så at vide om, hvordan den er kommet frem til den straf? Det kan jo være black box.”

”Det har der faktisk været en sag med i USA, hvor en person blev dømt i en drive by shooting, og der i anbefalingerne til dommen indgik en risikovurdering for, hvad sandsynligheden var for, at han ville begå ny kriminalitet. Den dømte og hans advokat ville gerne vide, hvordan systemet var kommer frem til den risikovurdering", siger han.

"Men da det var et privat firma, som havde udviklet algoritmen, og det var en forretningshemmelighed i closed source, altså black box, så sagde højesteret, at det kunne den dømte ikke få, og han måtte altså acceptere dommen uden, at vide hvad der lå til grund for vurderingen,” fortæller Jesper Ryberg.

Han fortsætter:

”For at komme over det problem, kan man naturligvis kræve, at alle systemer skal være open source. Men selv med open source kan algoritmer være så komplicerede, at vi reelt ikke kan få en forklaring. Hvad gør vi så retssikkerhedsmæssigt? Skal vi så have et system med explainable AI, som forklarer, hvordan en anden AI-model er kommet frem til en dom eller anbefaling? I princippet er udfordringen dog ikke så stor, som den lyder, hvis vi kan blive enige om, hvilke forklaringer vi behøver, og om vi har tillid til algoritmen,” siger han.

Kan vi bruge AI-advokater? I USA har man allerede tilfælde, hvor en DoNotPay-app kan downloades og medbringes i retssalen.

Jesper Ryberg nævner en fjerde nærliggende udfordring:

Det er bias. Mennesker kan være biased på alle måder, og det samme kan AI. Det ved vi fra machine learning, nemlig udfordringen med garbage in og garbage out. Altså det data, vi træner på, vil også være biased, så modellen bliver biased. Hvad skal man så stille op? Hvornår er noget ikke biased? Hvilke kriterier og hvor går grænsen?” spørger han.

Nedenunder overnævnte problematikker gemmer sig mange flere.

Datasikkerhed, privacy med mere. Hvad hvis det er en stor amerikansk standard-AI-model, man benytter – på samme måde som da dansk politi entrerede med den amerikanske tech-gigant Palantir?

”Ja, der er mange udfordringer, som er spændende at dykke ned i og kortlægge. Hvem skal taste informationer og data? Skal dommerne taste mere selv? Hvor kommer data fra? Hvilke arbejdsgange?”

”Og der vil helt sikkert være privacy-issues. Men man skal også huske på, at det er noget, som domstole og regeringer synes er interessant og ser potentiale i. I Domstolsstyrelsens strategi står, at de skal bruge AI-systemer,” fortæller Jesper Ryberg.

Og potentialet stopper ikke bare ved dommersædet.

”Der er også forsvarsadvokaten. Kan vi bruge AI-advokater? I Australien har kun 50 procent af retssagerne en forsvarsadvokat. Kan man bruge AI for at gøre det lettere og skabe større retssikkerhed? I USA har man allerede tilfælde, hvor en DoNotPay-app kan downloades og medbringes i retssalen. Her får den tiltalte så råd undervejs i et headset fra en AI-advokat om, hvordan han eller hun skal svare, hvornår de skal sige noget, og hvad de skal gøre,” siger Jesper Ryberg.

Centeret åbner som nævnt efter sommer, men arbejdet er allerede i gang. Herunder samarbejde med dommere og domstolsstyrelsen for at forstå og kortlægge dommeres arbejdsgang og sagsgange.

”Det er enormt spændende og supersjovt at se på etiske udfordringer og mulige faldgruber, når en ny teknologi presser sig på, buldrer og kan forandre og også forbedre så tunge og vigtige institutioner som retsvæsenet. Et sted, hvor konsekvenser er meget store og konkrete,” fortæller professoren.

Ifølge ham skal resultaterne af arbejdet i centeret ses over en femårig periode, hvor der også skal skabe løbende fokus på problemstillingerne.

”Arbejdet vil langt hen ad vejen handle om grundforskning, som vil blive offentliggjort i faglige tidsskrifter, men det bliver også at sikre skærpet fokus og viden på emnet via konferencer, oplæg og kommunikation.” ★
 


Læs også...

Der mangler et opgør og nye alternativer til techgiganternes forretningsmodel, som fremmer hadtale. Tag jer sammen og kom i gang, lyder det fra Maia…

Hatespeech, antifeminisme og manosfære er blevet forrygende forretningsmodeller for influencers på sociale medier. De har fået godt tag i unge mænd…

Tobias Fonsmark har aldrig før oplevet så stor interesse for datasikkerhed og open source. På tværs af europæiske grænser vokser nye initiativer frem.…

Er din arbejdsgiver blevet opkøbt af en anden virksomhed? Her vil du som ansat have nogle særlige rettigheder – bliv klogere her.

Sven Uhrenholdt Frenzel er 31 år og arbejder som systemarkitekt hos Banedanmark.

Tusindvis af børn og unge ser med, når William Karlberg og hans kolleger tager politiuniformen på og livestreamer en gamingaften eller lægger en…

PROSA kæmper for en 30 timers arbejdsuge, for det vil komme både den enkelte, virksomhederne og samfundet til gode. Samtidig trænger fagforeningerne…

Vores samfund er ikke gearet til en 30 timers arbejdsuge, og derfor risikerer medarbejdere på nedsat tid at komme i problemer, hvis de på et tidspunkt…

"Arbejd, arbejd!" synger Bikstok Røgsystem intenst. Men er sandheden, at vi skal arbejde mer', mer' og endnu mer'? I øjeblikket er vores arbejdsliv…

Hos Abtion arbejder medarbejderne kun 30 timer om ugen, og de har fri hver eneste fredag. Extreme Programming, semi-faste arbejdstider og pomodoro er…