Jeg var lige ved at få kaffen galt i halsen, da jeg læste artiklen: ”Robojudge – hvad sker der, hvis dommeren er en algoritme” i sidste nummer af PROSAbladet (nr. 2 – 2025).
Artiklen handler om et forskningsprojekt med at bruge AI i retssystemet.
I den første del af artiklen fik jeg et godt indtryk af arbejdet.
Men så udtaler forskningslederen pludselig, at der er NOGLE, som kan være utilfredse med, hvis man ikke kan få baggrunden for afgørelsen at vide.
Det kan man da roligt sige. Baggrunden for en dom – det der i fagsprog hedder præmisserne – er jo en fuldstændig afgørende del af dommen. Uden den vil det være svært at anke (men den mulighed skal måske også fjernes – den er jo ligegyldig, hvis det er samme AI-system, der skal dømme).
Det er jo alle præmisserne, som fortæller – ikke kun den dømte, men også alle andre – hvad vi må og ikke må her i samfundet.
Professoren mener også, at man med AI kan slippe for den BIAS, som findes i systemet (hvor rige lyse personer behandles bedre end fattige og brune). Desværre er det ikke sådan. AI-systemerne ”arver” nemlig fordomme. Det siger han også senere i interviewet.
Jeg er også meget kritisk over for, at systemet skal komme med forslag til straf.
Jeg er helt enig i, at de lange ventetider i retssystemet er et meget stort problem. Jeg tror også, at AI muligvis kan bruges til at forkorte ventetiden. Research er jo f.eks. noget af det, det virkelig kan.
Men jeg er også meget kritisk over for, at systemet skal komme med forslag til straf, bl.a. baseret på statistik over risikoen for gentagelse. Her kan bias virkelig fylde. Og i modsætning til dommerens egen bias, som hun/han dog har en chance for at forholde sig til, så vil AI’ens domsforslag være en samlet vurdering, hvor du ikke kan få at vide, hvad der er grundlaget for forslaget.
Forskningslederen udtaler om problemet med AI- domsafsigelser: ”I princippet er udfordringen dog ikke så stor, som den lyder, hvis vi kan blive enige om, hvilke forklaringer vi behøver, og om vi har tillid til algoritmen”.
Det er da utroligt naivt at tro, at vi skulle have tillid til domme, som vi ikke må få at vide, hvordan man er kommet frem til.
Vi lever jo med finansministeriets regnemodeller, som helt tydeligt hele tiden regner forkert – og rigtig meget forkert, uden at det medfører ændringer. Og alligevel indgår det i politiske forhandlinger som et ubestrideligt faktum, når den fantastiske model kommer med input.
Jeg har i forbindelse med mit tidligere arbejde i PROSA deltaget i virkelig mange retssager, og jeg kan godt være lidt imponeret over dommeres evne til at gennemskue, når et vidne lyver. Hvordan forestiller man sig, at AI skal løfte den opgave.
Forskningslederen er også inde på, at man måske kan løse det med open source, så man kan se algoritmen. Jeg er meget stor tilhænger af open source, men dette problem kan det ikke løse. En dom skal indeholde præmisserne i klar tekst.
Det er da utroligt naivt at tro, at vi skulle have tillid til domme, som vi ikke må få at vide, hvordan man er kommet frem til.
Det er jo ikke retssystemet, der skal tilpasses AI.
Det er jo i øvrigt interessant, at det er netop det at skrive dommen og ikke mindst præmisserne, der tager tid, så hvis vi ville skippe det, kunne vi også nedbringe ventelisterne uden AI.
Jeg synes, det vil være interessant at høre, hvad du som læser tænker om dette.