Forskningsprojektet ’Bias and fairness in medicine’ skal udvikle algoritmer for retfærdig kunstig intelligens. Håbet er, at de kan diagnosticere og henvise til behandling i sundhedsvæsenet uden at forskelsbehandle. For fordomme er ikke kun forbeholdt mennesker. Algoritmer er oplært til at reproducere de beslutninger, der forekommer i de data, de er trænet på.
Hvis mænd bliver underdiagnosticeret med depression, mens kvinder ikke gør, vil den kunstige intelligens udøve den samme partiskhed, når den diagnosticerer depressionen. Og hvis læger holder tilbage med at give psykologtimer til mænd, vil algoritmen gøre det samme. Det er ikke optimalt, at det sker denne forskelsbehandling.
Alle har ret til en korrekt diagnosticering og fair behandling. Projektet skal derfor udvikle algoritmer for kunstig intelligens, der er ude af stand til at diskriminere nogle patienter.
En veltrænet algoritme vil ikke have den støj, som et menneske har. En algoritme har ikke en dårlig dag, som en læge kan have.
Jeg samarbejder med Sune Hannibal Holm, som forsker i AI og etik på KU, og Melanie Ganz, der forsker i depression og statistiske metoder for sundhedsdata på Rigshospitalet. Først vil vi lave et registerstudie, hvor vi ser på depressionsdata hos danske patienter. Vi vil teste vores hypotese om, at der er skævheder i data, for eksempel i hvor tit danskerne bliver diagnosticeret, og hvilken type behandling de får baseret på køn, alder, geografi og indkomst. Herefter vil vi undersøge, hvad det vil sige, at en algoritme skal være fair i sundhedsvæsenet. Til sidst vil vi udvikle algoritmer for mere retfærdig kunstig intelligens i sundhedsvæsenet.
Det er ikke oplagt, hvad det vil sige, at en sundhedsalgoritme er retfærdig. Det skal vi undersøge, og vi vil skabe nye definitioner af retfærdig kunstig intelligens, for det at være "retfærdig" i sundhedssektoren er med stor sandsynlighed anderledes end andre steder.
Projektet er støttet af Danmarks Frie Forskningsfond.
Følg projektet på fairmed.compute.dtu.dk