foto

Kunstig intelligens er et ekstremt kraftigt værktøj, der giver mulighed for at forandre verden på godt og ondt, påpeger Kim Escherich. Foto: Magnus Møller

dataetik

Det menneskelige kompas

Kim Escherich er formentlig verdens første dataetiske ombudsmand, som jonglerer med komplekse dilemmaer om kunstig intelligens i IBM og fastholder en menneskelig dimension i den teknologiske udvikling.

Kim Escherich husker tydeligt den 5. november 2019. Det er dagen, hvor det går op for ham, at han ikke har lov til at kalde sig dataetisk ombudsmand. En titel han har fået knap et år tidligere, da IBM Danmark beslutter at sætte dataetik øverst på dagsordenen både internt i virksomheden og i offentligheden.
– IBM modtog simpelthen et brev fra Folketingets Ombudsmand, der lod os forstå, at det kun er ham, der må bruge den titel, siger Kim Escherich.

TEMA:

Denne artikel er en del af et tema om demokratiske algoritmer:
Adas drøm bleve til virkelighed
Det menneskelige kompas
Dataetiske dilemmaer
Algoritmer skal være legitime

Næste dag skulle han afvikle et dataetisk dilemmaspil foran 800 mennesker i KB-Hallen, så han fik travlt med at ændre sin præsentation. Også i IBMs amerikanske hovedkvarter blev det bemærket, at den danske afdeling havde udnævnt en dataetisk ombudsmand.
– Men vi har altid været anarkister i IBM Danmark. Vi har lavet en del ting, som er rygtedes ude i verden, siger Kim Escherich, der nu kalder sig AI-dataetisk rådgiver og innovationsarkitekt.

Kim Escherich har siden 2003 været ansat i forskellige kreative ledelsesroller i IBM. Men behovet for at sætte øget fokus på de dataetiske dilemmaer ved kunstig intelligens er blevet mere og mere klart for ham i de senere år.

Særligt én episode var en øjenåbner. Under et oplæg for ledere i den danske forsikringsbranche om IBMs berømte Watson AI præsenterede han et tænkt eksempel om at installere sensorer i toiletspejlene på arbejdspladserne, som aflæser medarbejdernes fysiske tilstand baseret på ansigtsfarve, mimik og rynker.

Sensorerne kan også forudsige hjertekarsygdomme, inden de opstår, aflæse blodtryk og andre sundhedsdata – og dermed danne grundlag for prissætningen af sundhedsforsikringer.

 

Alle de tilstedeværende forsikringsselskaber ville tage imod en sådan teknologi med åbne arme, fortæller Kim Escherich.
– Det var ganske chokerende. Jeg ved godt, at data og evnen til at forudsige hændelser er væsentlige parametre for forsikringsselskaber, men det rejser det etiske spørgsmål om, hvor vidt vi som samfund vil have solidariske eller individbaserede forsikringer, og om vi er interesserede i at få billigere forsikringer, hvis vi udleverer vores sundhedsdata, siger Kim Escherich.

Efterfølgende gik han i gang med at formulere flere dilemmaer, som kan danne grobund for diskussioner om, hvad vi vil med kunstig intelligens.

Med en baggrund som cand.polit. har Kim Escherich både matematik, statistik og den videnskabelige metode med i bagagen, og i 1990erne arbejdede han med mainframecomputere i Magasins it-afdeling, hvor data blev lagret på magnetbånd.
– Jeg var dét, man kalder en båndabe, siger han.

Siden gik vejen til Nationalbanken, Privatbanken og Unibørs som it-konsulent og senere partner i PWC, inden han endte i IBM.

Antidepressive data

Som AI-dataetisk rådgiver tilbyder han alle medarbejdere i IBM at spille en times dataetisk dilemmaspil, som trækker fronterne op og sætter tankerne i gang om de udfordringer og faldgruber, som den kunstige intelligens rummer.
– IBM har på globalt plan en filosofi om, at alle medarbejdere har et etisk medansvar – både dataloger, arkitekter, sælgere og programmører. Derfor besluttede vi at uddanne alle medarbejdere i, hvordan vi skal agere i en verden, hvor der er adgang til enorme datamængder med en meget reel mulighed for misbrug og overvågning, siger Kim Escherich.

Kim Escherich

ALDER: 56 ÅR

UDDANNELSE:
Cand.polit. fra Københavns Universitet. Diplomuddannelse i strategitænkning i IT-industrien.

KARRIERE:
1991-1994 Leder af it-drift og strategi i Unibørs

1994-2002 Management­konsulent og senere partner i PWC

2003-2012 Partner og it-arkitekt IBM Nordic

2012-2015 Executive Innovation Architect, CTO-Team, IBM Europe

2015-2017 Pan-European Innovation Architect, IBM Watson IoT Europe

2017-2019 Innovationsarkitekt på Watson AI og IoT i IBM

2019- AI-etisk rådgiver i IBM

Medstifter af den biodynamiske restaurant Muldiverset (2019-) og stifter af tænketankene Foodpeace (2014-), Nordic Bildung og Fremvirke (2018-2020) samt Danmark 5.0 (2016-2019). Medlem af Faculty med speciale i IoT, AI og Smart Cities hos SingularityU Nordic (2018-).

Han trækker et tænkt dilemma frem om et medicinalfirma, der har indsamlet store mængder personlige data fra brugere af antidepressive midler, så man kan se deres historik. Hvis disse data holdes op mod data fra Facebooks brugere, er det muligt at forudsige, hvem der er disponeret for depression i fremtiden. Dermed kan produktet markedsføres til dem som målrettede annoncer.
– Er det uetisk? I de fleste tilfælde er det jo ikke den tekniske løsning, der er problemet. Det er konsekvenserne, der er uetiske. Hvis man havde vidst, at udbredelsen af AirBnB ville udradere hele den gamle bydel i Barcelona for faste beboere, ville man så have udviklet konceptet? Derfor er der brug for at have en mere holistisk tilgang. Det er min rolle, siger Kim Escherich.

Et andet eksempel er udviklingen af teknologi til ansigtsgenkendelse. IBM har i årevis har spillet en aktiv rolle i at sikre, at teknologien kun anvendes til samfundsnyttige formål – og ikke på områder, hvor den kan skade menneskerettigheder eller bidrage til diskrimination.

Både IBM, Microsoft og Amazon indstillede i juni 2020 helt eller delvist deres udvikling og salg af teknologien i kølvandet på flere episoder, hvor amerikansk politi foretog voldsomme anholdelser af Black Lives Matter demonstranter. Kameraer med ansigtsgenkendelse spillede i flere tilfælde en kritisabel og fejlbehæftet rolle.
– Det er et eksempel på en umoden teknologi, som har vist sig at indeholde en stor risiko for indbygget bias eller diskrimination. Kunstig intelligens er et ekstremt kraftigt værktøj, der giver mulighed for at forandre verden på godt og ondt, siger han.

Da Københavns Politi forrige år udtrykte varme følelser for teknologi til ansigtsgenkendelse, diskuterede Kim Escherich og den øvrige IBM-ledelse, hvad de skulle stille op, hvis de fik en konkret henvendelse om at levere udstyr til politiet.
– Vi vurderede, at det ville være usmart at sælge og implementere disse teknologier uden diskussion om de etiske faldgruber og konsekvenser, så vi ville nok blive lidt besværlige. Men heldigvis ringede de ikke, siger Kim Escherich.

Grædende skulder

I rollen som AI-dataetisk rådgiver er det ikke ham, der beslutter, om en bestemt teknologi skal udvikles eller smides i skraldespanden. Han er ikke dommer. Men han kan yde fagligt modspil, hvis en medarbejder for eksempel har fået en forespørgsel fra en kunde om at udvikle et særligt AI-værktøj, der kan optimere forretningen eller markedsføringen af et produkt – men samtidig rummer et etisk dilemma.
– Jeg er den skulder, de kan græde ud ved. Det handler om at bruge det menneskelige kompas, når vi ikke kan gennemskue teknologien eller forstå konsekvenserne af den, siger han.

 

Endnu er han ikke blevet overrendt af medarbejdere, men han er sikker på, at frekvensen bliver øget i de kommende år. For vi i er på vej ind i et farligt landskab i takt med væksten i de datamængder, som vi alle sammen bidrager til gennem vores brug af mobiltelefoner, apps, internet, sociale medier og Internet of Things (IoT), mener Kim Escherich.
– Det handler om overvågningskapitalismen, datahøsten på sociale medier og konspirationsteorier og ekkokamre på Facebook. Det er overvældende. Og mange mennesker mangler forståelsen af, at når noget er gratis, så betaler du med dine personlige data. Dermed kan virksomheder skabe din digitale tvilling til at lave præcise forudsigelser af dit forbrugsmønster, siger Kim Escherich.

En ny dannelsesrejse

Kim Escherich definerer sig selv som humanist, filosof og aktivist, og han har adskillige filantropiske projekter bag sig ved siden af sin professionelle karriere. Og når det gælder digital dannelse og teknologiforståelse, så rækker han tilbage til Grundtvig, Kold og den danske højskolebevægelse, som ifølge Kim Escherich ”flåede bønderne op ad plovfurene og ind på skolebænken” og gav en almen dannelse og samfundsforståelse.
– Det har i meget høj grad formet det samfund, vi har i dag. Min store drøm er, at vi kan gøre noget tilsvarende i dag. Hive børn og voksne væk fra skærmene og give dem samme dannelsesrejse som dengang, så de kommer ud med en mere kritisk forståelse af teknologien, siger han.

Hvis man havde vidst, at udbredelsen af AirBnB ville udradere hele den gamle bydel i Barcelona for faste beboere, ville man så have udviklet konceptet?
- Kim Escherich

For to år siden designede han sammen med en flok ligesindede den nye højskolebevægelse Fremvirke, som gennem sang, varieté og dilemmaspil forsøgte at klæde folk bedre på til at forstå og modstå den digitale forandring, vi står midt i. Og der er nok at tage fat på, fastslår Kim Escherich.
– Det, vi har behov for som mennesker i den digitale tidsalder, er at kunne navigere i noget, vi ikke har set før. Lige nu er det måske overskueligt, men vi er på vej ind i en uhyggelig teknologisk fremtid med VR, AR, nanoteknologi med nye materialer vi aldrig har set før, og bioteknologi, hvor vi kan hacke os til et nyt liv. Hvordan skal vi navigere i det, spørger han.

Svaret skal blandt andet komme gennem en levende debat om, hvordan teknologierne påvirker os som mennesker og samfund.
– Almendannelse er det, vi lærte i skolen i fag som matematik, retskrivning og historie. Digital dannelse er, at vi ikke skal dele nøgenbilleder online. Dannelse – det er hvad, der er tilbage, når vi har glemt, hvad vi har lært. Og dannelsen skal vi bruge i de situationer, hvor erfaring, moral eller lovgivning ikke kan dæmme op for de dataetiske udfordringer, siger Kim Escherich.

Algoritmisk autoritet

Hvordan kan mindre it-virksomheder arbejde med de problematikker, du rejser?

– Man må i første omgang spørge sig selv, om man skal opfinde noget, bare fordi det er muligt. Der vil altid være nogle, der er enormt teknologioptimistiske, men det er ledelsen, der har det etiske ansvar. Man kan komme langt med et grundkursus i filosofi og etik og ved at læse digte og verdenslitteratur.

Er vi som samfund for tillidsfulde i forhold til kunstig intelligens?

– Vi skal i hvert fald passe på med at tillægge modellerne en algoritmisk autoritet. Vi har i de sidste 50 år opbygget en enorm tillid til de mainframecomputere, der blandt andet beregner vores skat. I dem kan vi gennemskue koden og se, at 2+2 er 4. Med de neurale netværk kan vi ikke forstå det. Alligevel tror vi på det, når den siger, at 2+2 er 4,2. Og det er farligt. Vi skal lade være med at tage den autoritative tankegang med over til den kunstige intelligens.


Læs også...

Millioner af udviklere verden over bruger hver dag JavaScript – men hvorfor er programmeringssproget blevet så populært? PROSAbladet har talt med…

Et nyt projekt indsamler danske stemmer for at sikre, at AI-løsninger fremover også kan tale med dialekter. Du kan også donere din stemme, skriver DR.…

I dag lever Andreas Green Rasmussen af at finde dygtige iværksættere, han kan investere i. Men han har også selv flere startups på CV'et – og han ved,…

Ugly Duckling Ventures er en dansk venturefond, der håber at finde de startups, som bliver store milliardforretninger. Men hvad er en venturefond…

Der findes et hav af muligheder, når du som iværksætter skal finde finansiering til din startup. PROSAbladet guider dig til otte steder, hvor du kan…

Tech-giganterne er stadig i front, når it-studerende skal rangere populære arbejdspladser. Til gengæld har de store konsulenthuse taget et stort dyk…

Nye løsninger, en fælles dataplatform og et digitalt innovationscenter. Det er tre af hovedpunkterne i regeringens nye udspil, der skal sætte skub…

I den lille, amerikanske by Granbury i Texas summer en bitcoin-mine så meget, at borgerne i byen bliver syge.

Aktivisme er et vanvittigt godt ord til at beskrive rigtigt meget af det, der sker i underskoven af it og tech. Aktivisme er aktivt at deltage. At…

Når teknologien ikke virker, eller vi mennesker skal lære nye systemer at kende, kan det skabe stress. En gruppe forskere fra Roskilde Universitet har…