Den kunstige intelligens var kørt i stilling til endnu en stor landvinding, da Microsoft i foråret 2016 slap sin nyeste opfindelse løs på Twitter. Navnet var Tay – en Twitter-profil, der skulle interagere med brugerne på Twitter og konversere fuldstændig som et menneske. Men efter bare 16 timer blev Tay lukket ned. På det tidspunkt havde Tay forvandlet sig til et hadefuldt monster, som spyede racistiske og sexistiske kommentarer ud i verden.
Microsoft forklarede efterfølgende, at Tay var blevet offer for ”et koordineret angreb fra en gruppe mennesker, der udnyttede en sårbarhed i Tay”. Men måske var det lige præcis, hvad man kunne forvente sig af kunstig intelligens på et socialt medie. For Tay gjorde netop det, som den var sendt i byen for: At lære af sine omgivelser og indrette sig efter de input, som den modtog fra menneskene omkring sig.
Anderledes så det ud, da Google Deepminds computer Alpha Go på omtrent samme tid dystede mod stormesteren Lee Sedol i det ekstremt komplekse brætspil Go. Det kinesiske spil rummer angiveligt flere valgmuligheder, end der er atomer i verden, nemlig 2 X 10170. Mange eksperter mente, at det ville vare endnu ti år, før forskerne havde udviklet en computer med den rette kombination af beregningskraft og menneskelig intuition til at vinde. Men da dagen var omme, stod Alpha Go som vinder over en paralyseret stormester.
Eksemplet er omtalt i Thomas Terneys nye bog, ’Kampen om Fremtiden’, hvor han forsøger at gøre begreber som kunstig intelligens, algoritmer og neurale netværk forståelige for den almindelige dansker.
– Det er en teknologi, som er i færd med at transformere hele vores samfund. Men for mange handler kunstig intelligens enten om spids hat og tryllestøv, som vi drysser ud over det hele, eller også handler det om dræberrobotter, der slår os alle sammen ihjel lige om lidt, siger Thomas Terney.
- Men vi har brug for at forstå de teknologier, der former vores samfund. Hvordan skal vi kunne forme vores egen fremtid, hvis vi ikke ved, hvordan vi navigerer i den?
For at illustrere sin pointe trækker han et aktuelt eksempel frem. For nylig enedes politikerne om at afsætte en lille halv milliard til forskning i nye teknologier som kunstig intelligens, der skal indgå i alle dele af den offentlige sektor og træffe afgørelser om borgerne. Men, lyder kravet fra mange, borgerne skal have indsigt i de algoritmer, der ligger til grund for afgørelserne.
– Men det er jo bullshit. Hvordan skal politikerne og befolkningen navigere i det her, når de ikke engang ved, hvad en algoritme er? Vi står med en teknologiudvikling, der går så stærkt, at de ting, som ethvert PROSA-medlem ved noget om – data, kunstig intelligens og algoritmer – faktisk er nødvendig viden for alle borgere, siger Thomas Terney, der har en ph.d. i Computer Science og har arbejdet som løsningsarkitekt i Novozymes.
Han tilføjer, at folk har en tendens til at tro, at algoritmen er det mystiske. Men i virkeligheden er der behov for en systemtransparens end-to-end, der omfatter både data og algoritmer.
– Borgerne skal kunne få data prøvet ved en anden myndighed. For eksempel et dataetisk råd, der kan lave kritisk analyse af data og undersøge, hvad de egentlig siger noget om. Vi kan kalde det en dataninja-enhed. Selve algoritmen som koncept er jo ganske simpel. Det er jo bare en opskrift. Det er bare noget, der i en endelig sekvens af trin fortæller computeren, hvad den skal gøre. Det afgørende er de data, der kommer ind. Hvis jeg bare kan se algoritmen eller kigge ind i det neurale netværk, så får jeg ikke noget ud af det. Vi er nødt til at kigge på data i sammenhæng med de to, siger Thomas Terney.
Thomas Terney anerkender regeringens ambition om, at Danmark i 2025 skal være verdensledende i anvendelsen af kunstig intelligens. Men det bliver et overordentligt vanskeligt mål at indfri. Dels er de store tech-virksomheder som Google, Amazon og Facebook inde i en heftig kamp om at tiltrække de bedste forskerhjerner, dels investerer Kina astronomiske summer i udviklingen af kunstig intelligens.
– Kineserne har lavet den mest ambitiøse plan i verden for udviklingen af kunstig intelligens. Hvor det i Danmark handler om at smøre nogle tandhjul i den offentlige sektor, så vi med kunstig intelligens får bedre service end i dag, så er formålet for Kina at etablere det intelligente samfund. Det er et moonshot. Så der er lang vej, hvis vi skal lykkes. Ellers bliver det bare noget med at optimere sagsbehandlingen i kommunerne med fem procent, siger Thomas Terney.
Hvor Kina har et yderst liberalt forhold til privatlivsbeskyttelse og lader virksomheder få stort set uhindret adgang til alle typer af data om borgerne, så er der en helt anden tankegang i Danmark og Europa, hvor dataetik og GDPR fylder meget. Men netop den forskel kan ifølge Thomas Terney vendes til en konkurrencefordel.
– Jeg tror, at Europa har en unik rolle at spille i det her. Hvis vi får en ambitiøs plan i Europa, og hvis vi kan lave løsninger, der udnytter store data og kunstig intelligens, uden at vi begår overgreb i forhold til privatlivet, så kommer vi til at vinde på den lange bane, mener Thomas Terney.
Vi har brug for at forstå de teknologier, der former vores samfund. Hvordan skal vi kunne forme vores egen fremtid, hvis vi ikke ved, hvordan vi navigerer i den?
Omvendt advarer han mod at vende det blinde øje til udviklingen i Kina.
– Hvis vi bare affejer Kina med, at det er ren overvågning, så mister vi en meget stor del af den teknologiudvikling, der handler om at skabe smarte byer og et smart sundhedsvæsen, som også er en væsentlig del af Kinas ambition.
Du skriver, at vi er meget langt fra et scenarie, hvor kunstig intelligens matcher menneskers. Men tror du, at kunstig intelligens på et tidspunkt vil gøre præcis det?
– Mange snakker om, hvornår vores chef bliver overtaget af en kunstig intelligens. Men der er vi slet ikke i dag. Vi er ikke engang tæt på. Vi er ikke nået nogen vegne med abstrakt, kritisk tænkning i kunstig intelligens. Dér er vi mennesker fuldstændig unikke. Vi kan se nogle sammenhænge, hvor maskinerne slet ikke kan være med. Men jeg tror på, at kunstig intelligens i løbet af de næste 10-20 år fuldstændig vil forandre den måde, vi arbejder på, fordi vi kan se så mange mønstre i de stadigt stigende mængder data.
Du skriver også, at HAL og Terminator står i vejen for en bredere forståelse af, hvad AI er. Hvordan vil den omvendte vision se ud – altså den gode AI?
– Så er vi ovre i Star Trek, der ikke har det dystopiske univers, og hvor de har en maskine, der kan diagnosticere alle sygdomme. Vi mangler helt klart noget science fiction, der taler til et bedre samfund, siger Thomas Terney, som fremhæver, at sundhedsvæsenet nogle steder er langt fremme med selvdiagnostisering, som kan redde liv.
Et af eksemplerne er den tyske professor i computer science Sebastian Thrun, som Terney betegner som en af rockstjernerne inden for kunstig intelligens. Sebastian Thruns mor døde af kræft, som blev opdaget for sent, og i 2015 blev han opslugt af tanken om at udvikle en metode til at opdage hudkræft tidligere.
Hans forskerhold opbyggede et fotobibliotek med 130.000 billeder af alt fra insektbid til hudkræft samt 2.000 billeder af hudskader, der allerede var undersøgt af patologer med biopsi. Herefter opbyggede de et neuralt netværk, som lærte at kategorisere billederne.
Nu har Sebastian Thrun udviklet en applikation, så man med sin smartphone kan tage billeder af hudpletter og få en vurdering af, om man er i færd med at udvikle kræft.
– Det er vildt. Den kan på samme niveau som en trænet hudlæge afgøre, om det er noget, vi skal have en biopsi af. Det betyder, at mange flere mennesker har mulighed for at få taget en test i tide, fortæller Thomas Terney.
Men er der også en stopklods for dig, når det gælder AI?
– Jeg bryder mig ikke om, at kunstig intelligens bliver brugt til hverken krig, manipulation eller overvågning. For mig er teknologien et nyttigt redskab, men det kommer an på, hvad den bliver udviklet til, hvem der står bag og hvorfor. Der er mange, der snakker om et tech-backlash. Men det er jo ikke et tilbageslag mod teknologien. Det er rettet mod nogle af giganterne, der har akkumuleret så store summer og så meget magt. Der er jo ikke nogen, der går ned til lægen og siger: ’Jeg skal ikke kikkertopereres, I skal bare sprætte det hele op, for jeg er imod teknologi’.
Også i politik har brugen af personlige data i kombination med kunstig intelligens vist sin foruroligende styrke. Hele sagen om Cambridge Analytica, der høstede data fra Facebook og udnyttede dem i både Brexit-afstemningen og Donald Trumps valgkampagne, dokumenterer, hvor langt man kan gå i brugen af individualiserede annoncer og marketing.
Det er en teknologi, som er i færd med at transformere hele vores samfund. Men for mange handler kunstig intelligens enten om spids hat og tryllestøv, som vi drysser ud over det hele, eller også handler det om dræberrobotter, der slår os alle sammen ihjel lige om lidt
Tilbage står et såret demokrati, der ifølge nogle eksperter blev voldtaget af data.
– Jeg tror, man skal være opmærksom på demokratiet, når vi taler om kunstig intelligens, siger Thomas Terney, men han advarer mod at tillægge virksomheder gode eller onde intentioner.
– Deres mål er bare at tjene penge. Hvis du tillægger disse virksomheder nogle særlige egenskaber som for eksempel at gøre godt i verden, så er du naiv. Omvendt har meget få virksomheder formentlig en egentlig ondsindet plan. De er bare skruppelløse i deres ønske om at tjene penge, siger han.
Han understreger, at en af de største udfordringer ved kunstig intelligens er at forstå, hvordan bias opstår, og hvor den kommer fra, så vi kan reagere på det.
– Kunstig intelligens kommer til at udfordre os på vores retfærdighedssans og etik, fordi data kommer til at afsløre aspekter af verden, som på ingen måde er politisk korrekte. Det kan være måden, retssystemet har fungeret på historisk, eller en overrepræsentation af folk med anden etnisk herkomst i kriminalstatistikkerne. Hvis vi automatiserer og indretter politiets efterforskning og præventive arbejde efter det, så skal vi holde tungen lige i munden. Bias opstår ikke, fordi den bevidst bliver indbygget i systemet, men fordi systemerne replikerer en bias, som allerede ligger i den måde, vi træffer afgørelser på i forvejen. Når vi gerne vil finde mønstre i de enorme datamængder, vi har, hvad gør vi så, når vi finder et mønster, vi ikke kan lide?