Hvad er kunstig intelligens – eller den engelske forkortelse AI – som vi alle har taget så meget til os, at det blev årets ord i flere lande sidste år?
Det er i hvert fald en misvisende betegnelse, lyder det fra flere eksperter, som PROSAbladet har talt med.
De hæfter sig ved, at vi dårligt er klar over, hvad intelligens er.
Ifølge dem er AI falsk varedeklaration.
De kalder det i stedet en meget, meget stor beregner – som ikke aner, hvad den har med at gøre, men kan foregive at have det – primært ved at have trænet, tygget på og sorteret i astronomiske mængder af tekst, fotos, film og andet og derefter lært at sætte dem (for os) meningsfyldt sammen ud fra sandsynlighed.
Det er blandt andet lige præcis dét, som ChatGPT er indbegrebet af, forklarer Anders Kofod-Petersen, datalog og professor i anvendt kunstig intelligens ved Norges tekniske og naturvidenskabelige universitet.
”Hvis den (ChatGPT, red.) skriver: ’Jeg er en hest’, så kunne den lige så godt have skrevet: ’x27, x28, x29’. Den kan i princippet ikke forbinde ordet ’hest’ med noget. Den ved egentlig ikke, at det er et dyr,” siger Anders Kofod-Petersen og fortsætter:
”Den har dog en slags implicit model af, hvilke ord som er tætte på hinanden. For eksempel at ’hest’ er tættere på ’elefant’ end på ’køleskab’. Så den har en implicit model af sprog, men ikke eksplicit.”
En gamechanger i forhold til de store sprogmodeller, som er beskrevet i den videnskabelige artikel ’Attention is all you need’ fra 2017, er at lære modellerne, hvordan de skal fokusere på enkelte ord i stedet for hele tekststrenge. Altså hvad de skal give attention. Det er transformerdelen, som også er T’et i GPT.
”Det er en af hoveddelene i de sprogmodeller som ChatGPT, vi ser i dag, og en væsentlig bestanddel af den udvikling, vi har set inden for de sidste 7-8 år inden for generativ AI,” siger Stefan Horst Sommer, der er professor ved Datalogisk Institut på Københavns Universitet og ekspert i kunstig intelligens.
Symbolsk AI er den ”gammeldags” kunstige intelligens. Her lærer vi maskinen symboler, og det kræver uendelig mange ressourcer og tid, fordi vi skal opstille alle tænkelige scenarier.
Hvis vi i stedet bruger subsymbolsk AI – som blandt andet ChatGPT bygger på – kan vi i stedet træne maskinen, så den selv kan definere symboler og lave statiske forbindelser.
Fordelen ved subsymbolsk AI er, at vi kan bruge mange, mange flere data, men risikoen er til gengæld, at maskinen hallucinerer, fordi den ikke ved, om det, den siger, reelt er sandt eller falsk.
Symbolsk vs. subsymbolsk AI
En anden forskel i udviklingen er skiftet fra brug af symbolsk AI til ikke-symbolsk/subsymbolsk AI.
”Symbolsk AI er den relativt gammeldags måde, hvor man på forhånd sætter eksplicitte regler op for, hvordan et system skal ræsonnere. Vi siger for eksempel til systemet: Her er en kaffekop. Men en kaffekop kan være super mange ting. Så hvis vi skal lave et symbolsk system, så skal vi kode alle variationerne ind, og det er meget omfattende at lave et system, som blot genkender kaffekopper,” fortæller Stefan Horst Sommer.
ChatGPT ved ikke, om det, den siger, er rigtigt eller forkert. Den er bare overbevist om, at det er rigtigt – så det er er egentlig lidt en bullshitgenerator.
Hvis vi derimod gør det ikke-symbolsk, så træner vi ved at vise tusinder og atter tusinder af billeder af kaffekopper uden først at definere, hvad en kaffekop er.
”Det samme gælder selvkørende biler. Hvis vi skulle definere alle scenarier for vejr, vind, nat, dag, tusmørke, skilte og børn, der går over vejene, så ville det være tungt og tage meget, meget lang tid. I praksis har det vist sig ikke at være muligt,” siger Stefan Horst Sommer.
”I moderne kunstig intelligens (subsymbolsk, red.) træner vi på videomaterialet fra tusindvis af timers optagelser fra bilkameraer, og så lærer maskinen selv, hvad der er hvad erfaringsmæssigt. Det er det, der foregår i dag på en hel crazy skala med 400 milliarder variable,” siger han.
Forstår den, hvad en kaffekop er?
ChatGPT og de andre generative modeller hører under kategorien ”subsymbolsk kunstig intelligens”.
Her udsætter vi altså maskinen for en kolossal mængde af data og lader det være op til maskinen selv at adskille æbler fra pærer og flodheste fra bjørne. Maskinen begynder at genkende data, fordi den ser data igen og igen, når vi træner maskinen, og herfra laver den forbindelser mellem data – lidt ligesom vores neurale forbindelser i hjernen.
Tilbage til kaffekoppen fra før: Maskinen får præsenteret data, hvor en kaffekop indeholder kaffe, og derfor begynder den at kunne genkende sammenhængen, og den laver den statistiske forbindelse mellem de to datapunkter (’kaffe’ og ’kaffekop’) – men maskinen forstår altså reelt ikke, at der er tale om kaffe i en kop. Den genkender kun data, statistikken og forbindelserne.
Kørte sprogmodellerne på ’symbolsk kunstig intelligens’ – også kaldet Good Old Fashioned AI, GOFAI – skulle vi i stedet fra start lære maskinen alle de symboler, den skal forstå.
For eksempel at en kaffekop er en kaffekop, og at kaffe er kaffe. Herefter ville vi give maskinen regler. En regel kunne for eksempel være, at kaffe skal i kaffekoppen – så nu ved maskinen, at de to ting hænger sammen, men den har altså ikke selv lavet forbindelsen, den har vi defineret for den.
Som nævnt – det er omfattende og besværligt. Derfor har vi siden 1980erne stort set kun gjort brug af subsymbolsk AI.
Det er i øvrigt også derfor, at vi oplever, at sprogmodeller kan hallucinere. Altså hvis ChatGPT pludselig siger, at der skal kalkfjerner i sovsen, eller at Danmark er et land i Sydamerika.
”Den ved ikke, om det, den siger, er rigtigt eller forkert. Den er bare overbevist om, at det er rigtigt – så det er er egentlig lidt en bullshitgenerator,” siger Anders Kofod-Petersen.
LLM
Sprogmodeller – eller large language models – er trænet på kæmpestore datasæt, der gør, at modellerne kan analysere og sammensætte ord og tekster. Det er især de seneste års udvikling af de store sprogmodeller, som har ført til det massive AI-boost, vi står midt i.
MULTIMODALITET
Når man taler om multimodale modeller, betyder det, at AI-løsningerne kan bearbejde forskellige slags data – for eksempel tekst, lyd, billeder, video og computerkode – samtidig. De nyeste generative AI-løsninger er i dag typiske multimodale modeller, og grundlæggende er det interessant, fordi løsningerne pludselig får mange flere grundkilder.
Det er teknologi – ikke intelligens
Selvom der er forskel på symbolsk og subsymbolsk AI, er fællestrækket, at ingen af delene kan måle sig med vores menneskelige intelligens.
AI kaldes i princippet blot intelligent, fordi den kan hjælpe med at udføre opgaver, vi før var ene om at mestre.
Alligevel kan maskinlæringen, den neurale træning og den generative AI en hel masse. Grænserne skubbes næsten dagligt.
I dag kan hvem som helst producere hæderlige videoer ud fra selvskrevne prompter hjemme ved køkkenbordet, skabe fake fotos og levende billeder af hvilken som helst politiker, lave egne tæt-på-at lyde-som-Beatles-sange med få tastetryk, chatte med bot-psykologer eller uploade en tegning af en prinsesse og få leveret et færdigskrevet eventyr om hende, som en Google-chef for nylig fortalte, at hendes datter havde gjort med Gemini på telefonen. Og mon ikke, vi om kort tid kan lave spillefilm direkte til biografen?
Den måde, vi træner de her maskinlæringssystemer på, er – lidt groft sagt – egentlig det samme, som vi har gjort siden 1980.
AI i dag – hvad enten vi taler om ChatGPT, Gemini eller selvkørende biler – er dog ikke intelligente som vi mennesker.
Kunstig intelligens er teknologi, der primært er resultatet af knalddygtigt ingeniørarbejde og adgangen til en næsten uendelig mængde af data fra det vildt voksende internet.
Eller som Dan Rose Johansen siger:
”Det at bruge ordet intelligens er dumt. Det er egentlig bare computersystemer, der er baseret på eksempler og observationer.”
Han har arbejdet med kunstig intelligens i ni år, forfattet bogen ’Applying Artificial Intel - ligence’ og er stifter af Todai, som rådgiver virksomheder i at implementere AI.
Vi kan snakke med maskiner
Og Dan Rose Johansen er ikke alene. Andre påpeger over for PROSAbladet, at det, vi kaldte kunstig intelligens for fem år siden, i dag bare kaldes programmering, og at det om fem år sikkert vil ske det samme. Her vil vi måske bare kalde ChatGPT for et smart stykke software?
Alligevel taler alle om AI og kunstig intelligens og bruger betegnelsen i flæng. Måske fordi resultatet, intelligent eller ej, er en mindre revolution af brugbar teknologi, som vil forandre samfundet hurtigere, end vi måske kan følge med.
Som Thore Husfeldt, algoritmeforsker på IT-Universitetet, fortæller:
”Vi kan lave en maskine, vi kan snakke med. Det er noget, vi har drømt om i 2.000 år, så det er helt vildt. Alan Turing, datalogiens fader, sagde i 1950, at vi ville se maskiner, man kan snakke med – og det er der, vi er nu. Jeg er rystet.”
En kodyl, kæmpe, enorm, monsterstor statistisk model
Og det er netop den folkelige oplevelse af at kunne ’snakke med en maskine’, som har sat turbo på AI-debatten og snakken om kunstig intelligens. Det skete, da ChatGPT bragede globalt ud til alle med netforbindelse i efteråret 2022.
Med ChatGPTs succes og hype flyttede begreber som generativ AI og sprogmodeller ud af nørdernes rækker og ind i alles arbejdsliv og skoleliv. Vi fik noget mellem tastefingrene, som var umiddelbart anvendeligt til mange ting og enormt hurtigt.
Med en enkel forespørgsel kunne man få skrevet et essay, løst skoleopgaver, lavet artikler og en hel masse andet. Og kvaliteten var – og er – generelt til den brugbare side.
Men igen. Intelligent er det ikke.
Ifølge forskerne er det med ChatGPT ligesom pophittet, der spilles overalt og pludselig giver navn til en musikgenre, som kommer bag på mange, men i virkeligheden har eksisteret i adskillige år.
”I bund og grund er GPT-modellerne en kodyl, kæmpe, enorm, monsterstor statistisk model af, hvilke ord der har en tendens til at komme efter hinanden i rækkefølge. Og når du så skriver et eller andet til den – eller prompter den, som det nu moderne hedder – så styrer du egentlig, hvorhen i den her statistiske model, den skal kigge ind. Men den har ingen idé om, hvad ordene betyder,” forklarer professor Anders Kofod-Petersen.
Vi kan lave en maskine, vi kan snakke med. Det er noget, vi har drømt om i 2.000 år, så det er helt vildt.
Stefan Horst Sommer er enig:
”Det har intet med intelligens at gøre. Meget er ligesom for 50 år siden, men er nået lidt længere, og de store tekniske spring kom for 12 år siden med neurale netværk, hvor man binder ting sammen i netværk efter samme model, som vi kender i hjernen. Altså en type maskinlæringsmodel inspireret af strukturen i den menneskelige hjerne,” forklarer Stefan Horst Sommer.
Neurale netværk består af indbyrdes forbundne noder, eller ’neuroner’, organiseret i lag. Hvert neuron modtager input, anvender en aktiveringsfunktion og sender outputtet til det næste lag. Neurale netværk er effektive til opgaver som billed- og talegenkendelse.
”Selvom de underliggende modeller ikke er revolutionerende forandret, så bliver jeg alligevel overrasket over, hvor godt det virker. På mange måder har vi i dag levet op til Turing-testen, nemlig at vi kan være i en slags dialog med en maskine,” siger Stefan Horst Sommer.
Turing-testen fra 1950, der er opkaldt efter Alan Turing, er en måde til at afgøre, om en maskine udviser intelligens på et menneskeligt niveau – uden at man på samme tid er nødt til at definere, hvad intelligens reelt er.
”Men herfra er der stadig langt til det, vi kalder AGI (artificial general intelligence – eller generel kunstig intelligens, red.). For AI kan i dag ikke planlægge eller gøre helt simple ting, som mennesker kan,” fortæller Stefan Horst Sommer.
AI
Kunstig intelligens – eller artificial intelligence – er det samlede begreb for teknologier, der forsøger at imitere den menneskelige hjerne. I dag har vi dog kun ”svag” kunstig intelligens, hvilket betyder, at teknologien ved hjælp af data og algoritmer kan udføre opgaver, der minder om menneskers ageren, men som ikke har en bevidsthed eller reelt selv kan tænke.
ML
Maskinlæring – eller machine learning – er en underkategori af kunstig intel - ligens. Her gør man brug af data og statistiske modeller til at forbedre maskinen løbende, så den kan udføre handlinger mere og mere præcist. Mange af de løsninger, vi i mange år har kendt som AI-løsninger, er reelt machine learning.
Hestekræfter og brændstof
Den egentlige udvikling skal altså findes inden for maskinkraft og ingeniørarbejde tilsat et internet.
”Som professor i fagfeltet vil jeg selvfølgelig gerne sige, at vi oplever et kæmpe gennembrud. Men der er i bund og grund ikke sket noget siden 1969. I hvert fald ikke siden 1980,” fortæller Anders Kofod-Petersen og fortsætter:
”Grunden til, at det virker nu, er noget så kedelig, som at vi har fået adgang til nok digitale data, og at vi har fået nogle voldsomt kraftige maskiner – og at vi så har fået den lyse ide at koble de to ting sammen. Det er det, der er gjort. Den måde, vi træner de her maskinlæringssystemer på, er – lidt groft sagt – egentlig det samme, som vi har gjort siden 1980. Vores metoder har bare manglet hestekræfter og brændstof.”
Thore Husfeldt, algoritmeforsker og professor på ITU, har den her forklaring:
”Hvorfor kunne vi ikke bygge det her i 1980? Dels var der nogle ting, vi ikke havde fundet på endnu. Dels havde vi ikke hurtige nok computere. I dag har vi meget stærke parallel-beregningscomputere. Og dels havde vi ikke internettet og derfor ikke data. Det nye ved internettet er, at der pludselig kom en masse træningsdata. Så de tre ting skete inden for en 20 års periode, og de spiller godt sammen.”
Alligevel er han og de øvrige eksperter, PROSAbladet har talt med, overraskede og begejstrede over, hvor godt modeller som ChatGPT virker.
”For mig er det mest imponerende det, der hedder transformer-arkitekturen, som er en specifik måde at træne neuralnet på. Altså T'et i GPT – og det, at det virker så godt, som det gør, synes jeg næsten, er uanstændigt,” siger Thore Husfeldt.
Generativ AI kan – som navnet antyder – generere nyt indhold. Det kan være alt lige fra tekst og billeder til lyd og video.
ChatGPT, Gemini og Copilot er eksempler på generative AI-løsninger. Løsningerne skaber ikke nødvendigvis sande tekster eller billeder, men sammensætter data (ord, lyd osv.) ud fra statistiske modeller, så det kan ligne, at man som bruger interagerer med et menneske.
Et AI-kapløb
Det interessante ved AI er altså ikke nødvendigvis, om den er intelligent – for det er den med forskernes ord ikke.
Det interessante er de resultater, som kan ses nu – og har blæst alle bagover.
Og ikke mindst de kolossale forandringer, som når samfundet kastes rundt i hækbølgen på de stadig større generative motorer. En meget stor række arbejdsopgaver kan allerede automatiseres – fra diagnosticering, referatskrivning, sagsbehandling, journalistik, konsultation, juniorprogrammering og meget, meget mere.
Derfor sker der også en af de historisk største oprustninger i forhold til investeringer og forsøg med nye AI-systemer. Det handler om at få de største muskler og at have sin egen model, så alle forsøger sig med de nye muligheder for at træne stadig mere effektivt på nye data – ja, tilmed på syntetiske data. Altså smide en model af et objekt, for eksempel en bil, ind i en billedgenerator, der generer tusindvis af syntetiske miljøer, lysforhold og vinkler, og så træner modellen ud fra det.
Derfor investeres der næsten ubegribelige summer i de her år. Det er Joakim von And-beløb, som nævnes, når tech-giganter som Microsoft eller Elon Musk er klar til at trække op til trecifrede milliardbeløb ud på at bygge supercomputere for at komme forrest i AI-kapløbet.
Så store investeringer brugt et sted, smitter selvfølgelig negativt af på andre, hvor der så bliver sparet. Mange frygter derfor, at massefyringer og eksempelvis mindre fokus på sikkerhed vil blive bagsiden af øjeblikkets oprustning.
Og så er der den mur, som kaldes Moores lov fra 1965, opkaldt efter Intel-stifteren Gordon Moore. Moores første lov siger, at antallet af transistorer eller komponenter vil fordobles hver 18. måned i et kredsløb. Tilsat den vilde udvikling, vi oplever nu, hvor kampen om og efterspørgslen af halvledermicrochips er stor og specialiseret, at der blandt andet er investeret 40 milliarder dollars på at få fabrikker op at køre i Texas. Det er blevet en del af den globale stormagtskamp ikke at løbe tør for microchips, og en del udvikling lider allerede under, at der større efterspørgsel end produktion.
Moores anden lov siger, at omkostningerne til etableringen af fabrikker, der fremstiller halvleder-mikrochips, fordobles hvert fjerde år. På et tidspunkt bliver omkostninger og aftrykket så stort, at vi ikke kan følge med.
Hvad med klimaet?
Det fører os videre til en andet stort spørgsmålstegn ved AI-udviklingen. Taberen er nemlig i ukendt stor grad klimaet – og beskrives som en bombe under hele udviklingen.
Allerede i 2018 nåede forskere frem til, at cloudløsninger har et større klimaaftryk end den globale kommercielle flytrafik. Og det var i 2018. Før ChatGPT og før alle gik all-AI-in.
Vi har ikke overblikket, men indikatorer. Du bruger op til det samme som 40 mobilopladningers strømforbrug, hver gang du får spyttet 320 ord ud af ChatGPT, har en dansk forsker regnet sig frem til. Træningen af ChatGPT 3 svarede til elforbruget hos 40.000 amerikanske husstande i et år.
Det bliver beskrevet af tech-journalister, hvordan især de dele af datacentrene, der arbejder med generativ AI, stønner af overophedning og derfor trækker stadig større energi og vandressourcer ind for at nedkøle. Det koster voldsomme klimaaftryk af bruge stadig mere AI.
Måske bliver snakken om flyskam til et begreb som AI-skam.
Kan Moores lov, som blev skrevet tilbage i 1965, sætte en stopper for AI-udrulningen?
Moores første lov siger, at antallet af transistorer eller komponenter vil fordobles hver 18. måned i et kredsløb. Samtidig siger Moores anden lov, at omkostningerne til etableringen af fabrikker, der fremstiller halvleder-mikrochips, fordobles hvert fjerde år.
På et tidspunkt bliver omkostninger og aftrykket altså måske så stort, at vi ikke kan følge med.
Dommedag er et godt stykke væk
Hvor fører det så hen?
Da ChatGPT brød igennem, åbnede der sig også en koncert af dommedagstrommer, som buldrede lidt dystert i mol ud over fremtiden.
Musk advarede mod de intelligente systemer, eksperter skrev under på dokumenter om at sætte udviklingen på pause, og der var snak om, at mere intelligente systemer end mennesket selv bankede på døren og truede med udryddelse.
Der blev nævnt AGI, artificial general intelligence, eller stærk kunstig intelligens. Der, hvor maskinen så at sige lærer selv og kan håndtere komplekse, generelle opgaver på samme niveau som mennesker. Hvor langt er vi derfra – vi har svag kunstig intelligens, men den stærke?
De eksperter, PROSAbladet har talt med, er enige om, at snakken om dommedag og apokalypse er et godt stykke væk – og ikke der, at debatten bør være.
”Mit umiddelbare svar er, at vi er meget langt derfra, og at frygten er ubegrundet. Det her handler ikke om dommedagsscenarier. Det er ikke det, vi skal regulere efter, og det kan skade udviklingen, hvis det er fokus for debatten,” siger Stefan Horst Sommer.
Han så hellere, at vi rykkede fokus hen på de forandringer, den allerede eksisterende AI har på samfund og arbejdsmarked – og ikke mindst bruger det som et positivt værktøj til at gøre samfundet bedre.
Er artificial general intelligence – eller på dansk: generel kunstig intelligens – en fremtidsdystopi, eller er det bare et fluffy marketingsbegreb, som slet ikke har nogen gang på jord?
Eksperterne hælder til det sidste, men fremtiden er som bekendt svær at spå om.
AGI er den stærke kunstige intelligens, som reelt betyder, at maskinen er fuldt ud lige så intelligent som et menneske. Den kan lære og forstå, og det er lige præcis AGI, som skaber frygt og bange anelser for fremtiden – for kommer AGI til at tage magten fra os mennesker?
”AGI er et bullshit marketingbegreb"
Dan Rose Johansen har slet ikke fidus til AGI-snakken:
”AGI er et bullshit marketingbegreb. Det er med sikkerhed en dum idé at arbejde med, for der er ikke nogen, der kan definere det. Vi ved ikke, hvornår, vi er der. Og det er heller ikke klart, hvad vi skal gøre, når vi så er der? Hvad skal vi bruge det til?” siger direktøren.
Han efterlyser i stedet et fokus på strategier for at implementere det AI, vi allerede har. Altså en strategi, som rækker ud over det at købe et produkt, som eksempelvis Copilot, hvor man ser på, hvordan man vil bruge det realistisk, og så det passer med udviklingen.
Anders Kofod-Petersen tror ikke på, at AGI ligger lige for:
”Jeg har ingen tro på AGI. For det første kan vi ikke definere, hvad vi mener, når vi siger, at vi gerne vil lave det. Vi er generelt heller ikke blevet klogere på, hvad intelligens er,” siger forskeren.
Kun Thore Husfeldt er som den eneste mere forsigtig – med henvisning til de seneste års udvikling in mente:
”Indtil for fem år siden sagde jeg, at alt det her nok ikke kommer til at ske lige med det samme. Det er jeg holdt op med at sige. Jeg har haft en holdning, som jeg nu tror, er forkert – og lige nu er jeg forholdsvis stille på det område,” siger algoritmeforskeren.