Der skal altså, ifølge Mads Henrichsen, ske nye ukendte teknologiske landvindinger for at nærme os det, mange kalder AGI. Altså den generelle kunstige intelligens, som såvel Elon Musk som Sam Altmann spår, venter lige om hjørnet, og som alle de største ræser mod at komme først med (og bruger som løftestang for fundraising).
”Jeg plejer at sige, at hvis vi havde mandskab nok, så ville vi kunne automatisere alle tekstbaserede opgaver. Og det kan vi nu. I hvert fald lige så godt, som et menneske vil kunne. Der er naturligvis en del lovgivning, som står i vejen. AI får eksempelvis ikke lov til at tage administrative beslutninger eller give straksdomme”, siger han.
Men ja, hvis ChatGPT er trænet på stort set alt tilgængelige data, så burde den også kunne hjælpe med at lave en bombe eller opfinde en ny virus.
Så vidt tre års vild udvikling kogt ned til en teknologi, som i bund og grund er den samme, men som er blevet boostet med tusinder af milliarder dollars. Den har fået massive regnemuskler, er på alles læber, og er hypet i en grad som intet andet før den.
Så hypet, at den måske er ved at bygge op til en økonomisk boble. I hvert fald udgør den pt. stort set hele væksten i den amerikanske økonomi, hvor det altid tidligere har været borgernes forbrug, som er omdrejningspunktet. AI er blevet magneten, som trækker alle investeringer og fremtidsdrømme relativt ukritisk til sig.
Det hænger måske sammen med netop Mads Henrichsens påstand. At vi rent faktisk kan automatisere alle tekstbaserede opgaver med den allerede, hvis vi altså ville og ikke havde lovgivning, som trækker klare grænser mellem menneskers og algoritmers beslutningskompetencer.
Der venter – måske – massive forandringer, når vi for alvor implementerer og specialiserer den.
Men hvad så med truslen?
Når AI-pionærer og folk med baggrund i Silicon Valley advarer om, at jagten på AGI er det samme som at lege med dommedag, så er det vel noget man skal tage alvorligt?
”Jeg køber ikke ind på den frygt. Vi er stadig meget langt fra at nå dertil. Og hvorfor skulle det ske? Den lærer ikke sig selv noget. Vi mangler endnu at finde på nye teknologier, for at komme så langt. Men der er så absolut risici forbundet med AI”, siger Mads Henrichsen.
”Vi skal naturligvis tage udfordringerne alvorligt. Hvad betyder det, at vi har modeller trænet på så meget data, hvad betyder det, at vi lukker dem ind i vores liv til at give svar på alt? Hvilke guardrails skal vi sætte ned. Og vi skal forstå, hvordan sprogmodeller fungerer”, fortæller han.
Han medgiver, at en af udfordringerne også er, at vi ikke præcist ved, hvorfor tallene inden i en sprogmodel opfører sig som de gør. Vi kan træne dem, men reelt set er sprogmodeller et misvisende udtryk. De er nemlig ikke trænet på sprog og forstår ikke sprog. De er trænet på betydninger og sammenhænge og sandsynlighed gennem milliarder af gentagelser.
Alle kan lave det. Du kan i skolen sagtens lave modeller baseret på dine chatbeskeder eller på andre data. Du kan lave egne modeller til alt.
Når vi ikke forstår dem, er det så ikke det samme som, at de har en slags bevidsthed, som bare ikke er menneskelig?
”Nej, det er ikke bevidsthed. Det er en måde at være på, som følger systemprompten. Altså hvordan den skal løse opgaver. Det er noget, vi træner til at udføre en opgave. Når den søger data på internettet, så træner den heller ikke selv på det. Den finder det. Men ja, hvis ChatGPT er trænet på stort set alt tilgængelige data, så burde den også kunne hjælpe med at lave en bombe eller opfinde en ny virus. Det er derfor vi laver filtre og guardrails, så det ikke sker”, siger han.
Men er det ikke bekymrende, at hvis det lykkes de rette at jailbreake, så kan de få hjælp til at lave en virus?
”Jo man skal i hvert fald være meget obs på sikkerhed”, siger Mads Henrichsen.
Vi kan ikke selv forudsige de 600 millioner måder, den skal besvare en opgave på måske i forhold til ikke at tale om selvmord og derfor er det lettere at have en ekstern model, baseret på regler til at overvåge sprogmodellen.
Han er heller ikke så bekymret for de såkaldte hallucinationer, der har været rapporteret, hvor sprogmodeller giver forkerte svar eller decideret lyver.
”Det er i høj grad fordi, vi ikke kan lave regler. Men i bund og grund forsøger den bare at løse en opgave ud fra, hvordan vi har trænet den. Vi kan ikke selv forudsige de 600 millioner måder, den skal besvare en opgave på måske i forhold til ikke at tale om selvmord og derfor er det lettere at have en ekstern model, baseret på regler til at overvåge sprogmodellen, og sætte et pejl, hver gang det sker”, fortæller han.
Men hvad gør han selv med DanskGPT?
”Ikke noget. Den er trænet på syntetisk data. Du kan spørge den om alt. En ting er, at hvis du prøver at træne den på den måde, som OpenAI har gjort, sådan at hvis du spørger om selvmord, så skal den ikke svare. Så bliver modellerne generelt bare dummere. Og nummer to er, at de data, der skal til at træne den eksterne model, ikke rigtig er tilgængelige på dansk. Og de er meget svære at generere syntetisk. Fordi når man genererer det, så bruger du typisk sprogmodeller. Og når jeg skal få den til at snakke om noget, den ikke vil snakke om, så det kan jeg ikke”, forklarer Mads Henrichsen.
Men nok om dårligdommene.
For der faktisk alt mulig grund til at være begejstrede over kunstig intelligens, eller AI som det hedder og herunder sprogmodeller.
Så meget, at vi – herunder også børn – burde forstå dem bedre og selv lave versioner af dem til eget brug. AI er alligevel overalt. Bliver stadig bedre. Brugt til at skabe tekst, grafiske ting, film, og gennemgå mails, og som chat-assistent. Så hvorfor ikke skræddersy modeller selv?
Specialiseringen er alligevel næste bølge.
”Alle kan lave det. Du kan i skolen sagtens lave modeller baseret på dine chatbeskeder eller på andre data. Du kan lave egne modeller til alt. Det er simpelt og burde være en del af undervisning. Der findes eksempelvis værktøjer som Unsloth, der er lige til at gå til. Som navnet siger, så gør det en langsommelig træning til hurtig, altså til et ikke-dovendyr”, fortæller Mads Henrichsen. ★