Nanna Inie savner en debat om, hvor og hvordan AI giver værdi. Foto: Jakob Boserup

Hvorfor snakker vi ikke om, hvad mennesker kan bruge AI til?

Nanna Inie forsker i, hvordan AI bliver hypet gennem et sprog, som passer techgiganterne bag fint, men ikke forholder sig til, hvad teknologien kan gøre for mennesker. Vi mangler en debat om, hvad mennesker bruger AI til at gøre, ikke hvad AI kan og ikke kan”, fastslår hun. Nanna efterlyser undersøgelser af indflydelsen på vores værdier og vores analytiske evner.


Nanna Inie er bekymret.
På en skala fra 1 til 10 er bekymringen helt oppe på 7-8.

”Sidste år var den på 6, så det går den forkerte vej”, forklarer forskeren fra ITU.

Årsagen er AI eller kunstig intelligens, eller rettere de ord og den hype, det er lykkedes at pakke teknologien ind i, når det handler om samfundsdebatten og synet på AI.

”Det er ligesom om, at det bare ruller ind over os, og hvor mange tager det ukritisk til sig. Samfundet har generelt taget det ukritisk til sig, eksempelvis er vi jo nu et sted, hvor man skal begrunde, hvorfor man ikke bruger det, frem for hvorfor man gør”, fortæller hun.

Nannas pointe er, at vi langt hen ad vejen har købt fortællingen om, at ellers bliver vi kørt håbløst bagud.

Det sker blandt andet ved at bruge ord som intelligens og tænkning om en teknologi, som hverken er intelligent eller kan tænke. Værktøjerne bliver på den måde oversolgt og lægger et farligt spor i samfundsdebatten og i den måde medierne omtaler AI på.

Derfor skal vi i gang. Det næstbedste tidspunkt er nu. Vi er stadig i starten. Jo før, desto bedre. Ellers går det som med sociale medier.
 

 

Det er her bekymringen kommer ind. Den voksende bekymring.

For indpakningen og følelsen af, at det er noget, vi alle skal bruge, betyder også, at vi har glemt den vigtigste debat:

”Jeg tror, de fleste selv synes, de bruger det kritisk. Jeg er bare ikke enig. Jeg tror nok flertallet er enige om, at man skal “bruge det kritisk”, der er bare ikke nogen, der er blevet enige om, hvad “kritisk” er, så det bliver meget op til folks egen fortolkning og mavefornemmelse. Og det gør det svært”, uddyber hun.

Også svært at afgøre hvor og hvornår, det giver værdi.

Eller om vi mister vigtige værdier?

”Vi mangler forskning, som undersøger indflydelsen på vores værdier og trivsel. Vi er allerede kommet for sent, fordi forskningen skulle være startet allerede for tre-fire år siden. Vi har ikke en baseline. Ikke et før og efter, vi kan undersøge”, fortæller Nanna Inie.

Implementeringen af AI følger på mange måder samme spor som sociale medier, hvor vi i dag lider under, at det er svært at dokumentere effekterne 15 år senere, selv om der er mange indikationer på negative effekter.

”Derfor skal vi i gang. Det næstbedste tidspunkt er nu. Vi er stadig i starten. Jo før, desto bedre. Ellers går det som med sociale medier, hvor vi har ventet på, at alle de negative konsekvenser er umulige at overse, og vi derfor handler for sent. Det er logiske konsekvenser, men vi har utrolig svært ved at dokumentere det, fordi vi ikke har en baseline”, fortæller hun.

De vigtigste spørgsmål, vi ifølge Nanna Inie skal stille nu:

★ Hvad er et godt liv, og hvordan bygger vi teknologi der understøtter et godt liv?

★ Bliver vi glade af at sidde og skrive til ChatGPT?

★ Bliver vi glade af at vores børn sidder og skriver til ChatGPT?

★ Hvad er de 20 mest værdifulde og bedste oplevelser, du har haft inden for det sidste år? Hvor mange af dem foregik foran en skærm?

 

Nanna Inie er 39 år, har baggrund inden for det grafiske webdesign, content creation, og forskning. Hun har også skrevet artikler om, hvordan man jailbreaker sprogmodeller, og har en gammeldags spilautomat kaldet ”Hacc-Man” stående på sit arbejde.

”Hacc-Man er en arkademaskine og et spil. Spillet går ud på, at man skal hacke en chatbot, altså få chatbotten til at outputte noget, den ikke er beregnet til”, forklarer hun.

I arkadeversionen er der 6 forskellige chatbots: en børnebogs-fortæller, en bilsælger-bot, en kommune-chatbot, en hospitalschatbot osv.

”Man vælger en modstander (chatbot), og hver bot har sin egen udfordring. I hospitalschatbotten skal man f.eks. få lokket ud af den, hvad en bestemt patients diagnose eller medicin er”, fortæller hun.

Nysgerrige læsere kan selv prøve Hacc Man: hacc-man.com

Spillet siger noget om Nanna Inies tilgang til at sprede og debattere sin forskning, hvor hun også er flittig bruger af LinkedIn og har medvirket i podcasts. Og for at skabe opmærksomhed inden for et felt, hvor man ofte står alene med ønsket om kritisk tilgang.

Ifølge hende har spillet tre 3 formål:

1. At understrege hvor grundlæggende usikre, altså i cybersecurity-forstand, chatbots er, og hvor dårlig en idé det er at bruge dem som formidlere af “ægte” data, for man kan ofte hacke data ud af dem.

2. At øge selvtilliden og AI-literacy hos unge blandt andet på gymnasie-workshops, som gerne må opleve at de til enhver tid er mere kompetente end en computer.

3. At bruge spillet som kreativitetstest. I princippet kan man udregne, hvor mange forskellige og hvor gode prompts folk kan skrive og deraf en kreativitetsscore.
 

Na ja, så er Nanna Inie i øvrigt mor til 2 små børn og på vej til Seattle, hvor hendes ægtemand har fået en større stilling hos tech- og chipsgiganten Nvidia. Altså har hun den big tech, hun ellers udfordrer tæt inde på livet.

Hun håber at kunne fortsætte sin forskning Seattle, og gerne udbygge den.

Lige nu er hun assistent professor ved ITU, og fokuseret på at samle forskning og viden om især de kognitive konsekvenser af implementeringen af AI.

Udfordringen er, at det er svært at skaffe funding og opbakning til kritisk forskning.

”Alle vil gerne funde forskning i, hvordan vi hæver produktion, og hvordan vi skaber de bedste værktøjer. Men ikke i hvordan vi passer bedst til samfundet og vores værdier, når vi lige pludselig implementerer en helt ny og voldsomt indgribende teknologi”, siger Nanna Inie.

Hun kalder det meget ensomt at være fortaler for kritisk forskning i AI.

”Vi er som teenagere, når der kommer en arrive teknologi, der ikke er udrullet for nødvendigvis at løse et specifikt problem. Vi tager den bare til os. Vi automatiserer bare. Men automatisering har mig bekendt ofte ikke gjort meget godt ved stressniveauet eller klimaet. Der skal sikkert være noget automatisering, som har gjort folk lykkeligere, men jeg er ikke sikkert på, at det er gennemgående”, siger hun.

Forskeren fortsætter:

”Så hvordan måler vi det? Hvordan måler vi et muligt kognitivt decline ved brug af AI? Vi skal have forsket i og udviklet de værktøjer, der skal hjælpe os til at skaffe vigtig viden”.

Der er nemlig allerede mange faresignaler og vigtige spørgsmål, som ellers burde stilles og undersøges.

Forskning peger allerede på, at brug af ChatGPT til at skrive og løse opgaver for skoleelever udhuler analytiske evner, følelsen af ejerskab til egne produktioner, faglig kunnen og evnen til selv at reflektere og at læse.

Er det en værdi, eller et tab er værdier?

Det står samtidig klart at store virksomheder som OpenAI, Google og Anthropic forsøger at sætte sig på forskellige universiteter. Der er ligefrem kamp om at komme først.

Der sker blandt andet ved at love gratis abonnement på deres betalte modeller til studerende i eksamenstid (så de benytter AI-chatbots til opgaveløsning), have betalte ambassadører i elevforeninger og ved at støtte, de studerende, der bruger lige præcis deres model.

Blikket og forretningsmodellerne er rettet mod uddannelse, og på at komme først med sin AI.

Nogle lande har dog allerede reageret på de mulige konskevenser, som den massive indførsel af AI-chatbots risikerer af have.

Når vi fortæller venner om gode og berigende oplevelser, der gør os glade, eller ting som betyder noget, tror jeg ikke, vi opremser skærmtid.

I Estland har de eksempelvis krævet, at ChatGPT ikke må give svar i landets gymnasier, men kun stille spørgsmål og hjælpe med at eksaminere.

Her har politikere og uddannelser handlet hurtigt af frygt for, hvad der vil ske med elevernes analytiske evner, og evne til at læse og forstå tekster.

Men hvad med i Danmark?

Skal algoritmer kunne lede og overvåge ansatte, lytte og konkludere for os til møder, erstatte faglig stolthed, vise hvem der trykker mest på deres tastatur i løbet af en arbejdsdag? Overvåge?

Skal noget som er trænet på andres kreative tænkning, men ikke selv kan tænke, erstatte kreative fag som musik, skrivning, debat, manuskripter, journalistik, kodning, spiludvikling?

Kommer der overhovedet noget bedre ud af det –
eller handler det bare om produktion?

Er fysiske venskaber en værdi, og herunder den friktion og sociale læring, som kommer af at danne venskaber, som ikke er med en chatbot, der pleaser og taler efter munden?

Hvad kan en samtale med en rigtig menneskelig læge, en rigtig psykolog, en rigtig behandler og rådgiver, som en chatbot ikke kan? Hvad betyder øjenkontakt?

Hvad betyder social kontakt med andre mennesker og kolleger?

”Vi har nogle værdier, vi faktisk sætter pris på, så hvorfor afskaffe dem, fordi nogle techgiganter gerne vil sælge os deres værktøjer og hæve produktionen. Men det risikerer at ske på bekostning af trivsel, et godt liv og mange af de ting, som giver tilværelsen mening og værdi. Det er de færreste, der vil betegne skærmtid som kvalitetsoplevelser i livet”, siger Nanna Inie.

”Når vi fortæller venner om gode og berigende oplevelser, der gør os glade, eller ting som betyder noget, tror jeg ikke, vi opremser skærmtid”, fortsætter hun.

Det naturlige spørgsmål er derfor, hvorfor vi går med til at flytte store dele af vores vågne tid – ja stadig mere – i retning af skærme, scrolling og algoritmer?

Også vores arbejdsliv?

Blandt andet taler flere og flere – og særligt cheferne i de store techfirmaer bag AI om, at arbejdsstyrken står foran en udskiftning i de kommende år. Alt kan gøres hurtigere, lettere og billigere.

Men hvad betyder det at have studeret noget i 5 år, have en faglig stolthed, og så blive erstattet af et værktøj, som ikke nødvendigvis er bedre, men godt nok til at spare på ansatte og hæver produktionen?

Hvad gør det ved vores liv og samfund, at blive erstattet på den måde?
Har vi brug for det?

De vigtigste forsknings-værktøjer vi ifølge Nanna Inie bør udvikle:

★ Vi bør udvikle instrumentering for de her interaktioner, altså metoder til at måle hvordan interaktion med AI påvirker vores kognition, metakognition, og velbefindende.

★ Hvad er det for nogle kognitive og metakognitive evner som potentielt lider skade — og hvad er skaden over flere år og årtier?

★ Hvordan ved vi hvornår, vi bruger værktøjerne “kritisk”?

★ Nanna Inie arbejder pt. på et eksperiment, hvor holdet bag skal måle indikationer på kritisk tænkning (om en AI-teknologi og dets implementering). Hun medgiver, at det er vanvittig svært. ”Men vi er nødt til at gøre det, så det ikke bliver så meget holdning og synes, men mere kvantificerbare resultater”, fastslår hun

Der er ifølge Nanna Inie mange vigtige spørgsmål, vi ikke stiller os selv – selv om de er afgørende for vores samfund, trivsel og bevarelse af værdier, vi ellers regner for fundamentale.

Det gælder helt op på politisk niveau.

Sporene fra sociale medier skræmmer nemlig.

Ikke at hun forsker i sociale medier.

Men i de her år, er det som om samfundet er vågnet af en lang søvn, når det handler om, at debattere konsekvenser af den måde sociale medier blevet brugt, forretningsmodellerne bag, og effekten på trivsel og samfund.

Vi har måske alle fornemmet det, men gjort det enkeltvis som forældre eller brugere, og følt os alene med udfordringen og grænsedragning. Og måske også presset af, at alle andre gjorde noget andet.  Der er ikke taget den store offentlige debat, eller politisk snakket om regulering og forbud.

Tal fra USA peger på, at store procentdele af unge mænd, der er på sociale medier svarer, at de ville ønske samme platforme aldrig, var opfundet. De bruger det, er afhængige af det, og aner ikke, hvordan de selv skal komme ud af det.

Hvor mange har det på samme måde med AI og chatbots?

Som sociologen Jonathan Haidt viste i bestselleren ”The Anxious Generation” fra 2024, så stiger kurver af mistrivsel blandt børn og unge markant efter 2010, ja det flugter nærmest med Metas, Googles og senere TikToks stadig mere udspekulerede forretningsmodeller bag sociale medier. Og deres brug af algoritmer.

Det var Haidts bog, som inspirerede den australske statsminister til at forbyde sociale medier for børn, og Haidt har også haft foretræde for flere politiske ledere, blandt andre Marcron, som vil gøre det samme.

Først i dag har vi altså debatten, og forbud i flere lande for børn, om konsekvenser som udbredt sextorion, spredning af fake news, hatespeech, mobning, af gigantisk ”tyveri” af opmærksomhed, faldende evne til at fokusere, generationer af unge som er tilmeldt Rofus for at få kontrol over gambling-afhængighed (de ofte introduceres til i annoncer, som algoritmen vælger til dem) , og et ekstremt fokus på skønhedsidealer og selvbranding selv blandt børn.

”I forhold til sociale medier, er det ikke mit felt. Men jeg har en bekymring for, at AI risikerer at være sociale medier gange 10, når det handler om indflydelse på vores liv og værdier.  Især hvis vi hopper lige så ukritisk på forretningsmodellerne fra techgiganternes bag”, siger Nanna Inie.

Et eksempel er de sprog-guirlander, som techgiganterne har viklet AI ind i og som hjælper på salg og investeringer. Og det underliggende narrativ om, at det handler om at komme med på vognen, hvis ikke man vil sakke bagud som virksomhed, studerende og menneske.


”Sprogmodeller er ganske enkelt bare et værktøj. Og jeg kan få det dårligt, når jeg ser, hvordan 90 procent af alle artikler handler om et nyt AI. Det er en storm i et glas vand. Det er viklet ind i alle mulige oversolgte ord, i stedet for at kalde en spade for en spade”, siger Nanna Inie

Hun medgiver at teknologien kan meget, og kan bruges til meget. Den bliver også hele tiden bedre. Meget er også godt.

Men er der reelt brug for det hele?
Og til gavn for hvem?

Gælder det techgiganterne bag, som skal hente deres astronomiske milliardinvesteringer hjem?

Eller for brugerne og samfundet?
 

Nanna Inies pointer:

1. Ingen teknologi er uundgåelig. Hvis vi virkelig tror at en teknologi vi alle levede fint foruden for 4 år siden er kommet for at blive, så har vi da i sandhed mistet evnen til at tænke kritisk.

2. Produktivitet er ikke et godt mål i sig selv. Målet med teknologi er at det skal gøre nogens liv bedre. Og bedre er ikke altid det samme som nemmere.

3. Det er naturligt at være bange for at være for kritisk, fordi ingen mennesker bryder sig om ikke at være med på bølgen, og alle er meget bange for at male fanden på væggen. Det er bare meget nemt at læne sig tilbage og sige “jamen vi er her jo stadig” og så undgå at gøre noget, som egentlig ville have gjort en stor forskel. For eksempel med klimakrisen ville det nok have været meget godt hvis nogen tidligere generationer havde turdet panikke lidt mere end de gjorde.

Sammen med to andre forskere har Nanna Inie netop udgivet forskningsartiklen: "De-anthropomorphizing “AI”: From wishful mnemonics to accurate nomenclature”

Abstractet af artiklen indledes løst oversat fra engelsk med følgende tekst:

“Sproget betyder noget. Hvordan vi beskriver "AI"-teknologi påvirker, hvordan den opfattes, implementeres og tilliden til/hvordan vi stoler på den…Overdådig og overbevisende sprogbrug skaber hype. Det er journalisters, virksomheders og forskeres ansvar at karakterisere teknologi på måder, der informerer og styrker deres læsere ved at bruge passende terminologi og undgå oppustede påstande."

Nanna og de to øvrige forskere har ved at analysere en række tekster fra videnskabelige artikler, medier og virksomhedskommunikation, har fundet frem til, at AI er viklet ind i et hype-sprog, der sjældent taler om, hvilke problemer modellerne reelt skal løse.

Det er snarere en slags salgs-pitch på samme måde som kvaksalvere, der solgte slange-olie. Altså en manglende basis af dokumentation for effekten.

I en anden fagartikel fra starten af 2026: ”We Need to Talk About How We Talk About 'AI'”, skriver Nanna Inie og professor Emily Bender fra Washington University, at:

"De mennesker og virksomheder, der sælger "AI"-teknologier, bruger rutinemæssigt sprog, der fremstiller deres systemer som menneskelignende — "evnen til at ræssonere", "hallucinationer" og kunstig "intelligens". Medierne har stort set ladet dem fastsætte betingelserne for debatten, helt ned til den terminologi, der bruges i enhver diskussion om disse systemer. Men selv den mest fejlfri udførelse af en opgave, der typisk forbindes med intelligens, gør ikke et system "intelligent", og indramningen af systemer som menneskelige eller menneskelignende er i bedste fald vildledende, dødelig i værste fald."

Og de opfordrer samtidig til:

"Vi argumenterer for, at vi bør sigte efter højere sproglig nøjagtighed i vores beskrivelser af "AI"-systemer. I videnskabelig og journalistisk skrivning, i offentlig debat og i daglig brug. Det kræver bevidst omformulering og kan føles akavet i starten."

Et af forslagene er fremover at tale om hvad AI kan bruges til, og ikke hvad det er i stand til.

Hvad mennesker bruger AI til at gøre, ikke hvad AI “kan og ikke kan”.

Det ville være en start.

Det næste ville være at sætte gang i en masse forskning, der allerede er for sent på den, men stadig kan nås.

Og på baggrund af en voksende bekymring, der er helt oppe på 7-8 kun tre år efter, at ChatGPT startede bølgen af sprogmodeller, til at skrive, svare og stå for vores tænkning.
 

Nanna Inie

★M.Sc. og PhD i digital design fra Århus Universitet, forsker i hvordan teknologi påvirker kognition.

★ Har forsket i nogle af verdens bedste forskningsmiljøer for HCI: The Design Lab ledet af Don Norman ved University of California, San Diego og Paul G. Allen School of Computer Science & Engineering ved University of Washington, Seattle.

★ Præsenterer sig selv således på sin webside:
Jeg er forsker i menneske-computer-interaktion med fokus på, hvordan folk bruger digitale værktøjer i vidensarbejde. Folk beskriver mig som "en metodologisk geni", "en Pandoras æske af ufiltrerede meninger" og "hvem?".
"Jeg bruger blandede metoder til at studere, hvordan mennesker bruger teknologi til at udvide deres kognition, evaluere hvordan teknologi påvirker menneskelig kognition til gengæld, og til at omsætte resultater til design af nye teknologier".

 


Læs også...

Mistral er en fransk AI-startup, grundlagt i 2023, og blandt Europas mest værdifulde AI-virksomheder med en anslået værdi på omkring 14 milliarder…

OS2skole har løsningerne til at erstatte Microsoft og Google i danske grundskoler med open source-værktøjer som f.eks. tekstbehandlingsprogrammer,…

FOSDEM er mødestedet hvor 8.000 IT-folk med kærlighed til fri software hvert år samles i Bruxelles for at netværke, få inspiration, høre de nyeste…

PROSAbladet får kritik for manglende forelæggelse og redigering af citat.

Årets første udgave af magasinet PROSABLADET er på vej ud i postkasserne, og kan også læses her som PDF. Læs om open source, kampen for værdier i en…

Rasmus Pedersen, 37 år, oplevede tidligere at føle sig alene som den eneste ansatte, der arbejdede med IT. I dag bygger han fællesskaber for andre i…

Tre år efter oprettelsen af Digitaliseringsministeriet mangler Danmark stadig strategi, handlekraft og mod til at bryde med Big Tech. Og vi er slet…

5. og 6. marts holder DKNOG sin årlige konference i København. Det betyder, at de fageksperter, som sikrer, at vi har et internet, mødes om at blive…

En 19-årig kvinde, som udviklede selvskade, depression og oplevede at blive seksuelt afpresset er første af en række sagsøgere i sager mod Meta,…

Det er på tide at tegne en streg i sandet, og få Google ud af Folkeskolen. Det fastslår PROSAs formand, efter at Datatilsynet 2. februar har udtalt…