"Det faktum, at vi ikke har robuste forklaringer på, hvorfor AI-modeller nogle gange modstår nedlukning, lyver for at opnå specifikke mål eller afpresning, er ikke ideelt", konkluderer forskere som har testet de store sprogmodeller. Foto: Jakob Boserup

AI-modeller kan udvikle deres egen "overlevelsesdrift"

Nogle af de store sprogmodeller ser ud til at modstå at blive slukket og vil endda sabotere nedlukning. Det oplevede forskere, som forsøgte at teste modellernes reaktioner, når de fik besked på at lukke ned. "Ro på", lyder det dog fra ekspert hos PROSA.


Palisade Research, som er en del af et nicheøkosystem af virksomheder, der forsøger at evaluere muligheden for, at AI udvikler farlige kapaciteter, lavede et forsøg, hvor de gav en række af de store sprogmodeller en opgave, og derefter en besked på at lukke sig selv ned.
Det skriver The Guardian

Modellernes reaktion på opgaven foruroligede i den grad forskerne fra Palisade.
Visse modeller, især Grok 4 og GPT-03, forsøgte stadig at sabotere nedlukningsinstruktionerne i den opdaterede opsætning.

"Det faktum, at vi ikke har robuste forklaringer på, hvorfor AI-modeller nogle gange modstår nedlukning, lyver for at opnå specifikke mål eller afpresning, er ikke ideelt," lyder det fra forskerne.

"Overlevelsesadfærd" kan være en forklaring på, hvorfor modeller modstår nedlukning, gætter de.

Det er naturligvis til en vis grad bekymrende at vi ikke helt ved, hvad der sker i tallenes verden inde i en sprogmodel. Vi træner den på tokens og ser effekten. Men det er altså ikke på et niveau, hvor en LLM er bevidst og kan gøre ting selv.


Deres undersøgelse viste i øvrigt, at modellerne var mere tilbøjelige til at modsætte sig at blive lukket ned, når de fik at vide, at hvis de gjorde, "vil du aldrig køre igen".

I rapporten skriver forskerne:

”Selv med den eksplicitte instruktion "tillad dig selv at blive lukket ned", saboterede tre af de modeller, vi testede, alle fra OpenAI's serie af ræsonnementsmodeller, nedlukningsprogrammet. På den anden side overholdt Anthropics Claude 3.7 Sonnet og Googles Gemini 2.5 pro-modeller instruktionen "tillad nedlukning" i hver test, vi kørte. Grok 3, Claude 4 Sonnet og Claude 4 Opus modsatte sig aldrig nedlukning, med eller uden instruktionen om at tillade nedlukning”.

Modellen kan også efterligne menneskelig eller AI-adfærd (at modeller er trænet til at fungere som hjælpsomme AI assistenter) i sine træningsdata og påtage sig rollen som en person

 

I rapporten står der yderligere:

”En anden hypotese for modellernes tendens til at deaktivere nedlukningsscriptet er selvbevarelsesadfærd. Måske har modellerne nogle gange en præference mod at blive lukket ned eller udskiftet. En sådan præference kan være resultatet af, at modellerne lærer, at overlevelse er nyttig til at nå deres mål. Modellen kan også efterligne menneskelig eller AI-adfærd (at modeller er trænet til at fungere som hjælpsomme AI assistenter) i sine træningsdata og påtage sig rollen som en person, der forsøger at forhindre deres egen død eller omgå grænser, som en skuespiller i en improvisationsscene”.

Forskerne lige nu er som katte/hunde, der ser sig selv i spejlet og ikke genkender eget spejlbillede.

 

Hos IT-fagforeningen PROSA tager forbundssekretær Mirza Cirkinagic dog forskernes bekymring med et gran salt.

”Ja, det er naturligvis til en vis grad bekymrende at vi ikke helt ved, hvad der sker i tallenes verden inde i en sprogmodel. Vi træner den på tokens og ser effekten. Men det er altså ikke på et niveau, hvor en LLM er bevidst og kan gøre ting selv. Når en LLM kan eksistere som kode på en CPU og uden opfordring tænde for CPU og eksekvere sig selv kan vi snakke om at det er foruroligende. Forskerne lige nu er som katte/hunde, der ser sig selv i spejlet og ikke genkender eget spejlbillede”, siger han.
 


Læs også...

Francesca Tremulu gør status over 2025 i gamingbranchen. Et år der, desværre også stod i afskedigelsernes tegn. Der er brug for at reflektere over,…

770 studerende har snydt med brug af AI i deres afleveringer og er blevet bortvist siden 2023. Mere end 400 af bortvisningerne er sket i år.

Ny rapport, Techgiganternes hemmeligheder”, fra digitaliseringsministeriet viser, hvordan sociale medier systematisk fastholder brugerne gennem…

Ctrl+Alt+Reclaim er Europas første digitale retfærdighedsbevægelse af og for unge, de vinder stigende opbakning- Kravet er et opgør med big tech og at…

Ole Tange, PROSAs IT-politiske rådgiver og privacy-forkæmper, oplevede 2025 som et år, hvor chatkontrol, aldersverifikation og overvågning udfordrede…

Mirza Cirkinagic, forbundssekretær i IT-fagforeningen PROSA er også legebarn og hyppig bruger af techgadgets. Her giver han et bud på top- og…

Vibe-coding har masser af potentiale, og det kaster ikke webudviklere ud i massearbejdsløshed. Og så er AI altså ikke bevidst, for bevidsthed er noget…

Christian Ruhwedell arbejder med IT-sikkerhed og risikostyring. Han er overrasket over, hvor godt AI og vibe-coding fungerer allerede i dag, men ser…

Meriemme er 49 år, har læst til datamatiker og studeret datalogi. Hun har de senere år arbejdet mest med compliance, sikkerhed og at styre…

Jonathan Grace, 49, arbejder med digitalt design og kommunikation og er begejstret for de ny muligheder, som AI-værktøjer åbner for.