"Det faktum, at vi ikke har robuste forklaringer på, hvorfor AI-modeller nogle gange modstår nedlukning, lyver for at opnå specifikke mål eller afpresning, er ikke ideelt", konkluderer forskere som har testet de store sprogmodeller. Foto: Jakob Boserup

AI-modeller kan udvikle deres egen "overlevelsesdrift"

Nogle af de store sprogmodeller ser ud til at modstå at blive slukket og vil endda sabotere nedlukning. Det oplevede forskere, som forsøgte at teste modellernes reaktioner, når de fik besked på at lukke ned. "Ro på", lyder det dog fra ekspert hos PROSA.


Palisade Research, som er en del af et nicheøkosystem af virksomheder, der forsøger at evaluere muligheden for, at AI udvikler farlige kapaciteter, lavede et forsøg, hvor de gav en række af de store sprogmodeller en opgave, og derefter en besked på at lukke sig selv ned.
Det skriver The Guardian

Modellernes reaktion på opgaven foruroligede i den grad forskerne fra Palisade.
Visse modeller, især Grok 4 og GPT-03, forsøgte stadig at sabotere nedlukningsinstruktionerne i den opdaterede opsætning.

"Det faktum, at vi ikke har robuste forklaringer på, hvorfor AI-modeller nogle gange modstår nedlukning, lyver for at opnå specifikke mål eller afpresning, er ikke ideelt," lyder det fra forskerne.

"Overlevelsesadfærd" kan være en forklaring på, hvorfor modeller modstår nedlukning, gætter de.

Det er naturligvis til en vis grad bekymrende at vi ikke helt ved, hvad der sker i tallenes verden inde i en sprogmodel. Vi træner den på tokens og ser effekten. Men det er altså ikke på et niveau, hvor en LLM er bevidst og kan gøre ting selv.


Deres undersøgelse viste i øvrigt, at modellerne var mere tilbøjelige til at modsætte sig at blive lukket ned, når de fik at vide, at hvis de gjorde, "vil du aldrig køre igen".

I rapporten skriver forskerne:

”Selv med den eksplicitte instruktion "tillad dig selv at blive lukket ned", saboterede tre af de modeller, vi testede, alle fra OpenAI's serie af ræsonnementsmodeller, nedlukningsprogrammet. På den anden side overholdt Anthropics Claude 3.7 Sonnet og Googles Gemini 2.5 pro-modeller instruktionen "tillad nedlukning" i hver test, vi kørte. Grok 3, Claude 4 Sonnet og Claude 4 Opus modsatte sig aldrig nedlukning, med eller uden instruktionen om at tillade nedlukning”.

Modellen kan også efterligne menneskelig eller AI-adfærd (at modeller er trænet til at fungere som hjælpsomme AI assistenter) i sine træningsdata og påtage sig rollen som en person

 

I rapporten står der yderligere:

”En anden hypotese for modellernes tendens til at deaktivere nedlukningsscriptet er selvbevarelsesadfærd. Måske har modellerne nogle gange en præference mod at blive lukket ned eller udskiftet. En sådan præference kan være resultatet af, at modellerne lærer, at overlevelse er nyttig til at nå deres mål. Modellen kan også efterligne menneskelig eller AI-adfærd (at modeller er trænet til at fungere som hjælpsomme AI assistenter) i sine træningsdata og påtage sig rollen som en person, der forsøger at forhindre deres egen død eller omgå grænser, som en skuespiller i en improvisationsscene”.

Forskerne lige nu er som katte/hunde, der ser sig selv i spejlet og ikke genkender eget spejlbillede.

 

Hos IT-fagforeningen PROSA tager forbundssekretær Mirza Cirkinagic dog forskernes bekymring med et gran salt.

”Ja, det er naturligvis til en vis grad bekymrende at vi ikke helt ved, hvad der sker i tallenes verden inde i en sprogmodel. Vi træner den på tokens og ser effekten. Men det er altså ikke på et niveau, hvor en LLM er bevidst og kan gøre ting selv. Når en LLM kan eksistere som kode på en CPU og uden opfordring tænde for CPU og eksekvere sig selv kan vi snakke om at det er foruroligende. Forskerne lige nu er som katte/hunde, der ser sig selv i spejlet og ikke genkender eget spejlbillede”, siger han.
 


Læs også...

Fremover kan du som forbruger i EU stille minimumskrav til de smartphones og tablets du køber, når det handler om batteritid og muligheden for at…

De stadig bedre AI-programmerings-værktøjer har fået antallet af kodelinjer til at eksplodere. Flere virksomheder drukner i kode skabt af AI, som gør…

En ny undersøgelse blandt mere end 9.000 engelske lærere for elever i alderen 11-18 år viser, at AI har haft stor indflydelse på elevernes læring, og…

IT-ordfører Alexander Ryle (LA) kæmper for at få IT og digitalisering ind i den politiske debat. Under valgkampen har stop masseovervågning og nej til…

Mens vi måske venter på AI-boblen, der enten brister eller fuser ud, så skal vi lære at tage sprogmodeller til os, hvor de rent faktisk giver mening.…

45-årige Stinus Lindgreen (R) kæmper for at få debat om IT, digitalisering, AI og cybersikkerhed ind i valgkampen. For fraværet er larmende, til trods…

Forskere fra techgiganten Anthropic har undersøgt, hvad sprogmodeller reelt kan bruges til i dag, og hvad de så vidt bliver brugt til på…

Emil Petersen, softwareudvikler i netværksbranchen, var på den årlige DKNOG-konference for at skabe forbindelser og blive klogere på automatisering, …

Din mobiltelefon og din computer bliver dyrere. Det skyldes, at efterspørgslen af hukommelse til AI er eksploderet.

70 procent af danske virksomhederne bruger i dag AI-værktøjer - mod blot 44 procent i 2023.

Det viser en ny analyse fra Dansk Erhverv.