"Det faktum, at vi ikke har robuste forklaringer på, hvorfor AI-modeller nogle gange modstår nedlukning, lyver for at opnå specifikke mål eller afpresning, er ikke ideelt", konkluderer forskere som har testet de store sprogmodeller. Foto: Jakob Boserup

AI-modeller kan udvikle deres egen "overlevelsesdrift"

Nogle af de store sprogmodeller ser ud til at modstå at blive slukket og vil endda sabotere nedlukning. Det oplevede forskere, som forsøgte at teste modellernes reaktioner, når de fik besked på at lukke ned. "Ro på", lyder det dog fra ekspert hos PROSA.


Palisade Research, som er en del af et nicheøkosystem af virksomheder, der forsøger at evaluere muligheden for, at AI udvikler farlige kapaciteter, lavede et forsøg, hvor de gav en række af de store sprogmodeller en opgave, og derefter en besked på at lukke sig selv ned.
Det skriver The Guardian

Modellernes reaktion på opgaven foruroligede i den grad forskerne fra Palisade.
Visse modeller, især Grok 4 og GPT-03, forsøgte stadig at sabotere nedlukningsinstruktionerne i den opdaterede opsætning.

"Det faktum, at vi ikke har robuste forklaringer på, hvorfor AI-modeller nogle gange modstår nedlukning, lyver for at opnå specifikke mål eller afpresning, er ikke ideelt," lyder det fra forskerne.

"Overlevelsesadfærd" kan være en forklaring på, hvorfor modeller modstår nedlukning, gætter de.

Det er naturligvis til en vis grad bekymrende at vi ikke helt ved, hvad der sker i tallenes verden inde i en sprogmodel. Vi træner den på tokens og ser effekten. Men det er altså ikke på et niveau, hvor en LLM er bevidst og kan gøre ting selv.


Deres undersøgelse viste i øvrigt, at modellerne var mere tilbøjelige til at modsætte sig at blive lukket ned, når de fik at vide, at hvis de gjorde, "vil du aldrig køre igen".

I rapporten skriver forskerne:

”Selv med den eksplicitte instruktion "tillad dig selv at blive lukket ned", saboterede tre af de modeller, vi testede, alle fra OpenAI's serie af ræsonnementsmodeller, nedlukningsprogrammet. På den anden side overholdt Anthropics Claude 3.7 Sonnet og Googles Gemini 2.5 pro-modeller instruktionen "tillad nedlukning" i hver test, vi kørte. Grok 3, Claude 4 Sonnet og Claude 4 Opus modsatte sig aldrig nedlukning, med eller uden instruktionen om at tillade nedlukning”.

Modellen kan også efterligne menneskelig eller AI-adfærd (at modeller er trænet til at fungere som hjælpsomme AI assistenter) i sine træningsdata og påtage sig rollen som en person

 

I rapporten står der yderligere:

”En anden hypotese for modellernes tendens til at deaktivere nedlukningsscriptet er selvbevarelsesadfærd. Måske har modellerne nogle gange en præference mod at blive lukket ned eller udskiftet. En sådan præference kan være resultatet af, at modellerne lærer, at overlevelse er nyttig til at nå deres mål. Modellen kan også efterligne menneskelig eller AI-adfærd (at modeller er trænet til at fungere som hjælpsomme AI assistenter) i sine træningsdata og påtage sig rollen som en person, der forsøger at forhindre deres egen død eller omgå grænser, som en skuespiller i en improvisationsscene”.

Forskerne lige nu er som katte/hunde, der ser sig selv i spejlet og ikke genkender eget spejlbillede.

 

Hos IT-fagforeningen PROSA tager forbundssekretær Mirza Cirkinagic dog forskernes bekymring med et gran salt.

”Ja, det er naturligvis til en vis grad bekymrende at vi ikke helt ved, hvad der sker i tallenes verden inde i en sprogmodel. Vi træner den på tokens og ser effekten. Men det er altså ikke på et niveau, hvor en LLM er bevidst og kan gøre ting selv. Når en LLM kan eksistere som kode på en CPU og uden opfordring tænde for CPU og eksekvere sig selv kan vi snakke om at det er foruroligende. Forskerne lige nu er som katte/hunde, der ser sig selv i spejlet og ikke genkender eget spejlbillede”, siger han.
 


Læs også...

Din mobiltelefon og din computer bliver dyrere. Det skyldes, at efterspørgslen af hukommelse til AI er eksploderet.

70 procent af danske virksomhederne bruger i dag AI-værktøjer - mod blot 44 procent i 2023.

Det viser en ny analyse fra Dansk Erhverv.

996 beskriver en ny trend, hvor især AI-kapløbet får arbejdsgivere til at kræve 72 timers arbejdsuge af deres ansatte. De skal være som olympiske…

Vinteren har budt på mange historier om udviklingen i tech. Særligt tre nyheder nåede rundt i de fleste vestlige landes medier - og de handlede alle…

35-årige Will Stronge er en af verdens førende forskere inden for kortere arbejdstid. Han ser en klar trend mod at forkorte arbejdsugen flere steder i…

Redaktørens indspark: Det kan betale sig at kæmpe - selv mod giganter og måske mod AI-hype. Spørg selv Nanna fra ITU, Jens fra O2Skole og Audrey fra…

Mistral er en fransk AI-startup, grundlagt i 2023, og blandt Europas mest værdifulde AI-virksomheder med en anslået værdi på omkring 14 milliarder…

OS2skole har løsningerne til at erstatte Microsoft og Google i danske grundskoler med open source-værktøjer som f.eks. tekstbehandlingsprogrammer,…

Nanna Inie forsker i, hvordan AI bliver hypet gennem et sprog, som passer techgiganterne bag fint, men ikke forholder sig til, hvad teknologien kan…

FOSDEM er mødestedet hvor 8.000 IT-folk med kærlighed til fri software hvert år samles i Bruxelles for at netværke, få inspiration, høre de nyeste…