Palisade Research, som er en del af et nicheøkosystem af virksomheder, der forsøger at evaluere muligheden for, at AI udvikler farlige kapaciteter, lavede et forsøg, hvor de gav en række af de store sprogmodeller en opgave, og derefter en besked på at lukke sig selv ned.
Det skriver The Guardian
Modellernes reaktion på opgaven foruroligede i den grad forskerne fra Palisade.
Visse modeller, især Grok 4 og GPT-03, forsøgte stadig at sabotere nedlukningsinstruktionerne i den opdaterede opsætning.
"Det faktum, at vi ikke har robuste forklaringer på, hvorfor AI-modeller nogle gange modstår nedlukning, lyver for at opnå specifikke mål eller afpresning, er ikke ideelt," lyder det fra forskerne.
"Overlevelsesadfærd" kan være en forklaring på, hvorfor modeller modstår nedlukning, gætter de.
Det er naturligvis til en vis grad bekymrende at vi ikke helt ved, hvad der sker i tallenes verden inde i en sprogmodel. Vi træner den på tokens og ser effekten. Men det er altså ikke på et niveau, hvor en LLM er bevidst og kan gøre ting selv.
Deres undersøgelse viste i øvrigt, at modellerne var mere tilbøjelige til at modsætte sig at blive lukket ned, når de fik at vide, at hvis de gjorde, "vil du aldrig køre igen".
I rapporten skriver forskerne:
”Selv med den eksplicitte instruktion "tillad dig selv at blive lukket ned", saboterede tre af de modeller, vi testede, alle fra OpenAI's serie af ræsonnementsmodeller, nedlukningsprogrammet. På den anden side overholdt Anthropics Claude 3.7 Sonnet og Googles Gemini 2.5 pro-modeller instruktionen "tillad nedlukning" i hver test, vi kørte. Grok 3, Claude 4 Sonnet og Claude 4 Opus modsatte sig aldrig nedlukning, med eller uden instruktionen om at tillade nedlukning”.
Modellen kan også efterligne menneskelig eller AI-adfærd (at modeller er trænet til at fungere som hjælpsomme AI assistenter) i sine træningsdata og påtage sig rollen som en person
I rapporten står der yderligere:
”En anden hypotese for modellernes tendens til at deaktivere nedlukningsscriptet er selvbevarelsesadfærd. Måske har modellerne nogle gange en præference mod at blive lukket ned eller udskiftet. En sådan præference kan være resultatet af, at modellerne lærer, at overlevelse er nyttig til at nå deres mål. Modellen kan også efterligne menneskelig eller AI-adfærd (at modeller er trænet til at fungere som hjælpsomme AI assistenter) i sine træningsdata og påtage sig rollen som en person, der forsøger at forhindre deres egen død eller omgå grænser, som en skuespiller i en improvisationsscene”.
Forskerne lige nu er som katte/hunde, der ser sig selv i spejlet og ikke genkender eget spejlbillede.
Hos IT-fagforeningen PROSA tager forbundssekretær Mirza Cirkinagic dog forskernes bekymring med et gran salt.
”Ja, det er naturligvis til en vis grad bekymrende at vi ikke helt ved, hvad der sker i tallenes verden inde i en sprogmodel. Vi træner den på tokens og ser effekten. Men det er altså ikke på et niveau, hvor en LLM er bevidst og kan gøre ting selv. Når en LLM kan eksistere som kode på en CPU og uden opfordring tænde for CPU og eksekvere sig selv kan vi snakke om at det er foruroligende. Forskerne lige nu er som katte/hunde, der ser sig selv i spejlet og ikke genkender eget spejlbillede”, siger han.