Tuukka Ruotsalo, der er lektor på Datalogisk Institut, Københavns Universitet, står sammen med ph.d.-studerende Keith Davis, bag forskningsartiklen ”Brain-Supervised Image Editing”. Foto: Københavns Universitet

forskning

Ny software kan redigere billeder ved tankens kraft

Det er lykkedes forskere fra Datalogisk Institut på Københavns Universitet at udvikle software, der er i stand til at redigere billeder med elektriske signaler fra brugerens hjerne som det eneste input.

Hvad kan jeres software?

Vi kan få en computer til at redigere billeder alene baseret på personers tanker. Computeren har ikke fået nogen forudgående informationer om, hvilke detaljer i billedet den skal redigere eller hvordan. Dette har aldrig været gjort tidligere.

Hvordan gjorde I?

30 deltagere bar hætte udstyret med elektroder, som registrerer elektriske signaler fra hjernen. De skulle betragte de samme 200 fotos af forskellige personer og blev bedt om at lægge særligt mærke til eksempelvis kvinder, blondt hår eller andre detaljer. Ud fra deres hjerneaktivitet kortlagde computermodellen først, hvilket ansigtstræk der indgik i øvelsen, og redigerede billederne tilsvarende. Gik opgaven ud på at lægge mærke til en bestemt hårfarve, fik alle personerne den hårfarve. Computeren havde ingen viden om, hvad ansigtsgenkendelse er, eller nogen idé om de relevante ansigtstræk. Alligevel redigerede den kun netop det ansigtstræk, der var fokus for øvelsen, mens alle øvrige træk forblev uændrede.

Hvad er det nye?

Al eksisterende software af denne type er blevet trænet ved hjælp af markeret input. Men i vores forsøg var deltagernes tanker det eneste input. Det er et helt nyt paradigme inden for kunstig intelligens — at bruge den menneskelige hjerne direkte som grundlag.

Hvad er ulemperne?

Det kræver etiske overvejelser at kortlægge personers hjerneaktivitet. Den, som erhverver denne type af viden, kan i princippet få en meget dybtgående indsigt i personens præferencer. Vi kan allerede se nogle tendenser. Folk køber 'smarte' ure og lignende udstyr, som kan registrere puls og mange andre ting. Er vi sikre på, at der ikke bliver genereret data, som giver private virksomheder indsigt i personlige forhold, som vi egentlig ikke ønsker at dele med dem?

Hvor stiller det jer som forskere?

Vi ser den type overvejelser som en vigtig del af vores opgave som offentlige forskere. Vores forskning viser, hvad der kan lade sig gøre, men som samfund skal vi ikke gøre ting, blot fordi de er mulige. Der er behov for retningslinjer og lovgivning på området. Hvis det ikke kommer på plads, vil private virksomheder bare køre los.


Læs også...

770 studerende har snydt med brug af AI i deres afleveringer og er blevet bortvist siden 2023. Mere end 400 af bortvisningerne er sket i år.

Ny rapport, Techgiganternes hemmeligheder”, fra digitaliseringsministeriet viser, hvordan sociale medier systematisk fastholder brugerne gennem…

Ctrl+Alt+Reclaim er Europas første digitale retfærdighedsbevægelse af og for unge, de vinder stigende opbakning- Kravet er et opgør med big tech og at…

Ole Tange, PROSAs IT-politiske rådgiver og privacy-forkæmper, oplevede 2025 som et år, hvor chatkontrol, aldersverifikation og overvågning udfordrede…

Mirza Cirkinagic, forbundssekretær i IT-fagforeningen PROSA er også legebarn og hyppig bruger af techgadgets. Her giver han et bud på top- og…

Vibe-coding har masser af potentiale, og det kaster ikke webudviklere ud i massearbejdsløshed. Og så er AI altså ikke bevidst, for bevidsthed er noget…

Christian Ruhwedell arbejder med IT-sikkerhed og risikostyring. Han er overrasket over, hvor godt AI og vibe-coding fungerer allerede i dag, men ser…

Meriemme er 49 år, har læst til datamatiker og studeret datalogi. Hun har de senere år arbejdet mest med compliance, sikkerhed og at styre…

Jonathan Grace, 49, arbejder med digitalt design og kommunikation og er begejstret for de ny muligheder, som AI-værktøjer åbner for.

Danni Dromi, 37 år, er senior data scientist og underviser i vibe-coding. Han er overrasket over, hvor meget værktøjerne til AI-programmering har…