Kunstig intelligens giver os et væld af muligheder – men samtidig står udfordringerne også i kø.
For hvordan sikrer vi eksempelvis, at deepfakes – altså AI-generede billeder – ikke bliver delt og brugt til manipulering? Hvordan holder vi øje med, at tech-giganter ikke høster data fra børn og unge? Eller hvordan får vi styr på, at den offentlige sektor bruger kunstig intelligens på en ansvarlig måde?
13 nye anbefalinger fra regeringens ekspertgruppe om tech-giganter forsøger at give svaret på en række af de spørgsmål.
Anbefalingerne blev præsenteret torsdag, og de fokuserer på fire hovedtemaer:
Ekspertgruppen, som blev etableret i 2022, har tidligere sendt en række anbefalinger på gaden, som handlede om forskellige problemstillinger ved tech-giganternes forretningsmodeller.
Nu har ekspertgruppen, der har CBS-professor Mikkel Flyverbom som formand, kigget specifikt på kunstig intelligens og tech-giganternes brug af teknologien.
- Kunstig intelligens er blevet tilgængelig og udbredt på måder, som kræver, at vi som samfund reagerer handlekraftigt, nuanceret og ansvarligt. Det er især vigtigt at skabe en bedre balance mellem de kommercielle, teknologiske kræfter, der udruller kunstig intelligens i høj fart og uden fokus på rettigheder og beskyttelse, og de værdier og hensyn, der karakteriser vores samfund, siger Mikkel Flyverbom i en pressemeddelelse.
- Derfor må vi sætte nogle vigtige hegnspæle, som kan begrænse det værste og skabe plads til det bedste ved kunstig intelligens. Det er ekspertgruppens ambition med disse anbefalinger, fortsætter han.
Hvis vi ikke er proaktive, kan det have alvorlige konsekvenser for vores demokrati, samhørighed og vores opfattelse af virkeligheden.
Hos PROSA understreger formand Niels Bertelsen, at det er helt afgørende, at der kommer regulering på AI-området, og at både tech-giganter og andre får nogle faste spilleregler, som de skal navigere efter.
- Vi står over for en trussel, der kræver øjeblikkelig handling. Hvis vi ikke er proaktive, kan det have alvorlige konsekvenser for vores demokrati, samhørighed og vores opfattelse af virkeligheden. Bare tænk på den misinformation, som eksempelvis 500 russiske hackere kan sprede. Med AI i hånden bliver de et par tusind gange mere produktive, siger formanden.
Vi skal kunne verificere kilder
En af anbefalingerne, som ekspertgruppen kommer med, er, at der i EU-regi skal stilles krav til tech-giganterne om, at de skal mærke indhold, som er genereret af kunstig intelligens.
PROSA-formanden bakker op om intentionen, men han påpeger også, at det vil giver en falsk tryghed.
- Det vil i praksis være umuligt at håndhæve, siger Niels Bertelsen.
I stedet mener PROSA-formanden, at vi bør satse på at verificere ægte kilde, og i øjeblikket findes der flere løsninger til netop det. Content Credentials er eksempelvis et godt bud på en løsning, der giver brugerne mulighed for at verificere kilden til billeder og kan udvides til andre digitale medier som lyd og video.
- Ved at indføre teknologier som denne hos tech-giganterne kan vi styrke folks kildekritiske evner. Det skal være så nemt, at børn naturligt vil blive mere opmærksomme på at tjekke kilder, og det vil blive sværere for anonyme aktører at sprede falske nyheder, siger PROSA-formanden.
Det er også afgørende, at vi løser problemet over en bred kam og med en åben standard på tværs af alle tech-giganter.
- Det er ikke tilstrækkeligt, hvis hver tech-gigant udvikler sin egen løsning. Det skal være en fælles indsats for at sikre effektiv kildekritik, siger Niels Bertelsen.
Lovgivning på EU-plan
Ekspertgruppen understreger, at arbejdet med at regulere tech-giganterne og deres brug af kunstig intelligens bør ske på tværs af landegrænserne.
EU har netop vedtaget sin AI Act, og der er også andre EU-lovgivninger, som vil regulere tech-giganterne på forskellig vis – blandt andet Digital Services Act og Digital Markets Act.
Vi skal blive ved med at gribe gevinsterne ved kunstig intelligens. For på den måde kan vi som samfund blive rigere, grønnere og sikre mere borgernær velfærd.
Ifølge digitaliseringsminister Marie Bjerre (V) er det vigtigt, at vi får lovgivningen på plads, men hun peger også på, at vi skal huske tech-begejstringen.
- Vi skal blive ved med at gribe gevinsterne ved kunstig intelligens. For på den måde kan vi som samfund blive rigere, grønnere og sikre mere borgernær velfærd. Vi skal bruge kunstig intelligens både ambitiøst og ansvarligt. Derfor er jeg glad for, at ekspertgruppen nu er kommet med nogle anbefalinger, så vi kan få sat de rette rammer for tech-giganternes brug af kunstig intelligens, siger hun og fortsætter:
- Eksempelvis ved at skærpe tech-giganternes ansvar for misinformation fra deepfakes på sociale medier. Det er afgørende, at vi sikrer det enkeltes menneskes frihed til at træffe oplyste valg, og det kræver at tech-giganterne tager ansvar for vildledning og misinformation på deres platforme.
Teknologiforståelse er afgørende
Hos PROSA støtter formand Niels Bertelsen, at der kommer regulering, som kan sikre en etisk, ansvarlig og sikker brug af kunstig intelligens, og han hilser derfor de nye anbefalinger velkommen.
Formanden understreger dog også, at lovgivning langt fra er nok. Hvis vi skal udbrede AI på en ansvarlig vis, er det også afgørende, at børn og unge bliver klædt ordentligt på til at navigere i den nye virkelighed, hvor AI er allestedsnærværende.
- Vores befolkning skal klædes på med helt nye forståelser af den verden, vi færdes og agerer i. Det er derfor afgørende, at vi har teknologiforståelse på skoleskemaet, og at vi generelt uddanner vores befolkning i teknologi, siger Niels Bertelsen.
- Det kan ikke fremhæves nok, at der skal tages et stort opgør med måden, vi uddanner børn og unge og også andre til at færdes tryggest muligt i den verden, som er deres virkelighed.
Informationstroværdighed
Beskyttelse af børn og unge
Uautoriseret brug af ophavsretligt beskyttet materiale
Markedsdominans