Den første dræberrobot, som selv træffer afgørelser om at anvende dødbringende kraft, er formentlig allerede klar i et militærlaboratorium i USA, Kina, Israel eller Rusland. Om det er en Terminator-style dræberrobot, en autonom selvflyvende drone med ammunition eller måske endda en sværm af bevæbnede mini-droner, ved vi ikke, men sandsynligheden for, at der eksisterer et fuldautomatiseret våbensystem, er stor.
Udviklingen er gået stærkt, og allerede i 2015 underskrev flere end 3.000 forskere i kunstig intelligens og robotteknologi et åbent brev til verdenssamfundet, hvor de advarede mod dræberrobotter og opfordrede til at indføre et globalt forbud.
”Teknologien til kunstig intelligens (AI) har nået et punkt, hvor anvendelse af sådanne systemer (autonome, dødbringende våben, red.) er mulig inden for nogle år, ikke årtier, og der står meget på spil: Autonome våben beskrives som den tredje revolution i krigsførelse efter krudt og atomvåben”, skrev AI-forskerne, der havde set fremtiden i koden og ønskede at forbyde anvendelsen dræberrobotter.
Men der eksisterer fortsat ikke noget forbud imod dødbringende autonome våben. Langtfra.
Forhalingstaktik fra de store lande
Det er noget, den globale koordinator for Campaign to Stop Killer Robots, Mary Wareham, ved alt for godt. Som koordinator for en koalition af 85 organisationer deltog Mary Wareham i det seneste topmøde mellem landene i Group of Governmental Experts (GGE) on Lethal Autonomous Weapons System (LAWS), der i FN-regi forsøger at nå frem til en aftale om, hvordan det internationale samfund skal forholde sig til autonome våben. Udbyttet af mødet var langtfra, hvad hun havde forventet.
– Jeg var frustreret. Med så meget på spil og så store forventninger var det en skuffelse, siger Mary Wareham til Prosabladet.
På mødet, der fandt sted den 27.-31. august i Geneve, skete der ikke nogen afgørende udvikling mod en international traktat, på trods af at det langtfra var det første møde om dræberrobotter i FN-regi.
Initiativet til at starte en dialog om anvendelsen af dræberrobotter blev taget tilbage i 2014, men ifølge forskeren Leonard van Rompaey, som var med til at forberede det første FN-møde, bliver processen trukket i langdrag, fordi en håndfuld lande ikke er interesseret i en international traktat.
– Mange af de stater, som allerede er i gang med at udvikle autonome våben, vildleder og forhaler bevidst dialogen om en international traktat, siger Leonard van Rompaey, der nu er i gang med en ph.d.-afhandling på Københavns Universitet om, hvordan autonome våbensystemer passer ind i international humanitær lovgivning.
Mary Wareham er enig i kritikken.
– Det, der frustrerede os mest ved mødet, er, at majoritetens vilje bliver blokeret af en lille håndfuld lande, som har investeret heftigt i våbensystemer, der bliver mere og mere autonome. Flertallet af de deltagende 80 lande anbefaler en egentlig traktatforhandling, men Israel, Sydkorea, USA, Rusland, Storbritannien og Australien er imod, selvom Australien ikke selv investerer i våbensystemerne, forklarer Mary Wareham.
Mary Wareham , der er global koordinator i Campaign to Stop Killer Robots, har deltaget i en lang række møder om dødbringende, autonome våbensystemer (LAWS). Her i 2014 i Geneve. Foto: Mark Henley/Ritzau Scanpix
Kina overraskede på mødet i Geneve ved at argumentere for et forbud mod anvendelse af dræberrobotter, men kineserne ønsker stadig mulighed for udvikling og produktion af autonome våbensystemer, hvilket langtfra er nok, ifølge Mary Wareham.
– Et delvist forbud virker ikke. Udvikling, produktion og brug skal forbydes, mener Mary Wareham.
Lande med autonome våbensystemer
Ifølge en rapport fra det anerkendte svenske fredsforskningsinstitut SIPRI havde 12 lande for et år siden tilsammen 130 forskellige våbensystemer, der automatisk identificerer potentielle mål. Ingen af de undersøgte systemer tager selv beslutning om, hvorvidt de identificerede mål skal bombes eller nedskydes, men systemernes information om potentielle mål indgår som input til mennesker, der tager liv og død-beslutninger. Det fører nogle gange til, at uskyldige mennesker dræbes.
– Ved angreb med droner anvendes softwaresystemer med AI, der analyserer data og måske identificerer en terrorleder. Der findes måske også link til en anden person, men vedkommende er blot en taxachauffør. Det er noget, som sker, aktuelt ved et droneangreb i Yemen, siger Leonard van Rompaey.
De autonome våbensystemer udvikler sig hastigt i takt med udviklingen inden for AI og machine learning, og USA har erklæret autonome våben som en hjørnesten i moderniseringen af det amerikanske militær. Eksempelvis forventer det amerikanske flyvevåben at reducere antallet af droneoperatører og menneskelige analytikere med 5.000 ansatte i løbet af de næste ti år. Det bliver gjort ved at give ubemandede droner ”mere autonomi og flere data fra sensorer på platforme rundt om i verden”, som det hedder i en artikel fra 20. september i år på det amerikanske militær-website military.com.
To dronepiloter på en flybase i Tucson, Arizona, styrer en ubemandet Predator-drone over Afghanistan. Dronen er bevæbnet med Hellfire missiler, som piloterne kan affyre mod mål på landjorden. Foto: Jim Wilson/Ritzau Scanpix
Ligesom USA er lande som Rusland og Kina også i fuld gang med forskning og udvikling af autonome våbensystemer. En international traktat er derfor i mere end én forstand livsnødvendig for et civiliseret verdenssamfund, mener fortalerne for et forbud mod dræberrobotter. Men mens teknologien er i hastig udvikling, foregår den internationale diplomatiske proces mod en dræberrobot-traktat i et langt mere adstadigt tempo.
Skuffelse over Danmark
The Campaign to Stop Killer Robots havde håbet, at Danmark ville arbejde for et forbud, men det er ikke tilfældet.
– Danmark har ikke en national politik på området. Når vi taler med de danske diplomater, siger de, at de ikke har tid og folk til at se på det. De har 18 folk plus en tech-ambassadør til at arbejde med teknologi, men de har altså ikke tid til at have en holdning til en teknologi som dræberrobotter, lyder det bebrejdende fra Mary Wareham.
Det tyder på, at hun har ret. Da Prosabladet stiller Udenrigsministeriet spørgsmålet, om Danmark støtter et forbud mod dræberrobotter, lyder det undvigende, skriftlige svar:
”Danmark har deltaget i ekspertgruppemøderne i april og august i Geneve og lægger sammen med EU vægt på bl.a. nødvendigheden af, at den potentielle udvikling og brug af sådanne våbensystemer lever op til international humanitær folkeret og menneskerettighederne.”
Svaret fra Udenrigsministeriet kom, efter at EU-Parlamentet med overvældende flertal i starten af september vedtog en resolution, der opfordrer EU-Kommissionen og EU-medlemslandene til at arbejde for et forbud.
Google afbryder Pentagon-samarbejde
Der mangler da heller ikke opfordringer til at få en international traktat om dræberrobotter på plads – specielt er forskere inden for AI og robotteknologi aktive. Det åbne brev til verdenssamfundet fra de 3.000 forskere i 2015, hvor de advarer mod udviklingen af dødbringende autonome våben, blev fulgt af et andet åbent brev 21. august 2017, hvor 116 stiftere af ledende firmaer inden for AI og robotteknologi indtrængende opfordrer GGE LAWS til at komme i gang med arbejdet med udarbejdelsen af en international traktat:
”Når de (dødbringende autonome våben, red.) er udviklet, vil de gøre det muligt at udkæmpe væbnede konflikter i en størrelsesorden aldrig nogen sinde set før, og hurtigere end noget menneske kan forstå. De kan blive terrorvåben, våben som despoter og terrorister anvender mod uskyldige befolkninger, og våben, som kan hackes til at opføre sig på uønskede måder. Vi har ikke meget tid tilbage. Når denne Pandoras æske er åbnet, vil den blive svær at lukke igen.”
Trods den indtrængende tone har det ikke været nok til at overbevise alle landes regeringer. Så havde 4.000 Google-ansatte mere held med at skrive et åbent brev i år til Googles CEO, Sundar Pichai, hvori de opfordrede ham til at afbryde samarbejdet med Pentagon om et AI-overvågningssystem, der automatisk kan identificere og spore køretøjer samt andre objekter.
I begyndelsen af juni meldte Google ud, at virksomheden ikke ville forny sin kontrakt med Pentagon om projektet, og den 7. juni offentliggjorde Sundar Pichai et sæt principper om, hvordan Google vil anvende AI fremover. Her hedder det blandt andet: ”Vi udvikler ikke AI til våbenbrug”.
Tech-arbejdernes samvittighed
– Det har haft en stor effekt, at Google afbrød samarbejdet med Pentagon om autonome droner, siger Mary Wareham, der på vegne af Campaign to Stop Killer Robots inviterede repræsentanter fra Tech Workers Coalition i Californien med til mødet i Geneve i august. Her fortalte en Google-udvikler blandt andet om protesten mod Pentagon-samarbejdet.
– Den slags græsrodsarbejde er essentielt, siger Mary Wareham og fortsætter:
– Sig fra. Forvent ikke at andre gør det
Hun advarer dog samtidig mod alene at forlade sig på tech-arbejderes samvittighed og firmaers eventuelle etiske principper.
– Det er fint, at firmaer skriver etiske principper, men lovgivning er også nødvendig. International lov er, hvad folk vil følge. Ikke alle de etiske principper, siger Mary Wareham.
Milliarder på spil
I september i år meddelte det amerikanske militærs forskningsenhed, DARPA, at organisationen over de næste fem år vil investere to milliarder dollar i AI-teknologi. For mange virksomheder, der arbejder med kunstig intelligens, vil den pengepulje måske veje tungere end etiske overvejelser. Midlerne er ikke kun øremærket autonome våbensystemer, men, som det hedder i DARPA's beskrivelse af det såkaldte AI Next-program:
”Det vil bemyndige ubemandede systemer til at udføre missionskritiske operationer med en stor grad af autonomi.”
The Campaign to Stop Killer Robots er godt klar over, at græsrødderne er oppe imod voldsomme kræfter, når de forsøger at sætte en kæp i hjulet for udviklingen af dræberrobotter.
– Vi er oppe imod formidable våbeninteresser. Det handler ikke kun om militær brug. Det er potentielt også autonome systemer til politiarbejde og ved grænsekontrol, siger Mary Wareham.
Forbud – ikke regulering
Nogle forskere og akademikere argumenterer for, at autonome våbensystemer udstyret med avanceret AI kan give en mere ”ren” krig, hvor eksempelvis antallet af civile krigsofre minimeres. Men Mary Wareham køber ikke det argument:
– Vis mig fakta, der understøtter det. Der er en lille håndfuld akademikere, der tror på det, men vi har tusindvis af AI-forskere og stiftere af tech-firmaer, der støtter os. Hvis du ser på historien, blev det samme sagt om kemiske våben og landminer.
Hun tror heller ikke på idéen om en regulering af autonome våbensystemer.
– En regulering vil – i modsætning til et forbud – legitimere anvendelsen af autonome våben. Vi ønsker at stigmatisere dræberrobotter med et forbud. Alle kan forstå og implementere et forbud. Det er langt sværere at implementere et sæt komplicerede regler, der tillader bestemte anvendelser, men ikke andre, siger Mary Wareham.
Næste møde i GGE LAWS bliver holdt engang i løbet af 2019. Den endelig dato er endnu ikke fastlagt. Imens fortsætter forskningen, udviklingen og produktionen af autonome våbensystemer for fuld kraft.