Våpen som bestemmer selv

Publisert: 4. september 2022 kl 19.14
Oppdatert: 4. september 2022 kl 19.14

­

I 1974 kapitulerte Hiroo Onoda, løytnant i den keiserlige japanske armé. Han hadde holdt seg i skjul siden 1945 i fjellene på den filippinske øya Lubang, og var ikke klar over at annen verdenskrig var over. Da han kapitulerte, overga han riflen sin, 500 skudd, et sverd, flere håndgranater og en dolk han fikk av moren sin, slik at han kunne ta sitt eget liv hvis han ble tatt til fange. I 2020 jobber forsvarsindustrien i mange land, inkludert Norge, med å utvikle våpen som selv kan bestemme hva de skal gjøre – såkalte autonome våpen. Løytnant Hiroo Onoda fungerte helt autonomt, uten kontroll fra overordnede, da han holdt seg i skjul. Målet til forsvarsindustrien er å tilføre våpensystemer slik autonomi. Det gjør at de kan erstatte soldater i morgendagens konflikter. Interessen er skyhøy fordi autonome våpensystemer øker slagkraften til eksisterende våpen, muliggjør nye våpen og legger til rette for helt nye måter å utfolde makt på.

Mange er bekymret. I seks år har FNs våpenkonvensjon diskutert om autonome våpen skal reguleres, og i desember vil den gjøre opp status. Men konvensjonen krever at alle medlemslandene blir enige seg imellom, og skriften på veggen er tydelig:Verden får ingen avtale. Det gjør oss bekymret, og her skal vi fortelle hvorfor.

DØDELIG AUTONOMI

Begrepet «autonomi» har ulik betydning innen ulike fagfelt. I ingeniørfag betyr det oftest at en maskin eller et dataprogram kan operere uten menneskelig involvering. Mange av diskusjonene og artiklene om dødelige autonome våpen handler om drapsroboter. De gir et bilde av Terminator-lignende humanoide maskiner som opererer helt på egen hånd. Men det er ikke dette dødelige autonome våpen dreier seg om, ikke i dag og kanskje aldri. Autonomi er en egenskap ved systemer og maskiner. Dødelig autonome våpen har smal og lav autonomi. Autonomien er smal hvis den kun gjelder enkelte deler av systemene. Og den er lav hvis den gir et begrenset handlingsrom for systemene. For eksempel kan en drone ha autonomi i funksjoner som letting og landing, den kan fly en forhåndsbestemt rute, selv bestemme ruten den skal fly, og selv bestemme hva som er best rekognoseringsmønster for en gitt oppgave. Hvis den i tillegg kan velge ut mål og anvende dødelig makt på egen hånd, har den dødelig autonomi, og dronen er blitt et dødelig autonomt våpen.Vi sier den har autonomi i sine kritiske funksjoner – å velge ut mål og utføre et angrep.

Det amerikanske forsvaret definerer et dødelig autonomt våpensystem som et system som kan identifisere og angripe et mål uten menneskelige inngrep. Eksempler inkluderer raketten Joint Strike Missile fra Kongsberggruppen, som skal plasseres i norske F35-fly, den israelske dronen Harpy, som kan fly alene i timevis mens den leter etter radarsignaler før den angriper, og den russiske miniubåten Poseidon, som skal kunne frakte atomvåpen. Og hvis løytnant Onoda hadde vært en maskin, ville definisjonen til det amerikanske forsvarsdepartementet åpenbart omfattet ham.

Hvilke utfordringer innebærer dødelig autonomi? Vi skal belyse dette spørsmålet ut fra fire perspektiver: det operasjonelle perspektivet, sikkerhetsperspektivet, ansvarsperspektivet og avskyperspektivet.

DET OPERASJONELLE PERSPEKTIVET

Med økt bruk av dødelige autonome systemer gir den militære ledelsen fra seg kontroll i kommandokjeden. Dette fører til flere såkalte operasjonelle utfordringer, på grunn av de autonome systemenes egenskaper. Våpen som er dødelige for en motstander, kan være farlige også for brukeren eller medsoldater. Hvis en feil kopieres i andre autonome våpen av samme type, kan et stort antall autonome våpen angripe egne styrker eller sivile. Konsekvensene kan bli langt mer fatale enn ved bruk av konvensjonelle våpen.

Autonome systemer er raske fordi de overflødiggjør menneskenes beslutningsprosess. Dermed øker risikoen for raskere eskalering av konflikter og farlige dominoeffekter. Etablerte strategier for krisehåndtering poengterer at det er viktig å gi både seg selv og motparten god tid til å tolke andres signaler, men med autonome systemer vil ikke dette være mulig.

Beslutningsprosessene til autonome systemer skiller seg fra menneskelige kognitive prosesser. Det betyr at systemene opptrer på måter som er vanskelig eller umulig for mennesker å forstå eller forutsi, og at misforståelser kan oppståHva ville for eksempel skjedd om både NATO og russerne utplasserte pilotløse kampfly langs den norsk-russiske grensen? Programvaren i moderne autonome systemer er umenneskelig komplisert, og atferden til våpnene i alle tenkelige tilfeller blir umulig å forutsi eller verifisere.

Som om dette ikke var nok, har komplisert teknologi ofte feil, og slike feil kan utnyttes. Konsekvensen av at autonome dødelige systemer hackes eller atferdsmanipuleres kan være enda mer alvorlig enn konsekvensen for andre systemer. I sum er disse utfordringene ikke bare operasjonelle, men politiske. Og våre egne autonome våpen kan lett vise seg å være farlige venner.

SIKKERHETSPERSPEKTIVET

Det globale strategiske landskapet er i rask endring. Kina er i sterk politisk og militær vekst, Russland har reetablert seg som stormakt, og USA har økt bruken av droner for målrettede drap i andre land og opererer mindre forutsigbart enn før. Dessuten er rammeverkene for våpenkontroll og gjensidig tillit som ble utviklet av USA og Sovjet mot tampen av den kalde krigen, i ferd med å gå i oppløsning.Teknologiutviklingen går svært raskt, og på noen områder er den eksponentiell. Og en eksponentiell teknologiutvikling gir en eksponentiell våpenutvikling. Dagens konflikter inkluderer informasjonsundergraving, fjernstyrte krigshandlinger, skyggekriger, cybersabotasje og proxykrigføring, drevet frem av sosiale medier, droner og overvåkingssatellitter.

Resultatet er at verden er blitt et farligere sted. Dødelig autonomi akselererer denne utviklingen. Det blir av og til sagt at dødelig autonomi vil drive fram den tredje revolusjonen i krigføring. Revolusjoner er uforutsigbare og farlige, og dødelig autonomi kan påvirke den globale sikkerheten i en uheldig retning på en rekke områder.

Teknologibasene som benyttes i det militære, er i stadig økende grad sivil, tilgjengelig, rimelig og enkel å transportere. Små stater, og til og med ikke-statlige aktører, kan nå skaffe seg militære kapasiteter som tidligere kun tilhørte stormaktene. Dette fører til økt spredning av makt.

Maktspredning fører til at mulighetene for terrorisme øker. I dag kan en gjennomsnittlig nerd kjøpe billig teknologi på nettet og bygge et våpen som kan fly inn i en bygning. I morgen kan våpenet finne en bestemt enkeltperson ved hjelp av ansiktsgjenkjenning og avansert teknologi. Og fremtidens terrorist eller psykopat vil ikke bare ha internett og autonome droner til rådighet, men også syntetisk biologi og nanoteknologi.

Autonomi vil også kunne føre til at terskelen for væpnet konflikt senkes, i og med at egne soldater fjernes fra slagmarken og risikoen for eget militært personell bortfaller. Selv om autonome våpensystemer er raske, og vi får hurtigere kamper, kan vi også få mer langvarige konflikter. Kunstig intelligens og autonomi vil øke evnen til beskyttelse og overlevelse og redusere militære tap. Teknologi driver både finansielle og politiske krigskostnader ned. Når krig blir billig, hvorfor slutte å kjempe?

Dessuten gjør autonome droner og hypersoniske våpen det fristende å intervenere tidligere heller enn senere. Bygger motstanderen din noe som kan være en våpenfabrikk? Er sjefen for Irans revolusjonære garde på et møte i Bagdad og du vet adressen? Et endret trusselbilde er bare et museklikk unna. Og autonome mobile våpen kan bli brukt uten at noen vet hvem som står bak.

Ofte vil demokratisk valgte institusjoner virke dempende på krigshandlinger, men autonome våpen kan gjøre demokratisk kontroll vanskeligere. Jo færre personer det militære trenger for å angripe eller for å

håndtere en militær konflikt, jo færre blir involvert i beslutningene – med alt det kan medføre av mindre transparens.

Forsvarsevnen til stater som baserer sine strategier på sofistikerte landbaserte luftforsvarssystemer, kan bli svekket av autonome, offensive våpen.Varslingstiden ved angrep fra autonome hypersoniske våpen blir så kort at selv ikke de mest rudimentære refleksjoner om alternative utfall vil være mulig. For ikke å snakke om å varsle militær og sivil ledelse for å bli enige om mottiltak. Automatisering av beslutningsprosessen for forsvar og motangrep vil på sin side kunne ha signifikante konsekvenser for strategisk stabilitet.

Det er verdt å minne om at utviklingen beskrevet over, også vil gjelde kjernefysiske våpen. Kjernefysisk avskrekking er en viktig komponent i den globale sikkerhetspolitikken i dag. Teknologiutviklingen til en motstander, for eksempel avanserte autonome cybervåpen, kan utfordre eller kompromittere evnen til kjernefysisk gjengjeldelse og resultere i introduksjon av ny (og uprøvd) teknologi, endrede kjernefysiske doktriner, eller at man i en spent situasjon føler seg presset til å bruke sin kjernefysiske kapasitet.

Alt dette kan føre til en stadig glattere og brattere utforbakke, en såkalt slippery slope. For hvert steg vil risikoen øke for å skli og rutsje ned i en dystopi, som hentet fra en science fiction-roman. Men at det er vanskelig å finne ut hvor vi skal sette grenser, betyr ikke at vi ikke skal sette grenser. Og et godt sted å trekke streken er ved dødelig autonomi. Grunnen er enkel: Dødelige autonome våpen innebærer en rekke ulemper som plasserer dem i samme kategori som våpen som har blitt forbudt før, som giftgass og klasebomber.

DET HUMANITÆRRETTSLIGE PERSPEKTIVET

Teknologiutviklingen utfordrer det internasjonale regelverket, folkeretten, som må oppdateres for fortsatt å være relevant og effektivt. For autonomi i våpen gjelder dette spesielt de delene av folkeretten som er kjent som menneskeretten, humanitærretten og den internasjonale strafferetten.

Humanitærretten er en del av folkeretten som er knyttet til krig og konflikter. Humanitærretten bygger på flere prinsipper, inkludert distinksjonsprinsippet, som sier at man i kamphandlinger skal kunne skille sivile fra stridende, proporsjonalitetsprinsippet, som handler om at sivile lidelser ikke skal være for store i forhold til de militære fordelene man oppnår, og humanitetsprinsippet, som går ut på at man skal forebygge og begrense menneskelige lidelser.Våpen og krigføringsmetoder som ikke overholder disse prinsippene, er i strid med den internasjonal humanitærretten. De er ulovlige.

Hva betyr så humanitærretten og dens prinsipper for dødelig autonomi? Én mulig tanke er at dødelige autonome våpen vil kunne overholde humanitærretten mer effektivt enn en spesialtrent soldat. Begrunnelsen er at teknologien vil være bedre til å skille stridende fra sivile, aldri vil miste besinnelsen og handle i affekt og ikke trenger å sette eget liv høyere enn andres. Men dette reflekterer et idealisert bilde av hva teknologien er i stand til. For at dødelig autonomi skal kunne operere i henhold til humanitærretten like godt som et menneske, kreves det at kapasiteten til resonnement, fortolkning og forståelse er like god som for et menneske. Generell autonomi krever dermed generell kunstig intelligens. Og det er i beste fall et åpent spørsmål om det er mulig å oppnå dette. Et annet scenario er at bruk av teknologien vil være i strid med humanitærretten, for eksempel om teknologien ikke er i stand til å skille mellom sivilbefolkning og stridende. Et viktig spørsmål er derfor om det er sannsynlig at slik våpenbruk vil være et brudd med humanitærretten. Vår mening er at om det så bare er bitte litt sannsynlig, så er det for mye.

ANSVARSPERSPEKTIVET

Humanitærretten og menneskeretten har først og fremst en forebyggende funksjon. Men når en lov blir brutt, oppstår spørsmålet om kriminelt ansvar. Den internasjonale straffeloven tilskriver individet kriminelt ansvar. Skyldansvar for en straffbar handling er basert på en antakelse om at den som har utført handlingen, har autonomi og gjort det overveid, med en intensjon, og vel vitende om forskjellen på rett og galt.

Men autonome kunstige systemer har autonomi uten intensjon og kan følgelig ikke regnes som ansvarlige. Så hvem er da ansvarlig dersom et autonomt våpen utfører en handling som bryter med loven? Hvem skal trekkes for krigsrett? Våpenfabrikken? De hundrevis som utviklet programvaren? Operatøren, hun som sendte våpenet ut, selv om det skjedde for mange dager eller uker siden? Hennes overordnede eller befal? Det korte svaret er at ingen mennesker har direkte skyldansvar for handlingene til et autonomt våpen, nettopp fordi det er autonomt.

Et autonomt system kan startes og slippes ut i verden uten at vi nødvendigvis vet når eller hvor det skjedde, eller hva som er foranledningen. Men når ingen mennesker, ingen våpenoperatør eller overordnede, har benyttet våpenet til noe irregulært eller hatt intensjoner om et resulterende lovbrudd, blir ansvar et åpent spørsmål.

Dette undergraver den internasjonale straffeloven, humanitærretten og menneskeretten. Straffeloven forutsetter at straffeskyld kan etableres. Menneskeretten forplikter stater til å etterforske og rettsforfølge grove brudd på menneskerettene, og humanitærretten krever eksplisitt personlig ansvarsstillelse for alvorlige lovbrudd. På et vis må autonome maskiner betraktes som en ny type entitet som det ikke er tatt høyde for i lovverket. De er verken stridende eller våpen, siden de har autonomi, men ikke egenvilje.

En vei ut av dette uføret kunne vært å etablere autonome våpensystemer som juridiske personer, altså definere dem som rettssubjekter. Men dette er ikke en farbar vei. For det første ville en dom mot et autonomt våpen ikke kunne oppfylle formålene med straff, som inkluderer å avskrekke fra framtidige ulovlige handlinger, å unngå kollektiv skyld og fremme forsoning. Man kan heller ikke se for seg at det autonome våpenet vil kunne ha noen som helst opplevelse av å ha blitt straffet. Dessuten vil det stride med viktig praksis å ansvarliggjøre våpen juridisk. I rettssakene i Nürnberg etter annen verdenskrig fastslo domstolene at krigsforbrytelser blir begått av mennesker, ikke abstrakte enheter, og at bare ved å straffe enkeltpersoner som begår slike forbrytelser, kan bestemmelsene i folkeretten håndheves.

Slik synliggjør autonome våpen et ansvarsgap: De kan ikke gis ansvar eller straffeskyld. Hvis graden av autonomi blir høy nok, vil det dessuten oppfattes som urimelig å tildele skyldansvaret til et menneske – for hvis det visste hva våpenet ville gjøre, eller hadde kontroll over det, ville ikke våpenet kunne sies å ha autonomi av tilstrekkelig høy grad. Dette ansvarsgapet er prinsipielt og kan ikke uten videre fjernes. Det vil kunne utgjøre en stadig større utfordring desto mer autonome våpnene blir. Og dette vil underminere humanitærretten. Løsningen er å fjerne årsaken til ansvarsgapet ved å forby dødelig autonomi i våpen, eller for å være mer presis, våpen med autonomi i sine kritiske (avgjørende) funksjoner.

none

AVSKYPERSPEKTIVET

Men la oss legge detaljene i internasjonal lov til side og se på noe annet som også er viktig, nemlig hva vi som mennesker generelt finner uakseptabelt. Hvorfor har verden på ulike måter blitt enige om å forby kjemiske og biologiske våpen, eksploderende kuler og landminer? Fordi de vekker avsky. De er mala in se eller «onde i seg selv». De er avskyelige, de er ikke humane, de baserer seg ikke på menneskehetens prinsipper, de er uverdige. Drap utført av maskiner er også avskyelig. Dødelige autonome våpen er like avskyelige som giftgasser og biologiske våpen.

Når autonome våpen tar liv, krenker de en grunnleggende rett til verdighet. Rett til verdighet er universelt akseptert og etablert i flere internasjonale avtaler, som FNs Menneskerettighetserklæring, FNs konvensjon om sivile og politiske rettigheter, Den internasjonale konvensjon om økonomiske, sosiale og kulturelle rettigheter, Martensklausulen i Haagkonvensjonen og i tidligere forbud av våpensystemer, som kjemiske våpen og klasebomber. Avtalene i regi av FN setter den etiske standarden for menneskelig verdighet. På sett og vis er rett til verdighet mer grunnleggende enn rett til liv. I siviliserte samfunn er det universell enighet om at selv lovlige henrettelser skal være humane.

Martensklausulen er oppkalt etter den russiske delegaten til fredskonferansen i Haag i 1899, Friedrich Martens. Den er en viktig pilar i internasjonal våpenkontroll som utvider vår forståelse av verdighet til å inkludere et forbud mot våpen som er mala in se. Klausulen har etablert et langvarig og innflytelsesrikt imperativ, nemlig at handlinger utført av stater i krig og konflikt, skal styres av etiske og moralske forhold, og at selv om andre regler under krigens folkerett ikke er anvendelige, så «skal sivile og stridende beskyttes av og stilles under folkerettens prinsipper slik som de utspringer av etablerte sedvaner, av humanitære prinsipper og av den offentlige samvittighets krav».snl.no/Martensklausulen. Klausulen har derfor relevans for alle våpen, inkludert anvendelse av ny teknologi i våpen og utvikling av intensjonelt dødelig autonomi. Dødelig autonomi er mala in se. Slike våpen er avskyelige, både i rettshåndhevelse og i krig, ifølge Martensklausulen. Men vi trenger en internasjonal avtale som gjør dette tydelig, og som forbyr intensjonelt dødelig autonomi i våpen.

ARBEIDET FOR REGULERING OG FORBUD

Fordi humanitærretten og dens prinsipper er generelle, har nye våpen og nye teknologier skapt behov for stadig nye tillegg og nye avtaler, inkludert for kjemiske våpen, biologiske våpen, atomvåpen, antipersonellminer og permanent blindende laservåpen. Med autonome våpen står vi nok en gang overfor en våpentype som er regulert av den eksisterende humanitærretten, men som krever ytterligere juridisk spesifisering, regulering og, slik vi ser det, forbud.

Historien om arbeidet for å forby dødelige autonome våpen er historien om hvordan forskere i kunstig intelligens og robotikk helt tilbake til 2007 begynte å ta opp temaet, og hvordan fredsaktivister, ideelle og ikkestatlige organisasjoner etter hvert kom på banen og organiserte arbeidet til det fikk nok momentum til å bli tatt opp i FNs våpenkonvensjon.

Våpenkonvensjonen er en avtale ratifisert av 121 land om å begrense våpen som anses som for grusomme å bruke i krig. Det første møtet i regi av Våpenkonvensjonen om dødelige autonome våpensystemer ble avholdt i 2014, og samtalene har pågått siden den gang. Men Våpenkonvensjonens arbeid er konsensusbasert, det vil si at alle de 121 landene som har ratifisert avtalen, må være enige for at noe skal blir gjort. Dette gjør framdrift og et juridisk bindende utfall svært vanskelig.Vi har litt over et år på oss til Våpenkonvensjonen i desember neste år vil gjøre opp status etter åtte års diskusjoner. Men alt tyder på at Våpenkonvensjonen igjen vil mislykkes med sitt mandat.

Konvensjonens framdrift er helt avhengig av at enkeltland går foran. I 2017 uttalte Stortingets utenriksog forsvarskomité enstemmig at Norge må utvikle sin egen kompetanse og ta nødvendige internasjonale initiativ for å regulere utvikling og bruk av helog halvautonome våpensystemer, og annen ny teknologi som kan utfordre grunnleggende prinsipper i folkeretten (Innst. 439 S (2016–2017)). I juni 2018 uttalte utenriksminister Eriksen Søreide at «Norge vil ta en aktiv rolle i diskusjonen om fullt ut autonome våpen, både i og utenfor Våpenkonvensjonen, for å sikre at grunnleggende prinsipper om menneskelig kontroll og etterlevelse av humanitærrettens bestemmelser legges til grunn. Regjeringen viderefører Norges langvarige pådriverrolle innenfor humanitærretten».www.regjeringen.no/no/aktuelt/svar-pa-sporsmal-om-hel--og-halvautonome-vapensystemer/id2606513/. Men verken komiteens uttalelse eller utenriksministerens intensjon ser ut til å være fulgt opp. Norge har ikke tatt nødvendige internasjonale initiativ eller vært noen pådriver, i eller utenfor Våpenkonvensjonen.

HVA NÅ?

Vi har sett at dødelig våpenautonomi skaper bekymring fra flere perspektiver. Det operasjonelle perspektivet viser utfordringer knyttet til å inkludere autonome våpen i militære kommandokjeder. Fra et globalt sikkerhetsperspektiv vil dødelig autonomi bidra til global destabilisering. Fra et strafferettslig perspektiv kan våpenautonomi undergrave meningsfull tildeling av ansvar og straffeskyld. Det humanrettslige perspektivet gir en juridisk utfordring, siden det ikke kan garanteres at autonome våpen vil respektere humanitærretten. Og fra et moralsk perspektiv vil det være inhumant og avskyelig om en maskin skal avgjøre om liv skal tas.

Vi kan debattere hvert av disse perspektivene oppad stolper og nedad vegger, men noen ganger kommer man til et punkt hvor man må ta et skritt tilbake og se helheten. Og vi mener at totaliteten av disse perspektivene, og utfordringene de presenterer, gjør at det internasjonale samfunnet bør etablere et forbud mot autonomi i kritiske funksjoner i våpen. Det vil ikke bare være viktig i krig, konflikter og de enkelte lands forsvar, men også i fred og sivil bruk av autonomi.

Dessverre ser det ut til at det er vanskelig å få dette til gjennom Våpenkonvensjonen. Til nå har to forslag blitt lagt på bordet i Våpenkonvensjonens ekspertgruppe: ett om å forhandle fram et forslag om forbud, og et annet om å få til en politisk erklæring. Men ingen av forslagene ser ut til å være tilstrekkelige dersom målet er en fundamental endring av status quo.

En mer radikal og kanskje effektiv handling, som reflekterer alvoret i situasjonen, ville være å erklære prosessen i Våpenkonvensjonen fallitt, ta den ut av konvensjonen og invitere andre land og organisasjoner inn i en ny prosess. Det har blitt gjort før. Det skjedde med arbeidet med landminer etter initiativ fra Canada, og det skjedde med klasebomber etter initiativ fra Norge. Dersom nok stater støtter det forhandlede resultatet, vil det gjerne skape føringer for statene som sto utenfor, og over tid bidra til sedvane.

Norges utenriksminister har uttalt at Norge ønsker å ta en pådriverrolle innenfor humanitærretten. Norge er et lite land som har markert seg som en humanitær stormakt ved å ta ledende roller i slike prosesser, og lyktes med det. Nå bør Norge starte arbeidet for et forbud.

Vi har bare litt over et år på oss før neste tilsynskonferanse i Våpenkonvensjonen, det er tiden og veien. Derfor foreslår vi at vår utenriksminister ringer sin canadiske kollega og inviterer ham på en kopp kaffe. Han har nemlig nettopp blitt instruert av sin statsminister, Justin Trudeau, om å «skape fremdrift i det internasjonale arbeidet for å forby utvikling og bruk av fullt autonome våpensystemer».pm.gc.ca/en/mandate-letters/minister-foreign-affairs-mandate-letter Norge og Canada vil ikke bli stående alene, de kan mobilisere en rekke institusjoner og allianser. 30 land i FN har bedt om forbud.www.stopkillerrobots.org/wp-content/uploads/2019/10/KRC_CountryViews_25Oct2019rev.pdf I tillegg støtter en lang rekke organisasjoner og enkeltpersoner forbud, inkludert Europaparlamentet, FNs generalsekretær António Guterres,witter.com/antonioguterres/status/1110232038081204224 den parlamentariske forsamlingen i Organisasjonen for sikkerhet og samarbeid i Europa (OSSE),Cf §29 i www.oscepa.org/documents/annual-sessions/2019-luxembourg/3882-luxembourg-declaration-eng/file Gruppen av afrikanske stater (54 stater), Alliansen for multilateralisme (50 stater),eeas.europa.eu/headquarters/headquarters-homepage/68046/alliance-multilateralism-promote-global-cooperation_en Organisasjonen av alliansefrie nasjoner (120 stater),www.unog.ch/80256EDD006B8954/(httpAssets)/E9BBB3F7ACBE8790C125825F004AA329/$file/CCW_GGE_1_2018_WP.1.pdf 21 vinnere av Nobels fredspriswww.pressenza.com/2014/12/world-summit-nobel-peace-laureates-final-declaration/ og over 4500 eksperter i kunstig intelligens.futureoflife.org/open-letter-autonomous-weapons/ Løytnant Hiroo Onoda var en dødelig autonom soldat i 29 år før han kapitulerte. Og det gjorde han først etter at hans gamle kommandant var hentet inn fra Japan til Filippinene for å gi ham en gyldig ordre om å legge ned våpnene. Det er en stund til vi får våpen så autonome som løytnant Onada. Men vi kan komme dit. Og selv med et forbud mot dødelige autonome våpen er framtiden skremmende. 164 land har skrevet under på Minekonvensjonen, allikevel finnes det om lag 110 millioner aktive miner i verden i dag – og antallet øker. 110 millioner autonome dødelige våpen som kan operere i årtier, er en framtid ingen av oss ønsker.

Vi ønsker å takke Lene Grimstad fra Norges Fredslag for kommentarer og innspill til denne teksten.