Kulturdebatt

Framtidens krig utkämpas utan människor

Linda Johansson.
Linda Johansson. Foto: Peter Knutson

Vår bild av slagfält som synonym med tältgrupperingar och fältkök blir alltmer förlegad. Digitalisering, robotisering och autonom teknik håller på att utesluta människan ur beslutsloopen, skriver Linda Johansson.

Hur kommer framtidens krig att se ut? Tendensen tycks vara att människan i allt mindre utsträckning skulle komma att delta i de krig som till stor del utspelas på nätet eller av robotar. Enligt FBI har Kina en armé på 180.000 cyberspioner som dagligen jobbar med att påfresta den amerikanska digitala infrastrukturen, och svenska FRA har erkänt att de inte har tillräckliga resurser att möta ryska cyberangrepp. Tidskriften Wired skrev i juni att framtidens slagfält kommer att bestå av drönarsvärmar, flockar av billiga, förbrukningsbara obemannade flygfordon. Organisationen Human Rights Watch hävdar att robotar som själva väljer och beskjuter mål kan vara verklighet om tjugo till trettio år. Skulle inte det innebära att vi då skulle befinna oss mitt i en dystopisk ”Terminator”-film?

Våren 2014 samlades 87 länder i Genève för att genomföra de allra första multilaterala samtalen om ”mördarrobotar”. Under samtalen framkom förslag på att faktiskt förbjuda inte bara tillverkandet och användandet av autonoma krigsrobotar, utan även utvecklingen av sådana.

De som invänder mot ett förbud menar att det alltid kommer att finnas en människa i beslutsloopen – det kommer helt enkelt inte att vara så att självmedvetna, mordiska flygfarkoster surrar omkring i luften och godtyckligt väljer ut mål som passar deras robotmoral. Att det alltid är en människa som fattar de viktiga besluten.

Men även om man tycker att ett förbud är förhastat, inte minst för att det vore dumt att undvika att utveckla en teknik som andra, mindre demokratiska samhällen kan utveckla för ett militärt övertag, så finns det vissa aspekter i diskussionen kring människan och beslutsloopen som bör lyftas. Det bör även påpekas att den inte bara innehåller robotar och människor, utan även djur. I Ny Teknik (18/2) kan man läsa att polisen i Nederländerna dresserar örnar för att fånga oönskade drönare. Örnarna tränas att fånga in flygande drönare och sedan landa dem på ett säkert ställe, vilket även fångats i ett spektakulärt Youtubeklipp.

Automation bias handlar om den mänskliga tendensen att lita på ett mer eller mindre autonomt system trots att man har belägg för att systemet kan ha fel eller är opålitligt i en viss situation. Ett tragiskt exempel på detta är den amerikanska kryssaren USS Vincennes nedskjutning av ett iranskt passagerarplan över Persiska viken 1988. USS Vincennes var utrustad med det autonoma stridssystemet Aegis, ett system med fyra grader av autonomi. Människan kunde dock gå in och styra datorn i alla dessa fyra nivåer av autonomi, även den sistnämnda, där datorn hade möjlighet att på egen hand ”bestämma” hur skeppet skulle försvaras, och alltså hade tillstånd att göra det den ansåg bäst för att skydda skeppet.

Aegis noterade passagerarplanet 655, en Airbus, som höll sin kurs och hastighet, och som skickade en signal som talade om att det var civilt. Aegis registrerade dock planet som ett iranskt stridsplan av typen F-14 via en ikon på skärmen. Trots att annan data berättade för besättningen att planet inte var ett stridsplan, litade man mer på datorn. Aegis var då inställd på den lägsta nivån av autonomi – halvautomatisk – men ingen människa gick emot datorns ”bedömning”. Det fanns förvisso andra omständigheter, som att Flight 655 inte svarade på anrop, men detta är ett exempel på att lita mer på datorn än sitt eget mänskliga omdöme.

Ett senare, liknande exempel är när US Patriot-missiler under Irakinvasionen 2003 råkade skjuta ner två allierade flygplan, som systemet hade klassificerat som irakiska raketer. Det fanns endast några sekunder att fatta beslutet, så människorna litade mer på maskinen. Deras roll i beslutsloopen bestod av att de hade veto, det vill säga att de kunde stoppa det datorn gjorde, men detta veto var de inte villiga att använda mot datorns snabbare och – enligt vad de tyckte – bättre omdöme.

Forskare på amerikanska Darpa, den myndighet som utvecklar militär teknologi, menar att människan håller på att bli den svagaste länken i kedjan – att beslutsloopen kommer att bli så kort och snäv att det till slut blir svårt att över huvud taget få in människor i den, eftersom vi helt enkelt är för långsamma. Ray Kurzweil, författare till bland annat ”The singularity is near”, hävdar att försäkringen om att det alltid kommer att finnas en människa i beslutsloopen bara är en teoretisk beskrivning. Han menar att människan kanske tror att hon har kontroll, men att det i själva verket är så att hon bara har kontroll på vissa nivåer.

Amerikanska militärforskare menar att människan håller på att bli den svagaste länken i kedjan.

En annan faktor som gör att människan stegvis flyttas ut ur loopen är vår svårighet att hantera flera system samtidigt. Ekonomiska faktorer kan kräva att varje operatör kontrollerar – eller snarare övervakar – flera robotar på samma gång i stället för bara en enda. Eller, ännu bättre ur ett ekonomiskt perspektiv, att en operatör kontrollerar hela svärmar av robotar. Problemet är att redan när man låter en människa övervaka så få som två drönare i stället för en, minskar människans prestationsnivå med ungefär femtio procent. En studie från Nato visade att målet där en operatör kontrollerar flera drönare är väldigt ambitiöst och svårt att uppnå.

Även om kommunikationskedjan inte är bruten kan det ändå uppstå situationer där det inte finns tid för en människa att hinna reagera. Den bästa mänskliga stridspiloten behöver åtminstone 0,3 sekunder för att reagera på enkel stimulans och dubbelt så lång tid för att välja mellan flera olika alternativ. En robotpilot behöver mindre än en miljondels sekund. Det finns också robotinställningar som direkt beskjuter den som skjuter – något som skulle ta flera sekunder för en människa och eventuellt skulle fienden då hinna komma undan.

Att låta robotar få lov att skjuta tillbaka om de beskjuts skapar undantag till regeln att det alltid ska finnas en människa i beslutsloopen. Många menar att framtidens vapen kommer att vara för snabba, för små eller för många, och därmed helt enkelt skapa en miljö som är för komplex för människor att hantera. Om en robot inte kommer att skjuta förrän en människa godkänner det, behöver fienden bara bryta kommunikationen dem emellan. Militärer menar att även om man inte vill ta bort människan ur loopen, så måste det finnas en reservplan när kommunikationen är bruten, vilket kräver ökad autonomi.

Men även vid ökad autonomi finns risken att robotarna blir hackade av motståndarsidan, så att fienden får kontroll över en robot och kan få den att göra vad de vill. I en US Army-artikel skriver överstelöjtnanten Ralph Peters hur framtida krig skulle kunna inkludera elektroniska ”övertygningsslag” där de två sidornas system skulle försöka övertyga det andra systemet att göra som de själva vill – att få motståndarens robotar att köra utför en klippa, eller att koda om sig själv så att de slåss för motståndarsidan i stället.

För att undvika åtminstone vissa problem med hackning kan man tänka sig att robotarna görs så autonoma att de blir stängda system som inte kommunicerar via ett nät, utan att de kommunicerar med varandra som människor gör – genom kommunikationsradio och kroppsspråk, just för att undvika att fienden fångar en robot som i sin tur kan påverka resten av den egna armén genom virus och trojaner.

Här ligger en del av drivkraften att göra robotar mer autonoma. Men problemet med att göra robotarna helt säkra för hackare är att möjligheten att styra och kontrollera dem minskar drastiskt. Amerikanska National Science Foundation menar att en sorts nätverksbaserad telepati kan vara möjlig inom två årtionden.

Ett problem är dock att även om man kan koppla upp sig till en drönare och styra den med tanken är drönaren mycket mer uthållig och fokuserad än en människa. Dessutom behöver människan en dator för att styra drönaren, och då är vi tillbaka i resonemanget om människan i beslutsloopen. Och om våra hjärnor skulle vara kopplade till maskiner betyder det också att de kan kopplas till varandra – och därmed bli tillgängliga för någon annan, utomstående. Mardrömmen vore ju en armé bestående av robotar som vänds mot en själv.

Bör vi då göra som Human Rights Watch önskar och förbjuda utvecklingen helt och hållet? Det främsta problemet, vid sidan av att man riskerar att hamna i ett militärt underläge gentemot länder som inte skriver under på ett sådant förbud, är nog att det är mycket svårt eftersom det tycks ligga i den mänskliga naturen att fortsätta utveckla saker som man har fått vittring på.

En annan fråga är vad vi har för skäl att oroa oss över ”mördarrobotarna”. Varför skulle en robot döda, om det skulle vara så att vi förlorar kontrollen över den? En inte orimlig tanke är faktiskt att de potentiellt självmedvetna robotarna skulle vara betydligt mer etiska och mindre mordiska än människan.