Meninger

FARLIG UTVIKLING: For dem med tunnelsyn og ensporet tekno-optimisme bør krigen i Gaza være et varsko for hvor en del av utviklingen er på vei, skriver innleggforfatterne. Bildet er fra et israelsk bombeangrep på Gazastripen 11. februar 2024.

Faren ved kunstig intelligens i krig

Mennesker er ansvarlige for handlinger i krig. Ved å erstatte mennesker med maskiner kan krig bli mer inhumant.

Publisert

Dette er et debattinnlegg. Innlegget gir uttrykk for skribentens meninger. Send inn kronikker og debattinnlegg til Forsvarets forum her.

Det er lett å anta at sofistikerte, høyteknologiske løsninger gjør krigføring mer human, men Israels bombing på Gaza peker i motsatt retning. Snarere enn å treffe mer presist og skånsomt, har den israelske bruken av kunstig intelligens (KI) ført med seg enorme humanitære lidelser. 

Det er på høy tid å ta debatten om de negative effektene av KI-genererte beslutningsstøttesystemer i krigføring.

Flere norske og utenlandske medier har omtalt rapporten fra det israelske tidsskriftet +972 om hvordan Israels militære styrker (IDF) benytter systemer basert på kunstig intelligens til å foreslå nye bombemål i Gaza i et vanvittig tempo.

Særlig Gospel-systemet (Habsora) har blitt viet mye oppmerksomhet. Gospel-systemet mottar og analyserer enorme datamengder med påfølgende forslag til militære mål med en hurtighet ingen mennesker er i stand til å matche. Forslagene samles i en «anbefalingsbank» som militære beslutningstakere deretter kan velge fra. 

Ifølge tidsskriftet +972 gikk Israel tom for militære mål i de to foregående offensivene mot Gaza i 2014 og 2021. Kunstig intelligens ser ut til å ha løst dette. I tillegg til å generere tusenvis av mål på rekordtid, har Gospel-systemet vist seg å oppfylle militære krav til sjokkeffekt med den konsekvens at Gazastripen har blitt gjenstand for ufattelige ødeleggelser.

Vi ser nå at sivile objekter har mistet sin beskyttelse og at aksepten for sivile tap er og har vært enorm. Det er uakseptabelt hvis økt bruk av kunstig intelligente systemer medfører slepphendt anvendelse av prinsippene om proporsjonalitet, distinksjon og forholdsregler i angrep.

Etiske og juridiske problemer ved KI-mål

I motsetning til autonome våpensystemer så begrenser Gospel-systemet seg til «kun» å foreslå mål, mens selve beslutningen om å gjennomføre et angrep ligger hos et menneske i neste ledd. Likevel utgjør dette et godt eksempel på en metode for generering av mål som krever at vi stopper opp og reflekterer over konsekvensene. 

Både formålet med, og resultatet av systemet synes å være økt kvantitet av ødeleggelse, ikke kvalitet i form av økt presisjon. Vi har lenge advart mot at KI-genererte beslutningsgrunnlag i krigføring kan ende opp med å bli en digital hvilepute der de stridende parter gjør seg så avhengige av teknologien at selvstendige vurderinger blir vanskelige, og at dette til slutt går ut over sivile.

Hvilken mulighet har egentlig brukerne av slike systemer til å ettergå kalkuleringene som er gjort når krigen avspiller seg i høy hastighet? Mer tid er noen ganger helt nødvendig for å følge krigens regler. Med KI-baserte systemer for beslutningstaking risikerer vi, med viten og vilje, å vanskeliggjøre nødvendige moralske og juridiske vurderinger som trengs for å skåne sivile og å hindre rask og uønsket eskalering. 

Et varsko

Det er på høy tid å ta debatten om hva som skal være merverdien av å benytte KI i krigføring, og for hvem. Er KI-baserte systemer med på å skape ubalanse ved at de nedprioriterer humanitære hensyn til fordel for militære nødvendigheter i form av hastighet og omfang? Av det vi har blitt presentert for hittil, taler mye i den retning. For dem med tunnelsyn og ensporet tekno-optimisme bør krigen i Gaza være et varsko for hvor en del av utviklingen er på vei. 

Som representanter for sivilsamfunn og humanitære organisasjoner ønsker vi å gjøre det klart at vi ikke fornekter de muligheter bruk av KI i krigføring kan gi for økt etterlevelse av krigens folkerett, eksempelvis når det kommer til bedre situasjonsforståelse rundt de humanitære konsekvensene av angrep, samt økt presisjon i målretting. 

Det er viktig å huske på at KI-baserte systemer settes til å løse konkrete oppgaver for å oppnå uttalte hensikter. På Gazastripen har det unektelig vært ønsket å iverksette et voldsomt angrep og beslutningsstøttesystemer er med på å muliggjøre dette. 

Mennesker er ansvarlige for handlinger i krig, og mennesker er de som lider som følge av krig. Derfor er det viktig å ikke fjerne mennesker – både moralsk og juridisk for langt unna beslutninger om liv og død. Ved å gradvis erstatte mennesker med maskiner frykter vi at krig blir mer inhumant. 

Powered by Labrador CMS