Pentagon

Truer med å kutte KI-samarbeid

Ifølge nettstedet Axios får ikke Pentagon bruke KI-modeller fra selskapet Anthropic ubegrenset. Dermed truer departementet med å kutte samarbeidet. 

BEGRENSET: Claude er KI-tjenesten til selskapet Anthropic, som nå er i forhandlinger med det amerikanske forsvarsdepartementet.
Publisert Sist oppdatert

KI-selskapet Anthropic lar ikke det amerikanske forsvarsdepartementet bruke KI-modeller ubegrenset. 

Det skal Pentagon ha fått nok av, ifølge Axios.

Anthropic insisterer på at deres modeller ikke brukes på to områder: Masseovervåking av amerikanere og helt autonome våpen, skriver nyhetsnettstedet Axios.

Det amerikanske forsvarsdepartementet, også kalt Pentagon, legger press på fire KI-selskaper for å kunne bruke verktøyene deres til «alle lovlige formål», inkludert våpenutvikling, etterretning og i strid.

Tips oss!

Har du tips eller innspill til denne eller andre saker? Send oss en e-post på: tips@fofo.no eller ta direkte kontakt med en av journalistene

Ettersom Anthropic insisterer på å opprettholde noen begrensninger på bruk, vurderer Pentagon å kutte samarbeidet, skriver Axios og viser til en høytstående, amerikansk tjenesteperson som ikke er navngitt.

Vanskelige forhandlinger har pågått i månedsvis uten resultater. Den anonyme amerikanske tjenestepersonen sier til Axios at det er en betydelig gråsone for hva som kan anses for å havne innenfor de to nevnte kategoriene. 

Videre sier han at de ikke kan forhandle med selskapene i hvert tvilstilfelle eller risikere at en tjeneste plutselig er blokkert.

I tillegg til Anthropic som leverer KI-tjenesten Claude, gjelder forsvarssamarbeidet selskapene OpenAI (ChatGPT), Google (Gemini) og xAI (Grok).

Det amerikanske forsvarsdepartementet har foreløpig ikke kommentert saken.

Powered by Labrador CMS