-
Head of Finance
-
Direktør for KI Norge
-
Konserndirektør digitalisering og teknologi
-
Senior Full-Stack Utvikler | Lawai
-
Senior Security Engineer | Firi
-
Medeier* | Boitano
-
Utvikler | Blank
-
FullStack Site Reliability Engineer | Vespa.ai
-
Lead Security Software Engineer | Vespa.ai
-
Principal Software Engineer, AI | Bislab
kunstig intelligens
WSJ: Brukte utestengte Anthropic i Iran-angrep få timer etter forbudet
Fredag beordret president Donald Trump en stans i all statlig bruk av Anthropic. Kun timer senere spilte AI-verktøyet Claude en sentral rolle i et stort amerikansk luftangrep i Iran.
Ifølge en fersk rapport fra The Wall Street Journal viser hendelsen hvor dypt integrert kunstig intelligens har blitt i det amerikanske militæret – og hvor krevende det er å fjerne teknologien over natten.
Sentral i målretting og simulering
Flere amerikanske forsvarskommandoer, inkludert U.S. Central Command (Centcom) i Midtøsten, støtter seg tungt på Anthropics AI-modell, Claude. Personer med kjennskap til saken bekrefter overfor WSJ at verktøyet brukes til blant annet:
Etterretningsanalyser: Rask prosessering av store mengder data.
Målidentifikasjon: Å peke ut spesifikke militære mål.
Kampsimulering: Simulering av ulike scenarioer før angrep iverksettes.
Centcom har foreløpig nektet å kommentere hvilke spesifikke systemer som ble brukt under den pågående operasjonen mot Iran, men kildene bekrefter Anthropics rolle.
Sikkerhetstrussel og politisk konflikt
Det hvite hus og det San Francisco-baserte AI-selskapet har vært på kollisjonskurs i månedsvis. Konflikten nådde et klimaks før helgen, da forsvarsdepartementet (Pentagon) stemplet Anthropic som en «sikkerhetstrussel» og en risiko for leverandørkjeden.
Under kontraktsforhandlingene skal Anthropic ha nektet Pentagon å bruke verktøyene deres i alle tenkelige lovlige scenarioer.
I tillegg skal selskapets lobbyvirksomhet mot Trump-administrasjonens AI-politikk, samt tette bånd til store demokratiske donorer, ha skapt sterk irritasjon i Det hvite hus.
Tungvint overgang til OpenAI og xAI
Selv om forbudet er vedtatt, har administrasjonen lagt inn en avviklingsperiode på seks måneder. WSJ peker på at utfasingen er svært komplisert fordi Claude er dypt integrert i forsvarets systemer, ofte via partnere som dataselskapet Palantir.
Teknologien har allerede bevist sin verdi i skarpe oppdrag, blant annet under den amerikanske militæroperasjonen for å pågripe Venezuelas president Nicolás Maduro.
For å tette hullet etter Anthropic, har Pentagon nå inngått avtaler med ChatGPT-skaper OpenAI og Elon Musks xAI for bruk i graderte miljøer. AI-eksperter advarer imidlertid om at det vil ta mange måneder før de nye modellene kan erstatte Claude fullstendig i felt.