-
Head of Finance
-
Direktør for KI Norge
-
Konserndirektør digitalisering og teknologi
-
Senior Full-Stack Utvikler | Lawai
-
Senior Security Engineer | Firi
-
Medeier* | Boitano
-
Utvikler | Blank
-
FullStack Site Reliability Engineer | Vespa.ai
-
Lead Security Software Engineer | Vespa.ai
-
Principal Software Engineer, AI | Bislab
kunstig intelligens
– Det er en tillitskrise: AI-topp mener ChatGPT-bråk bekrefter at de valgte riktig
Flukten fra ChatGPT til Claude handler om mer enn bare bedre kode-egenskaper. – Folk velger bort verktøy de ikke lenger stoler på, sier Martin Jensen i TRY.
Tidligere denne uken skrev Shifter om hvordan norske teknologer og bedrifter nå kaster seg over utfordreren Anthropic og modellen Claude, etter at OpenAI signerte en omstridt avtale med det amerikanske Department of War.
Dette skjedde etter at konkurrenten Anthropic nektet å inngå den samme avtalen. Trump-administrasjonen, ved krigsminister (Secretary of War) Pete Hegseth, stemplet umiddelbart Anthropic som en «sikkerhetsrisiko i forsyningskjeden» – en betegnelse vanligvis reservert for utenlandske aktører. Det ble innført forbud for alle som handler med det amerikanske militæret mot å samarbeide med Anthropic.
«QuitGPT»
Den internasjonale kampanjen «QuitGPT» argumenterer nå for at det å bytte AI-leverandør er en av de mest effektive formene for forbrukermakt, nettopp fordi alternativene nå er like gode eller bedre.
I en fersk kronikk i The Guardian signert historiker Rutger Bregman, beskrives grepet av Trump-administrasjonen som en «corporate death sentence». Han påpeker at i motsetning til å slutte med Amazon eller Google, som er dypt integrert i hverdagen, tar det «ti sekunder» å bytte chatbot.
Nå melder en av tungvekterne i den norske reklame- og teknologibransjen seg også på i debatten.
Martin Jensen, Head of AI and Transformation i TRY, mener bevegelsen vi ser nå stikker dypere enn en vanlig svingning i markedet. Han beskriver det som en fundamental tillitskrise for Sam Altmans selskap.
– Det som skjer nå er ikke bare en politisk reaksjon. Folk velger verktøy de stoler på – og velger bort verktøy de ikke lenger gjør det, sier Jensen til Shifter.
Satset mot strømmen i 2024
Da TRY skulle rigge sin AI-satsing for to år siden, valgte de å bygge infrastrukturen rundt Anthropic og Claude. Det var et valg som fikk flere til å heve øyenbrynene.
– Da jeg tok initiativet til å bygge vår AI-satsning på Claude i 2024, var det knapt noen utenfor utviklermiljøet som hadde et forhold til Anthropic. Alle snakket om OpenAI. Mange lurte på hva slags påfunn dette var, forteller Jensen.
– I dag ser bildet annerledes ut. OpenAI opplever fallende markedsandeler, og en global boikott-kampanje sprer seg. For TRY er dette en bekreftelse på at vi satset riktig. Ikke bare fordi Claude er best i klassen teknisk – men fordi verdiene bak produktet faktisk betyr noe. Slik vi ser det, er tillit den viktigste infrastrukturen i AI-bransjen akkurat nå, sier Jensen.
Faglig sparringspartner
Kommunikasjonsbyrået bruker i dag Claude i så å si alle arbeidsprosesser internt. Mye handler om effektivisering – presentasjoner, rapporter, innhenting og strukturering av data, koding, prototyping, regnskap, innsiktsarbeid.
– Det mest interessante skiftet er at Claude nå fungerer som en faglig god sparringspartner. Det betyr at folk favner bredere, utforsker mer, og løser oppgaver de tidligere ville sendt videre. Det er et resultat av modningskurven – man begynner med enkle oppgaver og ender opp med å tenke helt annerledes om hva man kan gjøre, sier han.
– Vi har gått fra tidlig utprøving til i overkant av 90 daglig bruk internt. Det har tatt tid – vi har drevet systematisk opplæring siden 2024. Det er ingen snarvei.
Internt har de koblet AI til det meste av interne verktøy som Office 365, Slack og møtetranskribering, prosjektstyringsverktøy og egne integrasjoner mot regnskap, timeføring og felles datasett på tvers av TRY-selskapene.
– Det betyr at folk kan spørre om nesten hva som helst – fra «hva brukte vi på den kunden i fjor?» til «hva ble sagt i gårsdagens møte?». Vi har brukt mye tid på å kontrollere og validere lese- og evt. skriverettigheter, slik at det er trygt og etterrettelig.
Jensen peker på at det gjør det også mulig for Claude til å fungere som arbeidshest mellom systemene, for eksempel «ta det vi diskuterte i møtet i går og legg det som oppgaver inn i prosjektstyringsverktøyet».
– Det vi har satset mest på de siste månedene, er det Anthropic kaller «skills» – evner du gir til Claude som beskriver våre arbeidsmåter, prosesser og metodikk. Kombinert med tilkoblingene gir dette en helt annen fart og faglig tyngde enn ren chat, sier han.
Venter ikke permanent omdømmetap
– PR-kriser har det med å blåse over?
– Ærlig talt tror jeg denne krisen også vil blåse over. Det ser allerede ut til at OpenAI justerer vilkårene i forsvarskontrakten etter press fra kunder. Slik fungerer disse syklusene. Men det som ikke endrer seg, er den fundamentale forskjellen mellom selskapene, sier han og peker på at Anthropic ble startet av folk som forlot OpenAI fordi de var uenige i hvordan modeller ble trent og selskapet ble styrt.
– Det var det vi så da vi valgte leverandør: Her var det noen som hadde ansvarlig AI som utgangspunkt, ikke som ettertanke.
Han minner om at OpenAI alltid har vært mer «klassisk Silicon Valley», vekst først, prinsipper etterpå.
– Det ser du også i produktretningen: De ruller ut annonser mot sluttbrukere, mens Anthropic bygger for bedrifter og kunnskapsarbeidere. Funksjoner som «Cowork», som vi allerede får mye ut av, er et godt eksempel på den forskjellen.
– Kan dette likevel bli annerledes for OpenAI?
– Dersom OpenAI leverer et vesentlig bedre produkt, gir det dem selvfølgelig en fordel. Men når produktene er mer eller mindre jevnbyrdige, og det er de nå, så handler valget om hvem du stoler på. Anthropics modell virker mer bærekraftig. Selskapet har vært stabilt der OpenAI har vært turbulent. En liten stund før vi valgte leverandør i 2024, stod OpenAI midt i styrekrisen rundt Sam Altman, med avgang etter avgang blant nøkkelpersoner. Slike ting burde spille en rolle som innkjøper. Kort sagt: Tillit er den viktigste infrastrukturen i AI akkurat nå. Det var derfor vi valgte Anthropic den gangen, og utviklingen den siste uken bekrefter at det var riktig.