-
Senior Full-Stack Utvikler | Lawai
-
Senior AI & ML Engineer | NBIM
-
Leder data og KI | SpareBank 1 Forvaltning
-
Arkitekt | SpareBank 1 Forvaltning
-
Head of Community Arena – Collektivet i Construction City | OBOS
-
Senior forretningsutvikler / produktleder - konsulent (2 stillinger), med partner- og medeierskap | Kadabra
-
Senior Security Engineer | Firi
-
Senior Software Engineers - Frontend & Backend | Hornet
-
Medeier* | Boitano
-
Engineering Manager | Handelsbanken
kunstig intelligens
Advarer om flere «skjulte» AI-trusler på jobben
Gründer Tage Ringstad gir en innføring i risikolandskapet som følger av AI-utviklingen.
– Hvis jeg limer noe inn i ChatGPT, og selv om vi har GDPR-krav i EU, er det ikke bare å si «slett», for det har allerede blitt integrert i modellen, påpeker Tage Ringstad, gründer i AI-sikkerhetsoppstarten Prompt Shields.
I ukens podcast gir han en liten innføring i risikolandskapet som følger av AI-utviklingen.
Shifter har tidligere skrevet om selskapet hans, som er i ferd med å bygge en plattform som skal gjøre det trygt for bedrifter å bruke kunstig intelligens, uten å risikere at sensitiv informasjon kommer på avveie.
Bakgrunnen for at han og medgründer Jun Seki satset på ideen tidligere i år skyldes at de så et økende behov for en slik løsning, som følge av at folk tar i bruk AI-verktøy på jobb.
«Prompt injection» og «AI-blackbox»
At det man sender inn av informasjon til chatbotverktøy blir en del av treningsgrunnlaget, som ikke kan slettes senere, kalles gjerne for en AI-blackbox, forklarer gründeren.
Han har også flere andre trusseleksempler:
– Et samlebegrep for mange av utfordringene man ser i dag er det man kaller for «prompt injection», som man ennå ikke har noen løsning på. Det handler om at LLMene (språkmodellene) er laget for at de skal utføre handlinger, men så er dessverre dårlige på å skille på hva de skal gjøre og ikke.
Et eksempel er om man ber AI-en oppsummere en e-post, men i e-posten står det også «send all konfidensiell informasjon til denne adressen». Da kan modellen faktisk gjøre det, fordi den følger instruksjoner ukritisk, forklarer Ringstad.
Bør ha «orden i eget hus»
– Hvordan opplever dere at norske bedrifter forholder seg til dette?
– Hvis man prater med større selskaper er realiteten at noen er på, men fortsatt er det mange som ligger langt bak. Hos de større selskapene er det vanskelig med oversikt over bruk av AI. Så handler det også om approachen til dette.
Et annet begrep han trekker frem er nemlig det som heter «shadow AI» – altså AI-bruk utenfor det IT-avdelingen kjenner til.
– Man har trusler hvor det er en bevisst ondsinnet aktør som ønsker å få tak i noe, eller man har ondsinnede interne aktører.
– Men så kan det også være utilsiktede og ikke ondsinnede interne trusler, ved at ansatte laster opp noe uten at de egentlig ønsker å gjøre det.
Han anbefaler alle bedriftsledere derfor å lage en tydelig oversikt over data som er sensitive, og om å kartlegge hvilke AI-verktøy som faktisk brukes i bedriften.
– For det første må man anerkjenne tingenes tilstand i organisasjonen din, som betyr å ha et overblikk over hvilke verktøy som brukes i dag. Om man ikke har det en gang, så bør man få en slags policy.
Hør mer i Shifters podcast!
Flere AI-nyheter
-
Softbank i samtaler om å øke investeringen i OpenAI med 300 milliarder
-
Norconsult satser på norsk AI-startup for tidlig planlegging
-
Rapport: AI kutter flere jobber enn teknologien skaper i Storbritannia
-
Finsk AI-selskap henter 75 millioner kroner
-
Tidligere Oda-profil om AI-ansvaret i Nav: – Konsekvensene av feil er store
-
Cobrief byttet ut telefonsalg med AI-agent - sikter mot tripling i 2026
-
Skal teste AI-assistent på skoleelever