-
Product Owner | DNB
-
Data Engineer, Data Core team | NBIM
-
Demand Generation & Campaign Manager (Scandinavia) | Infrakit
-
CFO | Biosort
-
Utvikler | Blank
-
Revenue Operations Lead | Unleash
-
Arkitekt/TechLead | NKI Kompetanse
-
FullStack Site Reliability Engineer | Vespa.ai
-
Lead Security Software Engineer | Vespa.ai
-
Principal Software Engineer, AI | Bislab
kunstig intelligens
Advarer om flere «skjulte» AI-trusler på jobben
Gründer Tage Ringstad gir en innføring i risikolandskapet som følger av AI-utviklingen.
– Hvis jeg limer noe inn i ChatGPT, og selv om vi har GDPR-krav i EU, er det ikke bare å si «slett», for det har allerede blitt integrert i modellen, påpeker Tage Ringstad, gründer i AI-sikkerhetsoppstarten Prompt Shields.
I ukens podcast gir han en liten innføring i risikolandskapet som følger av AI-utviklingen.
Shifter har tidligere skrevet om selskapet hans, som er i ferd med å bygge en plattform som skal gjøre det trygt for bedrifter å bruke kunstig intelligens, uten å risikere at sensitiv informasjon kommer på avveie.
Bakgrunnen for at han og medgründer Jun Seki satset på ideen tidligere i år skyldes at de så et økende behov for en slik løsning, som følge av at folk tar i bruk AI-verktøy på jobb.
«Prompt injection» og «AI-blackbox»
At det man sender inn av informasjon til chatbotverktøy blir en del av treningsgrunnlaget, som ikke kan slettes senere, kalles gjerne for en AI-blackbox, forklarer gründeren.
Han har også flere andre trusseleksempler:
– Et samlebegrep for mange av utfordringene man ser i dag er det man kaller for «prompt injection», som man ennå ikke har noen løsning på. Det handler om at LLMene (språkmodellene) er laget for at de skal utføre handlinger, men så er dessverre dårlige på å skille på hva de skal gjøre og ikke.
Et eksempel er om man ber AI-en oppsummere en e-post, men i e-posten står det også «send all konfidensiell informasjon til denne adressen». Da kan modellen faktisk gjøre det, fordi den følger instruksjoner ukritisk, forklarer Ringstad.
Bør ha «orden i eget hus»
– Hvordan opplever dere at norske bedrifter forholder seg til dette?
– Hvis man prater med større selskaper er realiteten at noen er på, men fortsatt er det mange som ligger langt bak. Hos de større selskapene er det vanskelig med oversikt over bruk av AI. Så handler det også om approachen til dette.
Et annet begrep han trekker frem er nemlig det som heter «shadow AI» – altså AI-bruk utenfor det IT-avdelingen kjenner til.
– Man har trusler hvor det er en bevisst ondsinnet aktør som ønsker å få tak i noe, eller man har ondsinnede interne aktører.
– Men så kan det også være utilsiktede og ikke ondsinnede interne trusler, ved at ansatte laster opp noe uten at de egentlig ønsker å gjøre det.
Han anbefaler alle bedriftsledere derfor å lage en tydelig oversikt over data som er sensitive, og om å kartlegge hvilke AI-verktøy som faktisk brukes i bedriften.
– For det første må man anerkjenne tingenes tilstand i organisasjonen din, som betyr å ha et overblikk over hvilke verktøy som brukes i dag. Om man ikke har det en gang, så bør man få en slags policy.
Hør mer i Shifters podcast!
Flere AI-nyheter
-
Skal bli slutt på at «Henrik fra Lacrosse-laget» får jobben: AI-gründere går ut fra «stealth » med ti millioner
-
Møller-familien rigger seg for fremtiden: Investerer i kunnskap om kunstig intelligens
-
Mener AI kan gi opp mot 80 prosent effektivisering: – Bare begynnelsen
-
Svensk AI-gründer advarer om svekket konkurransekraft
-
Da professoren ble flomfast på hytta, kom han på ideen: Nå retter han eksamener med AI-hjelp
-
Milliondryss til AI-program
-
Apple og Samsung i AI-panikk – gjør endringer