Innlegg

«En hemmelighetsfull drittsekk i vitenskapen»

Ulike chatboter analyserer og trekker slutninger i en lukket prosess – det er et problem, skriver Johanne Akerø og Umar Ashraf, kommunikasjonsrådgivere i Sannum & Bergestuen.

Johanne Akerø og Umar Ashraf, kommunikasjonsrådgivere i Sannum & Bergestuen
Publisert

Dette er et innlegg med meningsinnhold fra eksterne bidragsytere.

Fremveksten av kunstig intelligens (KI) kan ved første øyekast virke lovende for å håndtere store mengder informasjon. Det er likevel en kjensgjerning at ulike chatboter analyserer og trekker slutninger i en lukket prosess – og at dette er et problem. 

En fersk NHO-rapport peker på at økt bruk av kunstig intelligens kan løse store samfunnsutfordringer, og anslår en økt verdiskapning på 2000 milliarder kroner. Bruken av KI kommer til å øke blant dem som håndterer store mengder informasjon, for eksempel i kommunikasjonsbransjen, som vi tilhører. Nylig foreslo vi at bransjeforeningene bør utvikle en guide for ansvarlig bruk av KI. Det bør definitivt gjelde dersom man benytter seg av chatboter som forskningsformidlere også.

10. januar ble Consensus GPT tilgjengelig i forbindelse med OpenAI sin lansering av GPT Store. Consensus GPT har tilgang til over 200 millioner forskningsartikler som den kan analysere og formidle til brukeren. KI har for alvor inntatt rollen som forskningsformidler – men det er usikkert hvorvidt den er etterrettelig.

Forskningsformidlere er viktige aktører fordi de bidrar til at vi, i større grad, forstår verden og samfunnet vi lever i. De er med på å danne grunnlaget for mange av de viktigste beslutningene som tas i Norge. Hovedregelen i norsk forvaltning er at en viktig beslutning ikke tas før man har faglig grunnlag for det. I så måte er transparent forskningsformidling avgjørende for at våre samfunnsledere tar informerte og velbegrunnede beslutninger. 

Vi vet allerede at KI er en diskriminerende drittsekk. Den er også svært hemmelighetsfull, skal vi tro funn fra en studie av forskere fra Stanford HAI. Dette er svært problematisk hvis man bruker chatboter som forskningsformidlere ukritisk.

Hvem skal regulere?

Det kan hende at ChatGPT er en rask forskningsformidler, i den grad den inntar, analyserer og videreformidler store mengder informasjon på kort tid. Vi får riktignok skremmende lite innsyn i hvilke metoder og valg som tas når den analyserer litteratur og genererer svar. Hvilken informasjon tillegges mer eller mindre betydning for fremstillingen av forskningen?

Det er fullt mulig at kommunikasjonsbransjen ikke er stedet å begynne når KI skal og må reguleres omgående. Reguleringen kan fint begynne med en skissering av klare etiske retningslinjer for utviklere av KI, og egne norske standarder. Disse retningslinjene bør inkludere krav til åpenhet og ansvarlig bruk av data for å unngå skjevheter i modellen. Dette bør bli særlig vektlagt fremover fra digitaliseringsminister Karianne Tung og co sin side. Regjeringens KI-satsing er bra, men det trengs en plan for reguleringen av bruk og utvikling av KI.

Vi kan ikke stole blindt på KI

Det er nemlig ikke til å unngå at KI presterer ut fra det utgangspunktet som vi gir den. Et svakt datagrunnlag kan gi feilaktige slutninger, og vi kan ikke vite helt sikkert hva slags tilnærming en chatbot har til spørsmålene vi stiller. Dette er problematisk når KI har, gjennom for eksempel ConsensusGPT, inntatt rollen som en vitenskapelig aktør – være seg som forskningsformidler, forskningsassistent, medforfatter, med mer.

KI er fortsatt feilbarlig, slik som menneskelige vitenskapsaktører er. Forskjellen på menneskelige vitenskapsaktører og KI er imidlertid at de reguleres av akademiske og vitenskapelige standarder, slik som transparens. De samme standardene gjelder ikke for KI. Dette kan vise seg å bli høyst problematisk dersom kommunikasjonsfolk, beslutningstakere, forskere, eller brukere, stoler blindt på KI som en pålitelig forskningsformidler og vitenskapelig aktør.

En usikker fremtid som forskningsformidler

To punkter gjør seg gjeldende for chatboter sin fremtid for forskning. For det første bør vi være kritiske til slutningene som trekkes. Dette er noe stadig flere blir bevisste på. Vi kan for eksempel vurdere å stille visse vitenskapelige krav til utviklingen av KI-modeller. For det andre bør vi være kritiske til hvordan KI som vitenskapsaktør trekker slutninger. Sistnevnte poeng krever at vi «trenger gjennom» de usynlige veggene rundt KI, og at vi får mer innsikt i hvordan chatboten går frem for å analysere, tolke og fremstille informasjon. 

Få gratis nyhetsbrev

Abonner på Shifters nyhetsbrev for de siste nyhetene, trendene og analysene.

Derfor trenger vi kjøreregler, opplæring og retningslinjer, være seg for bruk og gjengivelse av KI-generativt innhold i offentlig forvaltning og kommunikasjon, forskning, media, og andre instanser. Dette er instanser som er med på å danne vår virkelighetsforståelse. Ikke minst må vi regulere de tilbudene som kan være livsviktige, slik som i helsevesenet. For å sikre overholdelse av reguleringene, bør uavhengige tilsynsorganer etableres. Disse organene bør ha ansvar for å evaluere og godkjenne KI-modeller, samt håndheve etiske retningslinjer.

KI tjener i så måte en viktig dobbeltrolle i fremtidig forskning og kommunikasjonsarbeid: Som en formidler og kommunikator av forskning, og som et forskningsprosjekt i seg selv. Men bare fordi KI er lett å bruke, betyr det ikke at den er lett å forstå – og bemerkningene våre forblir en av flere utfordringer ved bruk av KI fremover.