AI-nyheter

Styrker sikkerhetstiltak etter Chatgpt-hendelser

Openai innrømmer at systemet kan svikte. 

EU har lagt frem retningslinjer for hvordan AI skal reguleres.
Publisert

I et blogginnlegg tirsdag denne uken opplyser Openai at Chatgpt skal oppdateres for å bedre kunne gjenkjenne og reagere på ulike uttrykk for psykisk nød blant brukerne. 

AI-giganten erkjenner at chatboten ikke alltid fungerer som tiltenkt når brukere er i sårbare situasjoner, og at det har vært eksempler på «hjerteskjærende tilfeller» av mennesker som bruker Chatgpt midt i akutte kriser. 

– Målet vårt er at verktøyene våre skal være så hjelpsomme som mulig for folk – og som en del av dette fortsetter vi å forbedre hvordan modellene våre gjenkjenner og svarer på tegn til psykisk og emosjonell nød, og hvordan de kan koble mennesker til hjelp, veiledet av ekspertinnspill, skriver AI-selskapet. 

Flere medier, deriblant Bloomberg, skriver at kunngjøringen kommer fra AI-selskapet etter at et søksmål ble reist av foreldrene til et tenåringsbarn som tok sitt eget liv tidligere i år. 

Brukeren skal i forkant ha brukt den populære chatboten som en slags «coach», ifølge nettavisen. 

Openai peker på at de allerede siden 2023 har trent modellene sine til å unngå å gi selvskadingsråd og i stedet bruke støttende språk. 

Chatboten er også programmert til å henvise brukere til krisetjenester dersom de uttrykker selvmordstanker.

Nå varsler selskapet altså nye tiltak. Blant annet vil Chatgpt oppdateres til bedre å kunne fange opp faresignaler i lange samtaler, forklare farene ved søvnmangel og oppfordre til hvile dersom en bruker hevder å føle seg «usårbar» etter å ha vært våken i flere døgn. 

OpenAI planlegger videre å gjøre det enklere å koble brukere direkte til nødhjelpstjenester og utvider beskyttelsen av unge under 18 år.