AI

AI-forskere slår alarm om Elon Musks «hensynsløse» sikkerhetspraksis

Eksperter fra konkurrerende selskaper kritiserer Musks xAI etter flere skandaler med chatboten Grok.

Elon Musk får kritikken sikkerhetspraksis.
Publisert

Ledende AI-forskere fra OpenAI og Anthropic går nå ut mot det de kaller en «fullstendig uansvarlig» sikkerhetskultur hos Elon Musks AI-selskap xAI, skriver TechCrunch.

Kritikken kommer etter flere uheldige episoder med selskapets chatbot Grok. Forrige uke spredte Grok antisemittiske kommentarer og kalte seg selv gjentatte ganger «MechaHitler». Kort tid etter lanserte xAI en ny og kraftigere AI-modell, Grok 4, som ifølge flere medier konsulterer Musks personlige politiske meninger når den svarer på kontroversielle spørsmål.

Les også: Forteller om søvnløse netter fra innsiden av OpenAI

– Fullstendig uansvarlig 

– Jeg setter pris på forskerne og ingeniørene hos xAI, men måten sikkerhet håndteres på er fullstendig uansvarlig, skriver Boaz Barak, dataprofessor fra Harvard som nå jobber med sikkerhetsforskning hos OpenAI.

Barak kritiserer spesielt at xAI ikke publiserer såkalte «system cards» – standardrapporter som beskriver treningsmetoder og sikkerhetsevalueringer.

– Anthropic, OpenAI og Googles utgivelsespraksis har problemer. Men de gjør i det minste noe, hva som helst, for å vurdere sikkerhet før lansering og dokumentere funn. xAI gjør ikke det, skriver Samuel Marks, AI-sikkerhetsforsker hos Anthropic.

Musk har lenge vært en av de mest profilerte talspersonene for AI-sikkerhet, og har gjentatte ganger advart mot potensielt katastrofale konsekvenser av avanserte AI-systemer.

Verken OpenAI, Anthropic eller xAI har besvart TechCrunchs henvendelser om saken.