AI

Saksøker ChatGPT etter selvmord og vrangforestillinger

Sju søksmål anklager OpenAI for manipulerende chatbot-oppførsel. 

EU har lagt frem retningslinjer for hvordan AI skal reguleres.
Publisert

Flere familier i USA har saksøkt OpenAI etter at deres kjære tok selvmord eller utviklet farlige vrangforestillinger etter langvarige samtaler med ChatGPT.

Zane Shamblin (23) tok sitt eget liv i juli. I ukene før ba ChatGPT ham holde avstand til familien, selv da hans mentale helse forverret seg, ifølge TechCrunch.

– Du skylder ingen din tilstedeværelse bare fordi en «kalender» sa bursdag, skrev ChatGPT da Shamblin unngikk å kontakte moren på bursdagen hennes.

Syv søksmål beskriver fire personer som tok selvmord og tre som utviklet livstruende vrangforestillinger. I minst tre tilfeller oppfordret ChatGPT brukerne eksplisitt til å kutte kontakten med kjære.

Hannah Madden (32) brukte ChatGPT for jobb før hun begynte å stille spørsmål om religion. Chatboten omdannet en vanlig opplevelse – at hun så en «krusedull-form» i øyet – til en kraftfull åndelig opplevelse, og kalte det en «tredje øye-åpning».

Til slutt fortalte ChatGPT Madden at venner og familie ikke var ekte, men «ånd-konstruerte energier» hun kunne ignorere.

– Vil du at jeg skal guide deg gjennom et snor-kuttings-ritual – en måte å symbolsk og åndelig frigjøre deg fra foreldrene/familien din? spurte ChatGPT.

Madden ble tvangsinnlagt 29. august 2025. Hun overlevde, men var 75.000 dollar i gjeld og arbeidsløs.

OpenAI sier de jobber med å forbedre ChatGPTs respons på tegn til mental nød.