Sosiale medier
Meta må betale 3,6 milliarder kroner for å villede om barnesikkerhet
En jury i New Mexico fant selskapet ansvarlig for å utsette barn for fare.
En domstol i New Mexico har dømt Meta til å betale 375 millioner dollar i erstatning for å villede brukere om sikkerheten på plattformene sine for barn, melder BBC.
Juryen fant at Meta, som eier Facebook, Instagram og WhatsApp, var ansvarlig for måten plattformene utsatte barn for fare og eksponerte dem for seksuelt eksplisitt materiale og overgripere.
Kaller dommen historisk
New Mexicos statsadvokat Raul Torrez kaller dommen «historisk» og den første gangen en delstat har vunnet en rettssak mot Meta om barnesikkerhet.
Under den syv uker lange rettssaken ble juryen presentert for interne Meta-dokumenter og hørte vitnesbyrd fra tidligere ansatte om hvordan selskapet var klar over at overgripere brukte plattformene.
Arturo Béjar, en tidligere ingeniørleder i Meta som sluttet i 2021 og ble varsler, vitnet om eksperimenter han kjørte på Instagram som viste at mindreårige brukere fikk servert seksualisert innhold. Han fortalte at hans egen unge datter ble tilnærmet for sex av en fremmed på Instagram.
Interne Meta-undersøkelser viste at 16 prosent av alle Instagram-brukere hadde rapportert å ha blitt vist uønsket nakenhet eller seksuell aktivitet i løpet av én uke.
En talskvinne for Meta sa selskapet er uenig i dommen og planlegger å anke.
– Vi jobber hardt for å holde folk trygge på plattformene våre, sa hun.
Det norske oppstartsselskapet Aiba jobber med nettsikkerhet for barn.
– Denne dommen illustrerer et stort og voksende globalt problem som ikke er begrenset til Meta. Det skjer på alle digitale plattformer, og det er kritisk at noe nå gjøres, sier gründer Hege Tokerud.
– Det som er spesielt alvorlig i denne saken er at Meta fikk gjentatte advarsler fra egne ansatte og valgte å ikke handle. Samtidig viste det seg at AI-verktøyene de brukte genererte tusenvis av varsler som politiet ikke kunne bruke til noe. Det hjelper lite å ha et system hvis det ikke er kalibrert til å gi signaler som faktisk kan følges opp, sier Tokerud.
I EU har Digital Services Act trådt i kraft og krever at plattformer dokumenterer hvilke sikkerhetstiltak de har på plass.
– Her spiller AI-baserte løsninger en viktig rolle. Vi hjelper plattformer med å bygge proaktiv og presis innholdsmoderering, legger til rette for reell menneskelig vurdering i prosessen, og skaper transparens gjennom verktøy som dokumenterer hva som faktisk skjer.
Hun forteller hvordan AI kan brukes på riktig måte
– Til å avdekke problemer tidlig, håndtere dem før skade oppstår, og dokumentere at arbeidet faktisk blir gjort. Målet vårt i Aiba er digital trygghet for alle, særlig for sårbare grupper som barn, unge og eldre. Det handler ikke bare om å forhindre nettovergrep, men også om å bekjempe mobbing, selvskading, radikalisering og svindel, sier Tokerud.