Illustrasjonsfoto: AP Photo

En mann fra Christchurch ble dømt til 21 måneders fengsel for å dele terrorvideoen fra angrepet der 51 mennesker ble drept i to moskeer.

Dommeren sa i retten at umulig kan ha vist noe empati med ofrene, skriver France24.

Men dette er ikke første gang terror deles på nett.

17. desember 2018 ble en norsk og en dansk kvinne drept i Marokko. Terroren ble filmet og lagt ut på nett. I den forbindelse gjennomgikk dansk politi 118 delinger, og tok ut siktelse på 14 stykker. I den saken samarbeidet de tett med Kripos for å stoppe spredningen på nett.

– Vi gjør de undersøkelser vi kan her i Norge. Vi er særlig opptatt av filmen. Vi jobber med dansk politi, og vi jobber for å få satt i gang ulike tiltak for å stanse spredning, og for å få vurdert filmen, sier kommunikasjonssjef Ida Dahl Nilssen i Kripos til Aftenposten.

Les også: Politiet får hjelp av Facebook til å stanse video

15. mars 2019 ble 51 mennesker drept og nesten like mange såret i et terrorangrep mot to moskeer i Christchurch på New Zealand.

Australieren Brenton Tarrant (28) filmet og strømmet drapene direkte på Facebook. Rettssaken mot terroristen er berammet til mai 2020.

Men før det skjer er det flere som skal for retten, fordi de har delt filmen på nett.

Fem andre er også tiltalt for å ha delt terrorvideoen. En 18-åring ble allerede i mars varetektsfengslet, mens de andre er bare siktet. 18-åringen delte terrorvideoen med et bilde av moskeen med teksten «target acquired». Rettsaken er berammet til slutten av juli.

Facebook har fått mye kritikk for ikke å ha handlet raskt nok for å fjerne videoen av angrepet, som gjerningsmannen strømmet direkte.

Les også: Press mot Facebook etter terrorangrepet i Christchurch

– Akkurat denne videoen ble ikke oppdaget av våre automatiske detektorsystemer, sier Guy Rosen, Facebooks visepresident for produktstyring, i en bloggpost.

Systemene er trent gjennom store volumer med lignende innhold, men i dette tilfellet var ikke det nok, ettersom slike angrep er sjeldne. En annen utfordring er å få kunstig intelligens til å skille mellom slikt materiale og «visuelt lignende, uskyldig innhold», slik som videospill som strømmes i sanntid, melder NTB.

Facebook har tidligere opplyst at den 17 minutter lange videoen ble sett av færre enn 200 brukere, da den ble strømmet direkte, og at ingen brukere rapportere videoen mens terroren pågikk.

Videoen ble totalt sett rundt 4.000 ganger, før den ble fjernet fra Facebook.

I løpet av det første døgnet stanset Facebook over 1,2 millioner forsøk på opplasting av videoen av angrepet. Rundt 300 000 versjoner av videoen ble fjernet, etter at de ble lastet opp til det sosiale nettverket, melder NTB.

Les også: Facebook strammer inn på direktesendinger

Facebook, Google og Twitter lover nå å gå i bresjen for en felles kamp mot spredning av terrorinnhold på nettet.

I erklæringen lover teknologiselskapene blant annet at de skal:

– Gjennomføre konkrete tiltak for å forhindre opplasting av terrorinnhold og voldelig ekstremistisk innhold, for å forhindre at slikt innhold spres i sosiale medier og gjennom delingstjenester, og for å sørge for at innhold som er lastet opp, fjernes «umiddelbart og permanent».

– Stenge kontoer når det er nødvendig.

– Tilby effektive ankemuligheter for dem som ønsker å utfordre beslutninger om å fjerne innhold.

– Umiddelbart å gjennomføre effektive tiltak for å redusere risikoen for at terrorinnhold spres gjennom direktesendinger.

– Oppdatere nettstedenes algoritmer for å forhindre at brukere styres mot terrorinnhold, eller at algoritmene fører til forsterket spredning av innholdet.

– I tillegg loves det felles innsats for utvikling av ny teknologi, som kan identifisere terrorinnhold automatisk.