Facebook forsøker å forklare hvorfor nettverkets kunstige intelligenssystem ikke automatisk fanget opp videoen av massakren på New Zealand.

Mediegiganten har fått kritikk for ikke å ha handlet raskt nok for å fjerne videoen av angrepet, som gjerningsmannen strømmet direkte på Facebook. Over 50 mennesker ble drept i terrorangrepet mot to moskeer i Christchurch for en uke siden.

Videoen ble raskt spredt på internett.

- Akkurat denne videoen ble ikke oppdaget av våre automatiske detektorsystemer, sier Guy Rosen, Facebooks visepresident for produktstyring, i en bloggpost.

Systemene er trent gjennom store volumer med lignende innhold, men i dette tilfellet var ikke det nok, ettersom slike angrep er sjelden.

En annen utfordring er å få kunstig intelligens til å skille mellom slikt materiale og «visuelt lignende, uskyldig innhold», slik som videospill som strømmes i sanntid, ifølge Rosen.

Facebook har tidligere opplyst at den 17 minutter lange videoen ble sett av færre enn 200 brukere da den ble strømmet direkte, og at ingen brukere rapportere videoen mens massakren pågikk. Videoen ble totalt sett rundt 4.000 ganger før den ble fjernet fra Facebook.

I løpet av det første døgnet stanset Facebook over 1,2 millioner forsøk på opplasting av videoen av angrepet. Rundt 300.000 versjoner av videoen ble fjernet etter at den var lastet opp på det sosiale nettverket.

Facebook har vært i hardt vær i kjølvannet av terrorangrepet i Christchurch, og på New Zealand har flere selskaper fjernet sine annonser på det sosiale nettverket.

(©NTB)