Meta

'Flinke toename verwijderde content Facebook door foutje'

17 mei 2022 20:16 Aangepast: 17 mei 2022 20:25
Beeld © Getty

Meta, het moederbedrijf van Facebook en Instagram, heeft in het eerste kwartaal van dit jaar meer dan 400.000 berichten per abuis offline gehaald voor terrorisme, deels vanwege een bug.

Het gaat om berichten die volgens het moderatiesysteem van de twee sociale media de regels omtrent terroristische content en georganiseerde haatcampagnes had verbroken. In totaal verwijderde Meta op Facebook zo'n 18,6 miljoen berichten die volgens het systeem of volgens gebruikers iets met terreur of haat tegen bevolkingsgroepen te maken had. Dat schrijft Meta in zijn nieuwste moderatierapport.

Dat is aanzienlijk meer dan vorig kwartaal, toen Meta 9,3 miljoen verdachte Facebook-berichten om deze redenen verwijderde. Bij Instagram gaat het om kleinere aantallen - dit kwartaal zo'n 2 miljoen - maar ook daar was er een flinke stijging te zien.

Op Facebook werden uiteindelijk 400.000 berichten weer teruggeplaatst, op Instagram iets meer dan 80.000. In de meeste gevallen herstelde Meta de berichten zonder dat de gebruiker bezwaar aan tekende. Meta wijt dat deels aan de problemen die de techgigant ondervindt om bezwaarmogelijkheden aan te bieden sinds het begin van de coronapandemie.

Miniatuurvoorbeeld
Oekraïneoorlog

Rusland verbiedt 'extremistisch' Instagram en Facebook

Veranderingen moderatie

Ook elders zag Meta een stijging in de hoeveelheid berichten die werden verwijderd. Het aantal geplaatste berichten en andere content dat van Facebook verdween omdat het zou oproepen tot geweld, steeg van 12,4 miljoen vorig kwartaal naar 21,7 miljoen nu. Dat zou te maken hebben met de verdere ontwikkeling van de automatische moderatiesystemen van Facebook. De meeste berichten worden door dit systeem verwijderd, lang voordat gebruikers de kans hebben om een overtreding te rapporteren.

Momenteel werkt Meta aan nieuwe kunstmatige intelligentietechnologie om zijn moderatie te verbeteren, schrijft Cnet op basis van een persevenement waar Meta-vicepresident Guy Rosen uitleg gaf. Ook zou het bedrijf gebruikers betere waarschuwingen willen geven voordat ze een straf krijgen.  

Meta ligt al langer onder vuur om verschillende redenen, waaronder zijn moderatiepraktijken. Zo wordt het bedrijf er van beschuldigt om niet goed of gedegen te modereren op extremistische content in zijn apps, zoals Facebook, Instagram en WhatsApp. Deels daarom publiceert Meta nu elk kwartaal een rapport over het opsporen en verwijderen van extremistische of anderzijds niet toegestane berichten.

Bright blok

Volg Bright voor meer tech:​​

Kijk onze video's

Volg ons op Instagram, Twitter en Facebook

En luister de podcast

Altijd weten wat er speelt?
Download de gratis RTL Nieuws-app en blijf op de hoogte.

Playstore Appstore

Dit is een artikel van