Undercover-onderzoek

TikTok past eigen regels rond zelfmoord en nepnieuws nauwelijks toe

27 juni 2022 11:19 Aangepast: 27 juni 2022 16:35
Een kantoor van TikTok (archieffoto) Beeld © AFP

Video's over suïcide, zelfbeschadiging en desinformatie gaan, ondanks ogenschijnlijk strenge regels, makkelijk rond op TikTok. De app voor korte filmpjes past zijn eigen richtlijnen niet erg strikt toe. Dat zag RTL Nieuws-journalist Timo Nijssen, die een maand undercover ging bij TikTok.

Het razend populaire TikTok heeft veel regels opgesteld over wat wel en niet mag op het platform. Wereldwijd zijn er ruim tienduizend moderatoren in dienst die filmpjes bekijken en toetsen of de regels daarin worden nageleefd. Maar in de regels zit vaak een grijs gebied. Moderatoren werken onder hoge tijdsdruk, waardoor ze per video gemiddeld 14,4 seconden hebben om hem te beoordelen.

De interne regels van TikTok stroken niet altijd met wat de app publiekelijk beweert, ontdekte RTL Nieuws. Zo is het volgens de openbare communityrichtlijnen verboden om filmpjes te plaatsen met teksten als 'Ik wil zelfmoord plegen' of 'Ik ga mezelf snijden'. Maar volgens het interne handboek voor moderatoren mag een video pas verwijderd worden als er een 'intentie' is van de gebruiker om zichzelf iets aan te doen.

Intentie moeilijk vast te stellen

Die intentie is in de jolig-sarcastische toon van veel TikTok-gebruikers niet makkelijk vast te stellen. Moderatoren moeten in een paar seconden een beslissing nemen en krijgen geen verdere context te zien, zoals de andere video's die de gebruiker heeft geüpload.

Het is ook niet de bedoeling dat moderatoren voor de zekerheid alles wat in de buurt komt van zelfbeschadiging onder die noemer scharen. Dat zou voor te veel werk zorgen bij andere teams die er vervolgens ook naar moeten kijken, zo wordt ze bij interne trainingen geïnstrueerd.

De terughoudendheid bij het modereren zorgt ervoor dat er op TikTok veel video's staan die tegen de communityrichtlijnen ingaan. Zo zijn er volop video's te vinden waarin gebruikers playbacken op suïcidale songteksten. "We willen video's niet overkillen", is het wrange motto dat moderatoren keer op keer te horen krijgen.

Miniatuurvoorbeeld
Lees de longread:

14,4 seconden om een TikTok te controleren op nepnieuws en zelfmoord

Miljard gebruikers

Het van oorsprong Chinese TikTok is sinds de lancering in 2017 enorm gegroeid. Vorig jaar waren er wereldwijd een miljard gebruikers, volgens onderzoeksbureau Newcom zijn dat er in Nederland inmiddels 3 miljoen. Hoewel gebruikers minstens 13 jaar oud moeten zijn om op TikTok te mogen, zijn er ook veel kinderen vanaf 9 jaar oud te vinden.

Desinformatie

Ook rond nepnieuws en desinformatie zijn de interne regels van TikTok erg beperkt, zag RTL Nieuws. TikTok zegt in de openbare richtlijnen dat content wordt verwijderd die "onjuist of vals" is en voor "aanzienlijke schade" zorgt. Maar in het interne handboek is er maar een beperkte lijst met zestien voorbeelden van desinformatie gedefinieerd. Dat zijn hele bekende nepverhalen, bijvoorbeeld over 5G-masten die chips in coronavaccins aansturen.

Moderatoren kunnen door de hoge werkdruk andere, minder bekende beweringen in filmpjes niet zelf checken. Tijdens de training wordt zelfs gezegd dat ze niet zelf moeten gaan googelen of iets klopt of niet. In de praktijk betekent het dat onzinverhalen die niet op de voorbeeldlijst staan, vrijuit rondgaan op het platform. Zoals video's waarin wordt beweerd dat zonnebrandcrème kanker veroorzaakt.

Undercover bij TikTok

Een journalist van RTL Nieuws werkte een maand lang als moderator bij het Amsterdamse team van TikTok. Hij werd via LinkedIn door TikTok benaderd voor een vacature. Omdat alleen op die manier een kijkje achter de schermen genomen kon worden bij het invloedrijke techbedrijf, besloot hij te solliciteren. In één maand volgde hij een reeks trainingen voor nieuwe medewerkers waarin het moderatiehandboek wordt uitgelegd en bracht hij die kennis nog twee dagen in de praktijk. In deze video vertelt Timo over zijn ervaringen.

Verwijzen naar hulplijnen

Publiekelijk zegt TikTok hulp te bieden aan mensen die zelfmoordgedachten hebben, door ze door te verwijzen naar 113. Die hulp blijkt in werkelijkheid niet zo uitgebreid. TikTok maakt intern namelijk een onderscheid tussen noodgevallen en niet-noodgevallen. Iemand die een video plaatst en zegt zichzelf net gesneden te hebben, is een noodgeval. Maar als diezelfde beelden als fotoslideshow worden geplaatst, geldt het niet als noodgeval. TikTok vindt dat er dan geen sprake is van een levensbedreigende situatie.

Alleen bij noodgevallen kan TikToks interne emergency response team (ERT) meekijken. Dat zijn de personen die hulpdiensten kunnen inschakelen, moderatoren kunnen dat niet. Zij krijgen niet te horen wat er vervolgens met hun melding gebeurt en of het ERT er überhaupt naar kijkt. Bij de niet-noodgevallen wordt de video alleen verwijderd en wordt de maker ervan niet doorverwezen naar hulplijnen, zo horen moderatoren tijdens de training.

Bij 113 is er over dat soort doorverwijzingen niets bekend. "Ik heb nog nooit gehoord dat er mensen benaderd worden en naar ons verwezen", zegt Scarlet Hemkes van de zelfmoordpreventielijn.

Na publicatie laat TikTok aan RTL Nieuws weten dat gebruikers in geval van nood alleen bij de politie gemeld worden. 113 op de hoogte stellen zou TikTok niet mogen doen wegens de privacy van de gebruiker.

Nepnieuws aan de koffietafel

TikToks definitie van nepnieuws is erg oppervlakkig, zag RTL Nieuws tijdens het undercoverwerk. Moderatoren leren dat je alleen een video markeert als nepnieuws, als die video met misinformatie bijvoorbeeld vanuit een nieuwsstudio is gemaakt, of als er 'breaking news' in beeld staat. Een vlogger die vanuit zijn achtertuin onzin verkoopt, mag daardoor gewoon zijn gang gaan. Als moderator markeer je in de praktijk vrijwel nooit een filmpje als nepnieuws, wordt tijdens de training erkend.

Socialmedia-expert Marieke Kuypers vindt dat TikTok slecht omgaat met desinformatie. "De richtlijnen worden niet goed toegepast." Zij wijst erop dat TikTok niet samenwerkt met onafhankelijke factcheckers, zoals bijvoorbeeld Facebook dat wel doet. Via haar eigen account maakt Kuypers daarom zelf factchecks bij verhalen die rondgaan op TikTok. "Maar tegen de enorme hoeveelheid aan desinformatie die er nu is, valt niet op te werken."

Miniatuurvoorbeeld
Lees ook:

'Chinese moederbedrijf TikTok had toegang tot data VS'

Nieuwe regels ondertekend

TikTok heeft deze maand een nieuwe Europese gedragscode ondertekend die de verspreiding van desinformatie moet tegengaan. Daarin worden toezeggingen gedaan om meer samen te werken met onafhankelijke factcheckers en valse informatie minder bereik te geven. Het niet naleven van de regels kan leiden tot hoge boetes. De regels zijn ook door andere grote techbedrijven zoals Google en Meta ondertekend.

Alle sociale media krijgen te maken met dit soort video's en zoeken naar manieren waarop ze die het beste kunnen modereren. Door de manier waarop de app van TikTok in elkaar zit, is het voor dit medium extra belangrijk om dit goed te doen. 70 procent van de TikToks wordt bekeken via de 'Voor Jou'-pagina. Daar schotelt een algoritme gebruikers filmpjes voor die nauw aansluiten bij hun interesses.

Het maakt daarvoor amper uit of je de uploader wel of niet volgt en hoeveel volgers hij heeft, zoals dat bij Instagram of Facebook wel uitmaakt. Gebruikers kunnen dat algoritme zelf nauwelijks bijsturen. Hierdoor weet TikTok je aandacht vast te houden, maar het kan er ook voor zorgen dat je in een tunnel belandt met bijvoorbeeld een eindeloze stroom aan zelfbeschadigingsvideo's.

Reactie TikTok

TikTok laat in een reactie weten dat ze met duizenden mensen er aan werken om het netwerk veilig en leuk te houden. Het bedrijf blijft er bij dat content die zelfmoord verheerlijkt of promoot verwijderd wordt en dat de moderatoren hiervoor getraind worden. Verder geeft het bedrijf aan dat het fact-checkers, 'veiligheids-professionals' en moderatoren inzet om het netwerk vrij van desinformatie te houden.

Tegelijk zegt TikTok continu te streven naar verbetering van de content moderatie. Dat betekent ook dat ze kijken naar beslissingen van moderatoren, om te 'begrijpen waar sommige content niet in een eerdere fase is tegengehouden'. Lees de volledige reactie hier.

Heb jij vragen over zelfmoord?

Stichting 113 Zelfmoordpreventie: bel 113 of 0800-0113 (gratis), of anoniem via de chat op de website 113.nl.

24 uur per dag bereikbaar, 7 dagen per week

Dit artikel is om 14:12 uur aangevuld met een extra reactie van TikTok over verwijzingen naar 113.

Altijd weten wat er speelt?
Download de gratis RTL Nieuws-app en blijf op de hoogte.

Playstore Appstore