Het ministerie van Binnenlandse Veiligheid onderzoekt de verspreiding van materiaal over seksueel misbruik van kinderen op TikTok, vertelden bronnen aan The Financial Times.
Het platform wordt apart onderzocht omdat het zou hebben toegestaan dat CSAM-video's naar de publieke feed worden geüpload, terwijl slechte actoren op TikTok ook een privacyfunctie gebruiken om CSAM met anderen te delen.
Het onderzoek van DHS komt er nadat een onderzoeker van kinderprivacy aan TikTok had gemeld dat er CSAM op het platform werd geplaatst. De Financial Times ontdekte dat TikTok-moderatoren moeite hadden om het aantal video's bij te houden dat publiekelijk werd geüpload. Onderzoekers ontdekten ook dat misbruikers het platform hebben gebruikt voor grooming, waarbij ze online bevriend raken met een kind om het later te misbruiken. Een bron vertelde de FT dat het Amerikaanse ministerie van Justitie ook onderzoekt hoe kinderlokkers misbruik maken van een TikTok-functie genaamd "Only Me".
Het ministerie van Justitie startte zijn onderzoek nadat kinderveiligheidsgroepen en rechtshandhaving ontdekten dat CSAM-inhoud via privéaccounts werd doorgegeven. Gebruikers namen trefwoorden op in hun openbare video's, gebruikersnamen en biografieën, en illegale inhoud werd geüpload via de privéfeed "Alleen ik", die alleen video's laat zien voor degenen die zijn ingelogd. Predators deelden hun wachtwoorden met slachtoffers en andere predators om toegang te krijgen tot de "Only Me"-video's.
TikTok heeft niet onmiddellijk gereageerd op het verzoek van Protocol om commentaar. Maar het platform zei in een verklaring dat het heeft samengewerkt met de rechtshandhaving over de kwestie en accounts en inhoud heeft verwijderd die CSAM bevat.
"TikTok heeft zero-tolerance voor materiaal over seksueel misbruik van kinderen", aldus het bedrijf. "Wanneer we een poging vinden om CSAM te posten, te verkrijgen of te verspreiden, verwijderen we inhoud, verbieden we accounts en apparaten, melden we dit onmiddellijk aan [The National Center for Missing & Exploited Children] en werken we waar nodig samen met de rechtshandhaving."
Platforms en wetgevers hebben hun eigen stappen ondernomen om CSAM aan te pakken. Apple heeft geprobeerd nieuwe kinderbeschermingsfuncties uit te rollen, maar het bedrijf heeft die plannen later uitgesteld nadat privacyvoorvechters hadden aangevoerd dat ze meer kwaad dan goed zouden doen. Een paar maanden geleden hebben wetgevers opnieuw de Earn It Act ingediend, die de immuniteit van techbedrijven voor CSAM op grond van Sectie 230 op staats- en federaal niveau zou opheffen. Tegelijkertijd bleek uit een recent rapport dat ondanks het plan van techbedrijven om CSAM te bestrijden, het probleem steeds groter en moeilijker aan te pakken is.
TikTok vertelde Protocol dat het niet op de hoogte is van overheidsonderzoeken waarover de FT berichtte, maar het platform heeft een nultolerantiebeleid inzake CSAM. "Na het lezen van dit verhaal hebben we contact opgenomen met HSI om een dialoog te beginnen en mogelijkheden te bespreken om samen te werken aan onze gedeelde missie om online seksuele uitbuiting van kinderen te beëindigen - net zoals we regelmatig samenwerken met wetshandhavingsinstanties in het hele land over dit cruciale onderwerp," zei een woordvoerder.
Protocol heeft contact opgenomen met DHS voor meer details over het onderzoek.