Après de nombreuses polémiques et plusieurs drames causés par des challenges dangereux, TikTok essaie de renforcer la protection des mineurs sur sa plateforme. En effet, le réseau social vient d'annoncer le lancement de "Content Levels", un système qui empêche les plus jeunes d'accéder à des contenus pour adultes.
"Nous travaillons à créer un nouveau système de classification de contenu en fonction du niveau de maturité des thèmes", a expliqué le réseau social dans un communiqué. "Dans les prochaines semaines, nous commencerons à déployer une première version pour éviter que des contenus sur des thèmes jugés pour adultes ne soient pas visionnés par des utilisateurs de moins de 18 ans", a ajouté TikTok. "Quand nous identifions une vidéo traitant de thèmes complexes ou destinés à un public plus mature, telle qu'une scène fictive trop effrayante ou intense pour de jeunes audiences, un score de maturité lui sera attribué pour éviter que les utilisateurs de moins de 18 ans ne la visionnent", a précisé l'entreprise.
Ces tests sont un moyen pour TikTok de montrer qu’il cherche à protéger les mineurs contre des contenus destinés aux adultes. Malgré ses efforts, la plateforme fait toujours l’objet de critiques, voire de plaintes par rapport aux vidéos qu’elle recommande aux jeunes, notamment les défis viraux et dangereux.
