© Netflix

Les modérateurs de Facebook forcés d’être plus vigilants à cause de 13 Reasons Why

Le succès retentissant de la série de Netflix a engendré un renforcement des mesures de sécurité chez le réseau social bleu.

© Netflix

© Netflix

Ce n’est pas nouveau, depuis sa sortie en mars dernier, 13 Reasons Why collectionne les plaintes provenant aussi bien des associations spécialisées que du milieu scolaire. La raison ? C’est bien simple, le hit inespéré de Netflix est accusé de rendre "glamour" le suicide auprès d’une cible particulièrement jeune et perçue comme vulnérable et influençable. Tandis que certaines écoles ont demandé aux parents d’être plus vigilants que jamais, les modérateurs de Facebook ont eux aussi reçu de nouvelles directives depuis la mise en ligne du show.

Publicité

Le média britannique The Guardian a visiblement réussi à mettre la main sur des documents officiels distribués aux modérateurs du réseau social de Mark Zuckerberg. Si confrontés à des vidéos live d’automutilation, ces derniers n’ont pas le droit de supprimer le média en question. Cette décision est influencée par des rapports de professionnels de la santé, stipulant que censurer une telle vidéo pourrait pousser la personne suicidaire à se braquer et potentiellement passer à l’acte. Ce genre de contenus sera ensuite supprimé, si et seulement si "il n’y a plus d’opportunité de venir en aide à la personne".

Plus récemment, les veilleurs de Facebook ont dû faire preuve de davantage de vigilance à cause de l’arrivée de 13 Reasons Why. En effet, le réseau social craint que les posts relatifs à la série ne poussent certains jeunes à se faire du mal. En 2017, sur une période de deux semaines, les modérateurs ont recensé plus de 5 000 cas d’automutilation rendus publics sur le réseau. Un nombre record alarmant qui a clairement mis les équipes de Mark Zuckerberg en alerte.

Il faut tout de même préciser que l’intervention des modérateurs n’a lieu qu’à une seule condition : il est nécessaire pour les utilisateurs de signaler une vidéo s’ils la considèrent borderline. Pour ce qui est des vidéos représentant explicitement un suicide, celles-ci seront supprimées une fois remarquées. En revanche, si un utilisateur témoigne sa volonté de mettre fin à ses jours via un post utilisant à outrance des hashtags et des emojis, son contenu ne sera pas pris au sérieux. Somme toute, la tragique histoire d’Hannah Baker dans 13 Reasons Why aura eu le mérite d’éveiller les esprits.

Publicité

Par Florian Ques, publié le 23/05/2017

Copié

Pour vous :