Facebook publie des directives internes détaillées sur la façon dont il applique les démontages de contenu

Facebook a longtemps tenté d'expliquer ce qui est autorisé et ce qui n'est pas autorisé sur sa plate-forme par des normes communautaires accessibles au public, mais l'entreprise a publié aujourd'hui ses directives internes sur la façon dont elle applique ses propres règles.

Le problème sous-jacent auquel Facebook fait face depuis sa création est que les frontières entre «liberté d'expression», «obscénité», «contenu répréhensible», «harcèlement» et un million d'autres termes connexes sont floues, et les problèmes habituels de subjectivité sont souvent extrêmement dissidents.

Par exemple, Facebook a longtemps critiqué la façon dont il traite les photos des mères allaitantes, tandis que des photos emblématiques telles que la "fille Napalm" ont été censurées pour avoir enfreint les grandes lignes de la nudité de l'entreprise.

Ailleurs, Facebook a également été impliqué dans des débats sur des questions telles que ce qui constitue un «discours de haine» et d'autres contenus inflammatoires similaires. Facebook se retrouve souvent dans la position peu enviable d'avoir à jouer un rôle de juge et de jury sur des questions qui ne sont pas toujours tranchées, et à une échelle que les humains ne peuvent pas gérer en temps opportun.

Déchuements

Les nouvelles lignes directrices d'application publique disponibles couvrent: la violence et le comportement criminel; sécurité; contenu répréhensible; intégrité et authenticité; respecter la propriété intellectuelle; et les demandes liées au contenu. La plupart des sections sont assez explicites et pas totalement surprenantes – par exemple, si vous partagez du matériel protégé par des droits d'auteur, comme une vidéo que vous ne possédez pas, ne soyez pas surpris si elle disparaît comme par magie. Et Facebook ne se soucie pas trop du contenu lié au terrorisme, à la traite des êtres humains ou à la violence organisée. Mais malgré son aversion pour la propagation de fausses nouvelles, l'entreprise ne supprimera pas la désinformation parce qu'elle pourrait être interprétée comme un «discours public productif étouffant», alors qu'il y a aussi une «ligne mince entre les fausses nouvelles et la satire ou l'opinion». états de document.

LIS  Yahoo Mail obtient la révision du Web mobile et lance pour Android Go

Les lignes directrices sont assez détaillées: par exemple, la compagnie a déclaré qu'elle se conformera aux demandes des tuteurs légaux pour la suppression du contenu des «attaques contre des mineurs non intentionnellement célèbres». Donc, si vous êtes un acteur enfant bien connu, alors vous n'êtes pas si bien protégé sur Facebook.

En fin de compte, Facebook veut être vu comme étant plus transparent sur ses suppressions de contenu souvent incohérentes, mais selon toute vraisemblance, cela fera très peu pour épargner l'entreprise de ses critiques. Il y a, bien sûr, des cas clairs que la plupart des gens seraient d'accord pour ne pas avoir de place sur un réseau social, mais avec d'autres sujets, il y a souvent trop de nuances pour que Facebook puisse satisfaire tout le monde. Le combattant de la liberté d'un homme est le terroriste d'un autre, c'est ce que dit le proverbe.

"Nous avons décidé de publier ces lignes directrices internes pour deux raisons", a noté Monika Bickert, vice-présidente de la gestion globale des produits chez Facebook, dans un article de blog. "Tout d'abord, les lignes directrices aideront les gens à comprendre où nous tracer la ligne sur les questions nuancées. Deuxièmement, en fournissant ces détails, il est plus facile pour tout le monde, y compris des experts dans différents domaines, de nous donner des commentaires afin que nous puissions améliorer les lignes directrices – et les décisions que nous prenons – au fil du temps. »

Appels

En lien avec tout cela, Facebook lance également un nouveau processus d'appel pour le contenu qui a été supprimé. Par le passé, l'entreprise a fait face à des réactions contraires sur la difficulté d'entrer en contact avec Facebook pour leur expliquer qu'un retrait était peut-être un peu dur. Vous ne pouvez pas discuter avec un algorithme, et un algorithme n'a pas la compréhension nuancée pour faire la différence entre le porno et une œuvre d'art.

LIS  Comment regarder le livestream de Build 2018 de Microsoft

La première fonctionnalité de ce type à se poser sera une option pour demander une révision manuelle pour un poste qui a été marqué pour la nudité, le discours de haine ou la violence.

Ci-dessus: Photo innocente

Facebook promet qu'une personne examinera le post dans les 24 heures pour évaluer si ses algorithmes ont raté la cible.

"Nous travaillons pour étendre ce processus, en soutenant plus de types de violations, en donnant aux gens l'opportunité de fournir plus de contexte qui pourrait nous aider à prendre la bonne décision, et en rendant les appels disponibles non seulement pour le contenu supprimé, mais également pour le contenu qui a été signalé et laissé de côté ", a ajouté Bickert. "Nous croyons que donner aux gens une voix dans le processus est un autre élément essentiel de la construction d'un système équitable."

Pour soutenir ses nouvelles normes communautaires détaillées, Facebook lancera également une série d'événements à travers le monde, notamment aux États-Unis, au Royaume-Uni, en Allemagne, en France, en Inde et à Singapour, où il sollicitera les commentaires des utilisateurs sur le terrain.


Lien source

Comments

comments

Laisser un commentaire