Le Conseil de surveillance de Meta se penche sur le contenu négationniste de « Bob l’éponge » : une affaire captivante et stimulante


Le Conseil de surveillance de Meta, également connu sous le nom de « Cour suprême » de Facebook, se penche sur un post controversé utilisant le personnage bien-aimé de « Bob l’éponge ». Cette affaire pourrait créer un précédent en matière de modération de la négation de la Shoah sur les plateformes de Meta, dont Facebook et Instagram. Le Conseil, chargé de rendre des avis non contraignants sur les décisions de modération prises par la société, examine la réponse de Meta à des plaintes concernant un mème publié en septembre 2020.

Dans ce mème, le personnage de Squidward est représenté à côté d’une bulle contenant des arguments néo-nazis contestant la Shoah, sous le titre « Faits amusants sur la Shoah ». Cette publication, créée par un utilisateur anonyme comptant environ 9 000 abonnés, affirme notamment que la Shoah n’a pu avoir lieu car l’infrastructure nécessaire au génocide n’a été construite qu’après la Seconde Guerre mondiale.

De nombreux utilisateurs ont signalé ce post, à la fois avant et après l’interdiction de la négation de la Shoah imposée par Meta en octobre 2020. Cependant, la société avait initialement rejeté toutes les plaintes, affirmant que le message ne violait pas les règles de la communauté en matière de discours de haine.

Face à la pression croissante, Meta a récemment admis avoir commis une erreur en laissant le message en ligne pendant si longtemps. Il a finalement été supprimé après avoir été vu par environ un millier de personnes et avoir reçu moins de 1 000 likes.

La décision du Conseil de surveillance de se saisir de cette affaire souligne l’importance accordée aux critiques affirmant que les règles et pratiques en vigueur ne sont pas suffisamment efficaces pour lutter contre l’antisémitisme et la négation de la Shoah sur les plateformes de Meta. Cette enquête porte également sur les raisons pour lesquelles le post est resté visible aussi longtemps malgré les signalements des utilisateurs.

La modération des contenus en ligne, en particulier ceux liés à la haine et à la désinformation, est un sujet brûlant depuis plusieurs années. Les réseaux sociaux comme Facebook et Instagram ont été vivement critiqués pour avoir permis la propagation de l’antisémitisme, du racisme et de l’extrémisme. De nombreuses organisations juives plaident en faveur de contrôles plus stricts sur la parole en ligne pour lutter contre ces problèmes.

En 2018, le PDG de Meta, Mark Zuckerberg, avait exprimé son soutien à la liberté d’expression en défendant le droit des utilisateurs à publier des contenus négationnistes de la Shoah. Cependant, la société a finalement changé de position en 2020 en instaurant une interdiction de la négation de la Shoah. Cependant, cette interdiction a également posé de nouveaux problèmes, notamment en retirant parfois des contenus éducatifs sur la Shoah signalés par les algorithmes de la plateforme.

Le Conseil de surveillance souligne que l’automatisation du processus de modération de Meta a entraîné le rejet de certaines plaintes liées à la négation de la Shoah. Les utilisateurs ayant signalé la publication Squidward se sont vus répondre que celle-ci était conforme aux règles de la communauté ou qu’elle était liée à une règle spécifique à la pandémie.

Dans le cadre de son examen, le Conseil de surveillance se penchera sur plusieurs questions concernant la responsabilité de Meta envers le contenu présent sur ses plateformes. Cela inclut les dommages causés par la négation de la Shoah en ligne, la responsabilité de l’entreprise en matière de dignité, de sécurité et de liberté d’expression, ainsi que l’utilisation de l’automatisation pour examiner les contenus liés à la haine.

Cette affaire soulève des questions fondamentales sur la modération des contenus en ligne et la responsabilité des plateformes comme Meta. Les résultats de l’enquête du Conseil de surveillance pourraient influencer les politiques de modération de l’entreprise et lutter plus efficacement contre l’antisémitisme et la négation de la Shoah sur ses plateformes.

#ConseildeSurveillance #Meta #modération #négationdelashoah #Bobléponge #Facebook #Instagram #Shoah #réseauxsociaux #antisémitisme #extrémisme #MarkZuckerberg #libertédexpression #automatisation #responsabilité #dommages #discoursdehaine #contenusenligne

JTA – Le Conseil de surveillance de Meta examine un message utilisant un personnage de « Bob l’éponge », dans le cadre de ce qui pourrait créer un précédent en matière de modération de la négation de la Shoah sur Facebook et Instagram.

Chargé de rendre des avis non contraignants sur les décisions de modération prises par la société, le Conseil a annoncé jeudi examiner la réponse de Meta à des plaintes concernant un mème publié en septembre 2020.

Dans ce mème, le personnage Squidward apparaît à côté d’une bulle avec des arguments néo-nazis contestant la Shoah, sous le titre « Faits amusants sur la Shoah ».

L’utilisateur anonyme auteur de ce message, qui compte quelque 9 000 abonnés, s’est inspiré du mème « Fun Facts With Squidward » pour publier un message disant que la Shoah n’a pas pu avoir lieu parce que l’infrastructure pour mener à bien le génocide n’a été construite qu’après la Seconde Guerre mondiale, entre autres mensonges et distorsions.

Des utilisateurs se sont plaints de cette publication, avant et après la promulgation par l’entreprise, en octobre 2020, de l’interdiction de négation de la Shoah. Mais Meta avait rejeté toutes les plaintes, affirmant que le message n’enfreignait pas les règles de la communauté en matière de discours de haine.

En réaction à l’annonce du Conseil de surveillance, Meta a déclaré avoir commis une erreur et finalement supprimé le message, vu par environ un millier de personnes. Elles étaient moins de 1 000 à l’avoir « liké », assure la société.

Le Conseil de surveillance enquêtera sur les raisons pour lesquelles le poste est resté en ligne si longtemps. Sa décision de se saisir de l’affaire signifie que le Conseil accorde de l’importance aux critiques selon lesquelles les règles et pratiques en vigueur ne permettent pas de lutter efficacement contre les formes variées sous lesquelles apparaissent l’antisémitisme et la négation de la Shoah sur les plateformes de Meta.

Le PDG de Facebook, Mark Zuckerberg, se rend à un déjeuner après une session à la conférence Allen & Company Sun Valley le 8 juillet 2021 à Sun Valley, dans l’Idaho. (Crédit : Kevin Dietsch / Getty Images via AFP)

Pour commencer, le Conseil d’administration a sollicité les commentaires du public sur un certain nombre de questions liées à la responsabilité de l’entreprise à l’égard du contenu apparaissant sur ses plateformes. Ces questions vont donner lieu à des études sur les dommages résultant de la négation de la Shoah en ligne, la responsabilité de Meta en matière de dignité, sécurité et liberté d’expression et enfin l’utilisation de l’automatisation pour examiner le contenu des discours de haine.

Les réseaux sociaux sont critiqués et font l’objet de boycott, au motif qu’ils ont permis la propagation de l’antisémitisme, du racisme et de l’extrémisme des années durant. De nombreuses organisations représentatives juives plaident en faveur de contrôles plus stricts sur la parole en ligne.

En 2018, le PDG de Meta, Mark Zuckerberg, a largement donné le sentiment de défendre le droit des utilisateurs à publier des contenus négationnistes de la Shoah pour des raisons liées à la liberté d’expression, mais la société a changé de cap en 2020 et fait valoir une interdiction, ce qui n’a pas tardé à poser un nouveau problème. Les algorithmes de la plate-forme signalaient en effet parfois des propos éducatifs sur la Shoah, qu’ils supprimaient pour infraction aux règles de la communauté.

De tels signalements automatisés ont joué un rôle dans le maintien en ligne de la publication Squidward. Les utilisateurs s’en sont plaints six fois – quatre avant l’entrée en vigueur de l’interdiction de la négation de la Shoah et deux fois depuis.

Selon le Conseil de surveillance, le processus d’examen automatisé de Meta a conduit au rejet de certaines plaintes au motif que la publication était conforme à ses règles et d’autres en raison d’une règle liée à la pandémie, limitée aux cas « à haut risque ». Humains et algorithmes ont joué un rôle dans ces prises de décision, a conclu le Conseil.

Vous êtes un de nos fidèles lecteurs

C’est pour cette raison que nous avons créé le Times of Israel, il y a de cela onze ans (neuf ans pour la version française) : offrir à des lecteurs avertis comme vous une information unique sur Israël et le monde juif.

Nous avons aujourd’hui une faveur à vous demander. Contrairement à d’autres organes de presse, notre site Internet est accessible à tous. Mais le travail de journalisme que nous faisons a un prix, aussi nous demandons aux lecteurs attachés à notre travail de nous soutenir en rejoignant la communauté du ToI.

Avec le montant de votre choix, vous pouvez nous aider à fournir un journalisme de qualité tout en bénéficiant d’une lecture du Times of Israël sans publicités.

Merci à vous,
David Horovitz, rédacteur en chef et fondateur du Times of Israel


Rejoindre la communauté du Times of Israël


Rejoindre la communauté du Times of Israël

Déjà membre ? Connectez-vous pour ne plus voir ce message

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *