Alors que la désinformation et la haine prospèrent en ligne, YouTube a discrètement modifié sa façon de modérer le contenu

YouTube, la plus grande plateforme vidéo au monde, semble avoir modifié ses politiques de modération pour permettre à davantage de contenus qui enfreignent ses propres règles de rester en ligne.
Le changement s'est produit discrètement en décembre, selon le New York Times , qui a examiné les documents de formation des modérateurs indiquant qu'une vidéo pouvait rester en ligne si le contenu offensant ne représentait pas plus de 50 % de la durée de la vidéo, soit le double de ce qu'elle était avant les nouvelles directives.
YouTube, qui voit 20 millions de vidéos téléchargées par jour, affirme mettre à jour régulièrement ses directives et avoir une « pratique de longue date consistant à appliquer des exceptions » lorsque cela sert l'intérêt public ou lorsque quelque chose est présenté dans un contexte éducatif, documentaire, scientifique ou artistique.
« Ces exceptions s'appliquent à une petite fraction des vidéos sur YouTube, mais sont essentielles pour garantir que le contenu important reste disponible », a déclaré la porte-parole de YouTube, Nicole Bell, dans une déclaration à CBC News cette semaine.
Mais à une époque où les plateformes de médias sociaux sont inondées de désinformation et de théories du complot, certains craignent que YouTube n’ouvre la porte à davantage de personnes pour diffuser du contenu problématique ou nuisible – et pour en tirer profit.
YouTube n'est pas le seul. Meta, propriétaire de Facebook et d'Instagram, a réduit sa modération de contenu plus tôt cette année, et Elon Musk a licencié les modérateurs de Twitter lorsqu'il a racheté la plateforme en 2022 et l'a rebaptisée X.
« Nous assistons actuellement à une course vers le bas », a déclaré à CBC News Imran Ahmed, PDG du Center for Countering Digital Hate, basé aux États-Unis. « Nous allons assister à une croissance de l'économie axée sur la haine et la désinformation. »

L'objectif de YouTube est de « protéger la liberté d'expression », a déclaré Brooks dans sa déclaration, expliquant que l'assouplissement de ses règles communautaires « reflète les nouveaux types de contenu » sur la plateforme.
Par exemple, a-t-elle déclaré, il n’est peut-être plus nécessaire de supprimer un podcast long contenant un court extrait de violence.
Le Times a rapporté lundi que les exemples présentés au personnel de YouTube comprenaient une vidéo dans laquelle quelqu'un utilisait un terme désobligeant pour les personnes transgenres lors d'une discussion sur les audiences des personnes nommées au cabinet du président américain Donald Trump, et une autre qui partageait de fausses informations sur les vaccins COVID-19 mais qui ne disait pas directement aux gens de ne pas se faire vacciner.
Une plateforme comme YouTube doit prendre des « décisions vraiment très difficiles » lorsqu'elle modère du contenu, déclare Matt Hatfield, directeur exécutif du groupe canadien de défense des droits numériques OpenMedia.
Il estime que les plateformes prennent le problème au sérieux, mais il affirme qu'il y a un équilibre entre la suppression de contenus préjudiciables ou illégaux, tels que les contenus pédopornographiques ou les incitations claires à la violence, et le fait de permettre au contenu de rester en ligne, même s'il est offensant pour beaucoup ou contient de fausses informations.
Le problème, dit-il, est que les plateformes de médias sociaux « créent également des environnements qui encouragent certains mauvais comportements » parmi les créateurs, qui aiment se situer à la limite de ce qui est acceptable.
« Le modèle de base de ces plateformes est de vous inciter à cliquer, à regarder, à essayer une vidéo de quelqu'un que vous n'avez jamais rencontré auparavant, puis à rester avec cette personne. »
Et c’est ce qui préoccupe Ahmed.
Il affirme que ces entreprises privilégient les profits à la sécurité en ligne et qu'elles ne subissent pas de conséquences car aucune réglementation ne les oblige à limiter ce qui peut être publié sur leurs plateformes.
Il estime que les politiques assouplies de YouTube ne feront qu'encourager davantage de personnes à les exploiter.
À quel point YouTube modère bienDans un récent rapport de transparence , YouTube a déclaré avoir supprimé près de 2,9 millions de chaînes contenant plus de 47 millions de vidéos pour violation des règles communautaires au cours du premier trimestre, après le changement de politique signalé.
La grande majorité d'entre eux, soit 81,8 %, étaient considérés comme du spam, mais d'autres raisons incluaient la violence, le contenu haineux ou abusif et la sécurité des enfants.
Hatfield affirme qu'il est dans l'intérêt public de supprimer ce type de contenu préjudiciable, mais cela ne signifie pas que tout contenu controversé ou offensant doit disparaître.
Cependant, il affirme que YouTube commet des erreurs dans la modération du contenu, expliquant qu'il juge les vidéos individuelles dans une sorte de « vide » sans tenir compte de la manière dont chaque élément de contenu s'intègre dans un contexte plus large.
« Certains contenus ne peuvent pas vraiment être interprétés de manière équitable de cette façon. »
La réglementation n’est pas une solution parfaiteAhmed affirme que les entreprises devraient être tenues responsables du contenu de leurs plateformes par le biais de la réglementation gouvernementale.
Il a cité en exemple la Loi canadienne sur les méfaits en ligne , controversée mais désormais abandonnée, aussi connue sous le nom de projet de loi C-63. Ce projet de loi proposait des peines plus lourdes, de nouveaux organismes de réglementation et des modifications à plusieurs lois pour lutter contre les abus en ligne. Le projet de loi est mort au Feuilleton lorsque l'ancien premier ministre Justin Trudeau a annoncé sa démission et prorogé le Parlement en janvier. Ahmed espère que le nouveau gouvernement du premier ministre Mark Carney adoptera une loi similaire.
Hatfield dit qu'il aimait certaines parties de cette loi, mais son groupe s'y est finalement opposé après qu'elle ait ajouté d'autres modifications au Code criminel et à la Loi sur les droits de la personne qui, selon lui, n'étaient pas liées aux plateformes.
Il affirme que des groupes comme OpenMedia auraient aimé voir une stratégie s'attaquant aux modèles commerciaux qui encouragent les utilisateurs à publier et à tirer profit de contenus « légaux mais horribles ».
« Nous n'aurons pas un Internet sans haine », a-t-il déclaré. « Nous pouvons avoir un Internet qui rende moins rentable la diffusion de certains types de haine et de désinformation. »

cbc.ca