Économie

Après avoir privilégié les algorithmes pour modérer le contenu, YouTube revient en arrière

Onze millions de vidéos supprimées entre avril et juin, soit le double de la normale – c’est ce qui s’est passé lorsque YouTube a décidé de donner plus d’espace aux algorithmes dans son système de modération, a déclaré la société. à Financial Times, Dimanche 20 septembre. Il a décidé de rentrer.

En mars, alors que l’importance de la pandémie augmentait, le géant américain de l’hébergement vidéo (appartenant à Google) a annoncé qu’il enverrait certains de ses modérateurs humains chez eux et qu’il le ferait. renforcer l’utilisation de logiciels pour effectuer certaines de leurs activités. Normalement, ces programmes d’intelligence artificielle (IA) “Aidez à détecter le contenu potentiellement problématique et envoyez-le à des modérateurs humains pour examen”, puis a écrit YouTube.

Pour atténuer la désorganisation liée au confinement, la plateforme a décidé de leur donner plus de pouvoir pour supprimer plus de vidéos. “Sans vérification humaine”. Résultat: une énorme augmentation du nombre de vidéos supprimées, certaines par erreur. Au total, 160 000 vidéos ont été mises en ligne après le litige, soit la moitié des demandes de réexamen reçues par l’entreprise. Normalement, seulement 25% des vidéos dont la suppression est contestée sont remises en ligne.

Les humains «prennent des décisions plus nuancées»

YouTube n’est pas la seule entreprise à avoir accordé plus d’espace à ces programmes informatiques dans son système de modération: Twitter et Facebook ont ​​annoncé des mesures similaires en même temps.

La question du rôle de l’IA dans la modération des contenus fait depuis longtemps l’objet de débats. Alors que les grandes plates-formes subissent une pression énorme pour améliorer leur système de modération, elles misent sur l’intelligence artificielle pour rendre ces opérations plus rapides et plus efficaces. “A terme, le développement d’outils d’intelligence artificielle sera le meilleur moyen d’identifier et de se débarrasser de ce contenu dangereux à grande échelle.”, a par exemple assuré Mark Zuckerberg, le patron de Facebook, lors de ses auditions intenses devant le Congrès américain en 2018.

READ  Accor a étudié un mariage avec Intercontinental English

Un point de vue qui n’est pas partagé par tous, avec l’IA incapable de «comprendre» toutes les complexités de la parole humaine – et il n’y a aucune preuve qu’elle le fera jamais. En profitant de la pandémie pour expérimenter à plus grande échelle, YouTube pouvait voir que ces machines, en fait, n’étaient pas prêtes à assumer un rôle aussi important.

Neal Mohan, l’un des dirigeants de YouTube, a rappelé à Financial Times qui étaient cependant très efficaces pour détecter très rapidement les vidéos potentiellement problématiques:

“Plus de 50% de ces 11 millions de vidéos ont été supprimées sans générer de vues utilisateur, et 80% ont été supprimées avec moins de 10 vues. C’est la puissance des machines.”

Sauf que ces machines, lorsqu’elles localisent le contenu, ne prennent pas toujours la bonne décision quant à leur sort. C’est là que les modérateurs humains sont les meilleurs. “Ils prennent des décisions plus nuancées, en particulier lorsqu’il s’agit de discours de haine, de désinformation médicale ou de harcèlement”, assure Neal Mohan. YouTube a donc décidé de confier à ses modérateurs les tâches exceptionnellement exécutées pour eux par des machines ces derniers mois.

Un ancien modérateur dépose une plainte

Les modérateurs humains sont donc loin d’être considérés comme obsolètes par ces entreprises, qui ont fortement gonflé leurs équipes ces dernières années. Mais ce travail n’est pas facile: face à des images terribles, ils peuvent subir de lourdes conséquences psychologiques.

Le lundi 21 septembre, un ancien modérateur de YouTube a ensuite déposé une plainte contre l’entreprise après avoir développé un stress post-traumatique. on peut lire dans sa plainte. Elle accuse l’entreprise de ne pas faire ce qui est nécessaire pour la protéger. Ce procès pourrait se transformer en action collective si d’autres modérateurs se joignent. Facebook a été la cible d’une action collective, lancée en 2018, qui a finalement réuni 11 250 modérateurs. L’entreprise il s’est engagé en mai à leur verser entre 900 et 46000 euros de dédommagement.

READ  Produits Amazon accusés d'avoir provoqué des incendies
Article réservé à nos membres Lire aussi Meurtres, pornographie, racisme… Dans la peau d’un modérateur Facebook

Thierry Dufour

"Amoureux de la nourriture. Défenseur de l'alcool. Solutionneur de problèmes. Expert en café. Maven d'Internet pour les hipsters."

Articles similaires

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page
Fermer
Fermer