Les recommandations problématiques des algorithmes de YouTube

Une récente étude a scruté durant un an les vidéos habituellement suggérées par YouTube à ses utilisateurs à travers le monde. Le résultat témoigne d’une plateforme au goût prononcé pour les contenus à caractère sensible ou promouvant les fake news.

Il n’est pas rare pour les internautes de voir apparaître sur leur smartphone un lien vidéo YouTube alors qu’ils n’avaient rien demandé. De même que l’internaute peut se voir proposer des milliers de vidéos suite à une requête spécifique dans la barre de recherche de la plateforme. Ce système de recommandation prisé de la plupart des géants du web est censé se baser sur les habitudes de consommation des internautes pour répondre à leurs besoins. Mais ce n’est manifestement pas toujours le cas chez YouTube, ainsi que le démontre une étude de Mozilla, maison-mère du navigateur Firefox. Cette dernière a mis en place en 2020 RegretsReporters, une initiative destinée à recenser chaque vidéo aux contenus regrettables diffusée sur YouTube entre le mois juin de l’année écoulée et mai 2021 à l’attention de ses utilisateurs. Et la moisson est on ne peut plus accablante pour la plus grande plateforme d’hébergement de vidéos au monde.

Vidéos incohérentes et nuisibles

Il en ressort que non seulement les vidéos promues par YouTube n’ont aucun rapport spécifique avec les habitudes de consommation des utilisateurs, mais leurs contenus s’avèrent également dérangeants. C’est notamment le cas dans 43.3% des signalements reçus à travers RegretsReporters. Ainsi, selon l’étude, plus d’une fois, un internaute à la recherche d’un match de football par exemple est tombé sur des vidéos gores ou à caractère homophobe.

Les données recueillies auprès de 37.380 personnes disséminées dans près de 200 pays concernent à 60% des internautes résidants dans des nations où l’anglas n’est pas la langue officielle. Il s’agit entre autres du Brésil, de l’Allemagne et de la France.

Course à la viralité

Pour une plateforme qui revendique des centaines de millions d’heures de visionnage par heure dont l’écrasante majorité est fondée sur ses recommandations, l’étude de Mozilla permet de comprendre une chose : les algorithmes de YouTube promeuvent des contenus sensibles en raison de leur potentiel de viralité plus élevé. Bien évidemment, les responsables de YouTube nient cela, préférant mettre en lumière « leurs efforts constants destinés à réduire les vidéos nuisibles » et ainsi faciliter l’expérience de visionnage aux utilisateurs. Ce qui, à les en croire, a fait baisser le taux de visionnage de ces types de vidéos de 70% entre 2020 et 2021.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.