- YouTube promet que 10.000 personnes surveilleront les vidéos liées à un contenu inapproprié en 2018.
- La société prévoit également de resserrer ses critères sur les chaines YouTube pouvant diffuser de la publicité.
- La directrice générale, Susan Wojcicki, a publié une note annonçant ces mesures à la suite d’une série d’articles faisant état de vidéos douteuses sur YouTube.
YouTube affirme prévoir que 10.000 personnes examinent des vidéos pour rechercher des extraits qui enfreignent ses règles.
L’annonce intervient alors que l’entreprise appartenant à Google cherche à se remettre d’une série d’incidents embarrassants après que des contenus douteux ont été découverts sur son site. Dans plusieurs cas plus tôt cette année, des publicités ont été trouvées à côté des vidéos de haine. Et plus récemment, une série de chaînes populaires ont été lancées sur la plate-forme présentant des enfants dans des situations abusives.
Ce tourbillon a poussé plusieurs entreprises à retirer leurs publicités sur YouTube, et beaucoup de gens dans le monde de la publicité se sont demandé si YouTube pouvait vraiment se contrôler.
L’entreprise semble désormais faire un effort concerté pour le faire.
Dans une note de blog publiée lundi, la DG Susan Wojcicki a déclaré que même si par sa nature même d’être ouverte, YouTube a fait beaucoup de bien dans le monde, comme la promotion d’une nouvelle génération de créateurs numériques, l’entreprise doit mettre en place davantage de mécanismes pour filtrer les contenus choquants.
“J’ai vu comment de mauvais acteurs exploitent notre ouverture pour tromper, manipuler, harceler ou même nuire”, écrit-elle.
Ainsi, Google va demander à plus de personnes d’examiner les vidéos douteuses sur YouTube et, plus important encore, aider ses outils de machine learning — d’apprentissage automatique — utilisés par Google pour signaler automatiquement un tel contenu. En fin de compte, compte tenu de la taille de YouTube, la société estime que les robots offrent la solution la plus viable à long terme.
Par exemple, Wojcicki a écrit que les actuelles équipes de contrôle ont signalé près de 2 millions de vidéos concernant du contenu extrémiste violent. Et maintenant, “98% des vidéos que nous supprimons au sujet de l’extrémisme violent sont signalées par nos algorithmes d’apprentissage automatique”, a écrit Wojcicki.
L’espoir est que cette méthode puisse être appliquée à d’autres types de vidéos choquantes, tels que des vidéos présentant des enfants de manière inappropriée, par exemple. En outre, YouTube envisage de travailler avec ses créateurs et spécialistes du marketing pour mieux déterminer quelles chaînes YouTube devraient être soutenues par la publicité — et lesquelles ne le devraient pas. Wojcicki a écrit que dorénavant, l’entreprise “appliquera des critères plus stricts, procédera à plus de curation manuelle, tout en augmentant considérablement notre équipe chargée de l’évaluation des contenus pour s’assurer que les publicités ne soient diffusées que là où elles devraient”, écrit-elle.
Avec businessinsider