YouTube a supprimé une phrase critiquant le gouvernement chinois en raison d’une erreur d’AI

0
85


Ces dernières semaines, les utilisateurs ont remarqué que certaines expressions chinoises particulières ont été automatiquement supprimées des commentaires de YouTube. Après des spéculations effrénées sur les raisons pour lesquelles Google voudrait que ces expressions – qui sont toutes deux critiques à l’égard du gouvernement chinois – soient interdites, il prétend maintenant qu’il s’agit d’une erreur de son logiciel d’apprentissage automatique.

Les utilisateurs ont remarqué que tout commentaire sur YouTube contenant la phrase « 共匪 » ou « 五毛 » serait purgé dans les secondes qui suivent sa soumission. Un de mes collègues a testé ce phénomène et a constaté qu’il était vrai. Le premier est une insulte à l’égard du gouvernement communiste chinois (il se traduit par « bandit communiste », « bandit de guerre », « bandit de guerre », « bandit de guerre », etc. selon la militante Jennifer Zeng). Ce dernier est un terme argotique désignant les internautes qui ont été payés pour détourner les critiques du parti communiste.

Comme on pouvait s’y attendre, les utilisateurs ont immédiatement soupçonné qu’il y avait peut-être une arrière-pensée pour que Google interdise cette phrase. YouTube est interdit en Chine, alors pourquoi sa société mère se soucierait-elle que quiconque critique le PCC ? Cette phrase particulière a déclenché cette réaction pendant des mois, ce qui est un délai terriblement long pour qu’une erreur persiste.

Peut-être que Google a été incité à se pencher sur la question lorsque le fondateur d’Oculus, Palmer Luckey, a signalé la mystérieuse interdiction de cette phrase. Quoi qu’il en soit, on en parle enfin. Et il prétend qu’il n’interdit pas cette phrase par sympathie cachée pour le gouvernement chinois, mais plutôt par erreur.

Selon une déclaration faite à TechCrunchSelon YouTube, la phrase interdite a été ajoutée à ses filtres de discours haineux, qui suppriment automatiquement les commentaires contenant des contenus offensants. Cela expliquerait pourquoi l’utilisation de la phrase, même de manière positive, a instantanément fait tomber le marteau.

La question qui se pose maintenant est la suivante pourquoi cette phrase a été ajoutée aux filtres. Tout ce que Google dirait, c’est que l’entreprise compte davantage sur la modération basée sur l’IA car ses employés sont absents du bureau en raison de la pandémie de coronavirus. Un billet de blog sur YouTube datant de mars laisse présager le problème :

L’apprentissage automatique permet de détecter les contenus potentiellement dangereux et de les envoyer à des examinateurs humains pour évaluation. Grâce aux nouvelles mesures que nous prenons, nous allons temporairement commencer à nous appuyer davantage sur la technologie pour faciliter une partie du travail normalement effectué par les examinateurs. Cela signifie que les systèmes automatisés commenceront à supprimer certains contenus sans examen humain, de sorte que nous pourrons continuer à agir rapidement pour supprimer les contenus violents et protéger notre écosystème, tout en mettant en place des protections sur le lieu de travail.

Ce ne serait pas la première fois qu’une grande entreprise technologique rencontre des problèmes de modération de l’apprentissage machine grâce au coronavirus. Facebook a connu un problème similaire lorsque son IA a bloqué les messages sur la fabrication de masques faciaux.

YouTube affirme qu’il est toujours en train d’enquêter sur l’erreur. Il invite quiconque à « de signaler les problèmes suspects pour dépanner les erreurs et nous aider à améliorer les produits ».

via The Verge

Couverture de la Corona

Lisez notre couverture quotidienne sur la façon dont l’industrie technologique réagit au coronavirus et abonnez-vous à notre bulletin hebdomadaire Coronavirus in Context.

Pour des conseils et des astuces sur le travail à distance, consultez nos articles sur les quarts de croissance ici ou suivez-nous sur Twitter.