Acceuil

Partisanerie, dissidence des employés et « corps morts » : à l’intérieur de la lutte de Facebook pour lutter contre la désinformation et les discours de haine en Inde

La mission d’enquête, qui a été décrite par l’un des chercheurs dans un document interne consulté par CNN, a eu lieu à un moment important pour le pays et pour les opérations de Facebook en son sein. Les élections nationales en Inde, les plus importantes au monde, ont été à quelques mois – et Facebook se préparait déjà à des problèmes potentiels.

Dans ce contexte, les chercheurs de Facebook ont ​​interrogé plus de deux douzaines d’utilisateurs et ont découvert des problèmes sous-jacents qui compliquent potentiellement les efforts visant à freiner la désinformation en Inde.

“Les utilisateurs ont été explicites sur leurs motivations à soutenir leurs partis politiques”, ont écrit les chercheurs dans un rapport de recherche interne consulté par CNN. “Ils étaient également sceptiques quant aux experts en tant que sources fiables. Les experts étaient considérés comme vulnérables aux objectifs et motivations suspects.”

Une personne interrogée par les chercheurs a déclaré : « En tant que partisan, vous croyez tout ce que votre camp dit. Une autre personne interrogée, faisant référence au Premier ministre indien populaire mais controversé Narendra Modi, a déclaré: “Si je reçois 50 notifications Modi, je les partagerai toutes.”

Le Premier ministre indien Narendra Modi est un utilisateur prolifique des médias sociaux.
Le document fait partie des divulgations faites à la Securities and Exchange Commission et fournies au Congrès sous forme rédigée par le conseiller juridique de la dénonciatrice de Facebook, Frances Haugen. Un consortium de 17 agences de presse américaines, dont CNN, a passé en revue les versions rédigées reçu par le Congrès.
Les conversations révèlent certains des mêmes problèmes de société présents aux États-Unis qui sont parfois considérés à la fois comme des produits de flux algorithmiques de médias sociaux et des facteurs de complication pour les améliorer. Il s’agit notamment de partis nationalistes, de politiciens incendiaires, de communautés polarisées et d’une certaine méfiance à l’égard des experts. Il y a eu inquiétudes généralisées à l’échelle mondiale que Facebook a divisions politiques approfondies et que ses efforts pour vérifier les informations incitent souvent les gens à doubler leurs croyances, dont certaines ont été reflétées dans le document de recherche. (Cependant, la plupart des personnes interrogées indiennes ont également déclaré qu’elles souhaitaient que Facebook “les aide à identifier les informations erronées sur la plate-forme.”)

Facebook a également été confronté à deux problèmes fondamentaux en Inde qu’il n’avait pas aux États-Unis, où l’entreprise est basée : comprendre les nombreuses langues locales et lutter contre la méfiance à l’égard d’opérer en tant qu’étranger.

En Inde, l’alphabétisation en anglais est estimé à environ 10 %, les systèmes automatisés de Facebook ne sont pas équipés pour gérer la plupart des 22 langues officiellement reconnues du pays, et ses équipes passent souvent à côté du contexte local crucial, un fait mis en évidence dans autres documents internes et en partie reconnu par les chercheurs en désinformation.

“Nous avons été confrontés à de sérieux problèmes de langue”, ont écrit les chercheurs, ajoutant que les utilisateurs qu’ils ont interrogés avaient pour la plupart leurs profils Facebook définis en anglais, “bien qu’ils reconnaissent à quel point cela entrave leur compréhension et influence leur confiance”.

Certains utilisateurs indiens interrogés par les chercheurs ont également déclaré qu’ils ne faisaient pas confiance à Facebook pour leur fournir des informations précises sur les questions locales. “Facebook était considéré comme une grande entreprise internationale qui serait relativement lente à communiquer les meilleures informations liées à l’actualité régionale”, ont écrit les chercheurs.

Le porte-parole de Facebook, Andy Stone, a déclaré à CNN Business que l’étude faisait “partie d’un effort plus large” pour comprendre comment les utilisateurs indiens réagissaient aux étiquettes d’avertissement de désinformation sur le contenu signalé par les vérificateurs de faits tiers de Facebook.

“Ce travail a informé un changement que nous avons effectué”, a déclaré Stone. « En octobre 2019 aux États-Unis, puis dans le monde entier peu de temps après, nous avons commencé à appliquer des labels plus importants. »

Stone a déclaré que Facebook ne répartissait pas les données d’examen du contenu par pays, mais il a déclaré que la société comptait plus de 15 000 personnes examinant le contenu dans le monde, “y compris dans 20 langues indiennes”. La société est actuellement partenaire de 10 organisations indépendantes de vérification des faits en Inde, a-t-il ajouté.

Avertissements concernant les discours de haine et la désinformation sur le plus grand marché de Facebook

L’Inde est un marché crucial pour Facebook. Avec plus de 400 millions d’utilisateurs sur les différentes plateformes de l’entreprise, le pays est le plus grand public de Facebook.
L’Inde compte plus de 800 millions d’internautes et environ un demi-milliard de personnes ne sont pas encore connectées, ce qui en fait une pièce maîtresse de la poussée de Facebook pour la croissance mondiale. L’expansion de Facebook dans le pays comprend un 5,7 milliards de dollars d’investissement l’année dernière pour s’associer à une entreprise de technologie numérique appartenant à l’homme le plus riche d’Inde.

Mais la taille et la diversité du pays, ainsi qu’une augmentation du sentiment anti-musulman sous le gouvernement nationaliste hindou de droite de Modi, ont amplifié les luttes de Facebook pour assurer la sécurité des gens et ont servi d’exemple parfait de ses faux pas dans les pays en développement plus instables.

Les centaines de millions de nouveaux internautes indiens en ont fait la clé de l'expansion mondiale de Facebook.
Les documents obtenus par CNN et d’autres organes de presse, connus sous le nom de Les papiers Facebook, montrent les chercheurs de l’entreprise et d’autres employés signalant à plusieurs reprises des problèmes de désinformation et de discours de haine en Inde.

Par exemple, les chercheurs de Facebook ont ​​publié un rapport interne plus tôt cette année de l’État indien d’Assam, en partenariat avec des chercheurs locaux de l’organisation Global Voices avant les élections d’État en avril. Il a signalé des inquiétudes concernant “l’alarmisme ethnique, religieux et linguistique” dirigé vers “des cibles perçues comme des “immigrants bengalis”” franchissant la frontière depuis le Bangladesh voisin.

Les chercheurs locaux ont trouvé des publications sur Facebook contre les locuteurs bengali à Assam avec « de nombreux commentaires racistes, dont certains appelant à renvoyer les Bengalis hindous au Bangladesh ou à les tuer ».

“Les musulmans de langue bengali sont confrontés au pire en Assam”, ont déclaré les chercheurs locaux.

Les différentes plateformes de Facebook comptent plus de 400 millions d'utilisateurs mensuels en Inde.

Les chercheurs de Facebook ont ​​signalé d’autres discours de haine anti-musulmans et de désinformation à travers l’Inde. D’autres documents ont noté “un certain nombre de messages déshumanisants” qui comparaient les musulmans à des “cochons” et des “chiens” et de fausses affirmations selon lesquelles le “Coran appelle les hommes à violer les membres féminins de leur famille”.

La société a également rencontré des problèmes de langue sur ces publications, les chercheurs notant que “notre manque de classificateurs hindi et bengali signifie qu’une grande partie de ce contenu n’est jamais signalée ou traitée”.

Certains des documents ont déjà été signalés par le le journal Wall Street et autre nouvelles prises électriques.

“La descente d’un utilisateur de test indien dans une mer de messages polarisants et nationalistes”

Les efforts de Facebook autour des élections de 2019 semblaient largement porter leurs fruits. Dans une note de mai 2019, les chercheurs de Facebook ont ​​salué les “40 équipes et près de 300 personnes” qui ont assuré une “période électorale étonnamment calme et sans incident”.

Facebook a mis en œuvre deux « mesures brise le verre » pour mettre fin à la désinformation et a supprimé plus de 65 000 éléments de contenu pour violation des politiques de suppression des électeurs de la plate-forme, selon la note. Mais les chercheurs ont également noté certaines lacunes, notamment sur Instagram, qui n’avait pas de catégorie de signalement de désinformation à l’époque et n’était pas pris en charge par l’outil de vérification des faits de Facebook.

De plus, le potentiel sous-jacent des plateformes de Facebook à causer des divisions et des dommages dans le monde réel en Inde a précédé les élections et s’est poursuivie longtemps après – tout comme les préoccupations internes à ce sujet.

Une note de recherche de février 2019, intitulée « La descente d’un utilisateur de test indien dans une mer de messages polarisants et nationalistes », a détaillé un compte de test créé par des chercheurs de Facebook qui suivait les pages et les groupes recommandés par l’entreprise. En trois semaines, le fil du compte s’est rempli d’« un barrage presque constant de contenu nationaliste polarisant, de désinformation, de violence et de gore ».

De nombreux groupes avaient des noms bénins, mais les chercheurs ont déclaré qu’ils avaient commencé à partager du contenu préjudiciable et de la désinformation, en particulier contre les citoyens du Pakistan voisin et rival de l’Inde, après une attaque terroriste du 14 février dans la région contestée du Cachemire entre les deux pays.

“J’ai vu plus d’images de personnes décédées au cours des 3 dernières semaines que j’en ai vu au cours de toute ma vie”, a écrit l’un des chercheurs.

L’approche de Facebook au discours de haine en Inde a été controversée, même parmi ses propres employés dans le pays. En août 2020, un Rapport de revue Facebook aurait omis de prendre des mesures concernant les messages de discours haineux d’un membre du parti au pouvoir en Inde, ce qui a conduit à des demandes de changement parmi bon nombre de ses employés. (L’entreprise dit au Journal au moment où ses dirigeants sont “contre la haine et le sectarisme anti-musulmans et se félicitent de l’opportunité de poursuivre la conversation sur ces questions.”) Dans un fil de discussion interne quelques jours après le rapport initial, plusieurs employés de l’entreprise ont interrogé, en partie, son inaction sur les politiciens partageant la désinformation et le discours de haine.

“Comme il y a un nombre limité de politiciens, je trouve inconcevable que nous n’ayons même pas mis en place une détection de base des mots clés pour détecter ce genre de chose”, a commenté un employé. “Après tout, nous ne pouvons pas être fiers en tant qu’entreprise si nous continuons à laisser une telle barbarie s’épanouir sur notre réseau.”


Source link

Afficher plus

Articles similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.

Bouton retour en haut de la page