Acceuil

Quatre points à retenir des plaintes de Frances Haugen

Haugen, l’ancien chef de produit Facebook (FB) de 37 ans qui a travaillé sur les questions d’intégrité civique dans l’entreprise, a révélé son identité lors d’un segment “60 Minutes” diffusé dimanche soirt. Elle aurait déposé au moins huit plaintes de dénonciateurs auprès de la Securities and Exchange Commission, alléguant que la société cache des recherches sur ses lacunes aux investisseurs et au public. Elle a également partagé les documents avec les régulateurs et le Wall Street Journal, qui a publié une enquête en plusieurs parties montrant que Facebook était au courant des problèmes avec ses applications.
“60 minutes” publié huit des plaintes de Haugen lundi. Voici quatre points à retenir des plaintes :
Documents internes cité dans les plaintes montrent que Facebook sait à la fois que les discours de haine et la désinformation sur ses plateformes ont un impact sociétal et que ses « mécanismes de produits de base, tels que les recommandations de viralité et l’optimisation de l’engagement, sont une partie importante des raisons pour lesquelles ces types de discours prospèrent. ”
Dans une étude des risques de désinformation et de polarisation rencontrés à travers les recommandations, il n’a fallu que quelques jours à l’algorithme de Facebook pour recommander des pages de complot à un compte suivant les pages officielles et vérifiées de chiffres conservateurs tels que Fox News et Donald Trump. Il a fallu moins d’une semaine pour que le même compte obtienne une recommandation QAnon. Et selon des documents intitulés “Ils publiaient des selfies maintenant ils essaient d’inverser les élections” et “Facebook récompense-t-il l’indignation” cités dans les plaintes, non seulement les algorithmes de Facebook récompensent les publications sur des sujets tels que les complots de fraude électorale avec des likes et des partages, mais aussi “‘plus un élément de contenu suscite des commentaires négatifs, plus il est probable que le lien génère plus de trafic.'”
Une document intitulé « Qu’est-ce que les dommages collatéraux ? » va même jusqu’à noter “le résultat net est que Facebook, pris dans son ensemble, fera la promotion active (sinon nécessairement consciemment) de ce type d’activités. La mécanique de notre plateforme n’est pas neutre”.

Facebook a pris des mesures limitées pour lutter contre la désinformation existante

Selon un interne document sur les récits problématiques non-violents référencés dans au moins deux des plaintes, Facebook supprime aussi peu que 3 à 5 % de discours de haine et moins de 1 % du contenu considéré comme violent ou incitant à la violence. C’est parce que le volume est trop important pour les examinateurs humains et qu’il est difficile pour ses algorithmes de classer avec précision le contenu lorsque le contexte doit être pris en compte.

Des documents internes sur le rôle de Facebook dans les élections de 2020 et l’insurrection du 6 janvier suggèrent également que ceux qui diffusent de la désinformation sont rarement arrêtés par les mécanismes d’intervention de l’entreprise. Un document note que « l’application sur les pages modérées par les administrateurs de page qui publient plus de 2 informations erronées au cours des 67 derniers jours affecterait 277 000 pages. Parmi ces pages, 11 000 sont des pages de récidivistes actuels. »

Malgré les affirmations de Facebook selon lesquelles ils “suppriment le contenu de Facebook, peu importe qui le publie, lorsqu’il viole nos normes”, selon Haugen, “en pratique, le système ‘XCheck’ ou ‘Cross-Check’ ‘liste effectivement’ les utilisateurs de haut niveau et/ou privilégiés.” Un interne document sur la prévention des erreurs citée dans une plainte affirme que “‘au fil des ans, de nombreuses pages, profils et entités XChecked ont été exemptés de l’application.'”
Documents internes sur « la quantification de la concentration des repartages et de leurs VPV parmi les utilisateurs » et un « plan d’arrêt pour toutes les surfaces de recommandation de groupe » indiquent que Facebook a également annulé certains changements qui se sont avérés réduire la désinformation, car ces changements ont réduit la croissance de la plate-forme.
De plus, Haugen réclamations la société a faussement déclaré aux annonceurs qu’elle avait fait tout ce qu’elle pouvait pour empêcher l’insurrection. Selon un document cité dans le dépôt intitulé “Capitol Riots Breaks the Glass”, les paramètres plus sûrs mis en place par Facebook pour les élections de 2020, comme la rétrogradation de contenus tels que les discours haineux susceptibles de violer ses normes communautaires, ont été en fait annulés par la suite et rétablis “seulement après que l’insurrection a éclaté”.
Dans un document, un responsable de Facebook États “nous étions disposés à agir seulement *après* que les choses aient dégénéré dans un état désastreux.”

Facebook a induit le public en erreur sur les effets négatifs de ses plateformes sur les enfants et les adolescents, en particulier les jeunes filles

Interrogé lors d’une audience au Congrès à Mars si les plateformes de Facebook « nuisent aux enfants » Mark Zuckerberg, PDG de Facebook mentionné, “Je ne le crois pas.”
Cependant, d’après les propres recherches internes de Facebook citées dans une des plaintes de Haugen, “13,5% des adolescentes sur Instagram disent que la plate-forme aggrave les pensées de” suicide et automutilation “” et 17% disent que la plate-forme, détenue par Facebook, aggrave les “problèmes d’alimentation” tels que l’anorexie. Leurs recherches affirment également que les plateformes de Facebook « aggravent les problèmes d’image corporelle pour 1 adolescente sur 3 ».

Facebook sait que ses plateformes permettent l’exploitation humaine

Bien que les normes communautaires de Facebook indiquent qu’elles “suppriment le contenu qui facilite ou coordonne l’exploitation des êtres humains”, des documents internes de l’entreprise cités dans l’une des plaintes de Haugen suggèrent que l’entreprise savait que “le contenu de servitude domestique restait sur la plate-forme” avant une enquête de 2019 par BBC News dans un marché noir pour les travailleurs domestiques sur Instagram.

« Nous sous-appliquons les activités abusives confirmées avec un lien avec la plate-forme », un document intitulé « Servitude domestique et suivi au Moyen-Orient » déclaré. “Nos résultats d’enquête démontrent que … notre plate-forme permet les trois étapes du cycle de vie de l’exploitation humaine (recrutement, facilitation, exploitation) via des réseaux du monde réel. … Les trafiquants, les recruteurs et les facilitateurs de ces « agences » ont utilisé des profils FB , profils IG, Pages, Messenger et WhatsApp.”

Source link

Afficher plus

Articles similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page