Economie

le CSA veut davantage de transparence des réseaux sociaux

« Peut mieux faire. » C’est en substance le message adressé par le Conseil supérieur de l’audiovisuel (CSA) aux plates-formes en ligne dans son rapport consacré à l’application de la loi sur la manipulation de l’information, publié jeudi 30 juillet. « Les réseaux sociaux ont compris qu’ils étaient redevables de précisions sur leur action contre les fausses nouvelles. Mais il y a une grosse marge d’amélioration. Dans certains domaines sensibles, comme les données chiffrées sur les contenus modérés et la transparence des algorithmes, les platesformes restent très avares d’informations », commente Michèle Léridon, membre du CSA et ex-directrice de l’information de l’Agence France-Presse.

Le rapport concerne Facebook, Instagram, Twitter, YouTube, mais aussi Bing, Google, Yahoo!, Aufeminin, Dailymotion, Doctissimo, Jeuxvideo.com, LinkedIn, Microsoft Ads, Wikipedia, YouTube.

Lire aussi Twitter assigné en justice pour son « inaction massive » face aux messages haineux

Le texte de décembre 2018 souvent appelé loi « fake news » a confié au régulateur le soin de suivre le « devoir de coopération » imposé aux plates-formes : celles-ci sont surtout tenues d’être transparentes sur leur gestion des « infox », afin de permettre les comparaisons entre services, voire de pointer les lacunes. « Les opérateurs sont tenus de mettre en œuvre un dispositif de signalement ainsi que des mesures complémentaires qui peuvent relever de la transparence des algorithmes, de la promotion des contenus issus d’agences de presse, de la lutte contre les comptes propageant massivement de fausses informations, de l’information des utilisateurs sur les contenus sponsorisés d’information se rattachant à un débat d’intérêt général et de l’éducation aux médias et à l’information », explique le CSA.

« Avoir une idée de la masse »

Le rapport décerne certains bons points, par exemple, sur les dispositifs et boutons de signalement des fausses informations, mis en place quasiment partout.

Mais « le niveau de précision des réponses est hétérogène », notamment sur « les moyens humains et financiers déployés », regrette le CSA. Les effectifs globaux des équipes de modération oscillent entre 15 000 (Facebook) et 15 (Jeuxvideo.com), souligne le rapport, qui regrette le manque de détails sur les employés dévolus à la France et la répartition entre modération humaine et algorithmique.

Article réservé à nos abonnés Lire aussi Haine en ligne : la loi Avia face à ses critiques

Surtout, le régulateur déplore « la rareté des données chiffrées communiquées par les opérateurs sur les signalements et leur traitement », même s’il prend note « des difficultés pratiques mises en avant par les opérateurs pour les réunir ». Difficile, dans ce cas, d’avoir une idée du problème de la désinformation en ligne… « Avoir plus de données nous permettrait d’avoir une idée de la masse, même si cela ne nous renseignerait pas forcément précisément sur la manipulation délibérée de l’information en tant que telle », explique Mme Léridon. La conseillère rappelle que les signalements faits par des internautes peuvent correspondre à des motifs très divers et touchent souvent des contenus sans lien avec les informations générales.

Le secret des affaires

Pour se soustraire à la transparence des algorithmes, les plates-formes évoquent le secret des affaires et le risque de voir des informations précieuses transmises à la concurrence, explique Mme Léridon. Mais le CSA rappelle qu’il sait déjà gérer des informations confidentielles sans les divulguer, dans le cadre de sa gestion des chaînes de télévision, par exemple.

Comment améliorer la transparence ? Le CSA n’a pas été doté de pouvoir de sanction dans la loi « fake news », contrairement au cas de la loi Avia sur la haine en ligne – même si les pouvoirs du CSA ont, depuis, été indirectement supprimés à l’occasion de la censure du texte par le Conseil constitutionnel. Le CSA doit donc tenter de faire pression sur les réseaux sociaux en rendant publiques ses appréciations. A moins de, peut-être un jour, demander au législateur un pouvoir de sanction.

Le succès ou l’échec de ce schéma est un enjeu important : cette régulation « souple » – des obligations de moyens imposées aux réseaux sociaux et surveillées par une autorité – est l’architecture défendue par certains en France et le cadre proposé dans le futur texte européen Digital Services Act.


Source link

Afficher plus

Articles similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page