RSF salue la demande de transparence de la Commission européenne sur les algorithmes des grandes plateformes

La Commission européenne a demandé à YouTube, Snapchat et TikTok de clarifier le fonctionnement de leurs algorithmes de recommandation, soupçonnés d’affecter négativement le débat public, les processus électoraux et le pluralisme des médias. Reporters sans frontières (RSF) salue cette initiative, et appelle à une plus grande transparence, en exigeant que les réponses des plateformes soient rendues publiques. La Commission devrait également instaurer une obligation de promotion des sources d’information fiables pour préserver le pluralisme et l’intégrité du journalisme.

La Commission européenne a enfin demandé à YouTube, Snapchat et TikTok des informations concernant le fonctionnement de leurs algorithmes. Ces requêtes, autorisées par le règlement sur les services numériques (Digital Services Act, DSA), portent plus précisément sur la prévention et l’atténuation des risques systémiques que leurs services pourraient induire. Cette initiative vise à clarifier la manière dont ces plateformes conçoivent leurs algorithmes de recommandation et à prévenir les risques qu’ils font courir à la société. Dans le cas de TikTok, il s’agit plus exactement des risques concernant le pluralisme des médias en ligne et la vulnérabilité de son algorithme à la manipulation par des acteurs malveillants. 

Les réponses des plateformes sont attendues pour le 15 novembre au plus tard. RSF se félicite de cette action salutaire de la Commission et appelle les plateformes à rendre leurs réponses publiques. Les enjeux des algorithmes concernent la société toute entière et l’exigence de transparence doit être la plus élevée possible.

“Les réponses des plateformes données à la Commission européenne doivent être convaincantes, mais les discuter en petit comité ne suffira pas. RSF appelle à une plus grande transparence de la part des entreprises responsables des réseaux sociaux visés, et les exhorte à rendre publiques leurs réponses aux demandes d’information. Favoriser le pluralisme des médias et empêcher la manipulation de leurs algorithmes nécessite des mesures fortes, et notamment d’identifier les sources fiables et de les valoriser dans les algorithmes de recommandation de contenus.” 

Vincent Berthier
Responsable du bureau technologies de RSF

Si les plateformes ne parviennent pas à convaincre la Commission qu’elles  font le nécessaire pour atténuer les risques identifiés, la Commission pourra engager une procédure formelle d’investigation. Cela a déjà été fait pour X (anciennement Twitter) concernant la propagation d'éléments illicites de désinformation

Valoriser les sources fiables sur les plateformes

RSF plaide pour une régulation stricte des très grandes plateformes numériques dont les algorithmes de recommandation peuvent favoriser la désinformation, marginaliser les médias indépendants, et servir la propagande des régimes autoritaires. Pour contrer cette dynamique nuisible, il faut redonner un avantage à l’information de qualité sur les plateformes. Il est légitime de s’inquiéter des dégâts causés par l’algorithme de TikTok, mais plusieurs de ses concurrents méritent tout autant l’attention de l’institution. La suppression de Facebook News, par exemple, est une très mauvaise décision en matière de promotion de l’information, d’autant plus que le référencement des médias sur la plateforme serait en chute libre. Or, avec plus de 300 millions d’utilisateurs quotidiens en Europe, la plateforme devrait également se montrer exemplaire en termes de valorisation des sources fiables.

Le code de pratique renforcé contre la désinformation européen, formalisé en mai 2022, donne la voie à suivre : intégrer des outils comme la Journalism Trust Initiative, une norme internationale de conformité aux standards de production journalistique, initiée par RSF. Grâce à cette norme, les plateformes seront en mesure d’identifier les sources journalistiques fiables de manière objective et de configurer leurs algorithmes pour les valoriser.

Publié le
Updated on 18.10.2024