Sommet sur l’IA : les sept recommandations de RSF pour transformer la déclaration en actions pour le droit à l’information

La déclaration finale du Sommet pour l’action sur l’intelligence artificielle (IA) de Paris, intitulée la “déclaration sur une intelligence artificielle inclusive et durable pour les peuples et la planète” a rassemblé 62 signataires. Reporters sans frontières (RSF) salue le retour d’une mention à l’intégrité de l’information dans le texte final, qui ne contient cependant pas d’engagements à initier des actions concrètes. RSF propose sept recommandations pour combler ce vide.
Avec 39 signataires de plus que la déclaration de Bletchley, signée en 2023 à l’issue du sommet britannique pour la sécurité de l’IA, la déclaration de Paris aurait pu servir d’esquisse à une gouvernance de l’IA plus respectueuse du droit à l’information.
La mention des risques liés à l’intégrité de l’information, une notion totalement absente de la précédente déclaration du sommet de Séoul en 2024, est le signe encourageant d’une prise de conscience des défis posés à l’information par l’IA, particulièrement celui de la prolifération de la désinformation. Cependant, la déclaration finale du Sommet pour l’action sur l’IA échoue à proposer des pistes d’actions pour encadrer l’ensemble de l’industrie. Les solutions techniques abordées négligent totalement l’urgence de la régulation.
“Il est essentiel que la déclaration de Paris sur l’IA ne reste pas une simple pétition de principes. Le texte final a le mérite d’affirmer la volonté des États signataires de ‘traiter des risques’ que l’IA peut faire peser sur l’intégrité de l’information, tout en encourageant l’innovation. Le Sommet pour l’action sur l’IA doit aboutir à des mesures concrètes pour une régulation de l’IA plus ferme et les médias doivent prendre part à la gouvernance de l’IA et s’emparer avec responsabilité des outils en faveur d’un journalisme augmenté, respectueux de la déontologie journalistique.”
Durant toute la période du sommet, de nombreuses actualités médiatiques ont souligné l’urgence d’une réglementation plus stricte pour garantir le déploiement sécurisé de l’IA dans les écosystèmes d’information. Une étude publiée par la BBC a ainsi prouvé l’incapacité des agents conversationnels à résumer avec exactitude l’information tirée d’articles de presse. En France, plus d’une quarantaine de titres ont saisi la justice pour bloquer un site, automatisé par IA, selon une enquête conjointe du quotidien Libération et du site d’information Next, qui publierait chaque jour “plus de 6 000 articles dérobés” à des éditeurs de presse français. La documentation abonde pour démontrer la variété des risques posés au journalisme par la nouvelle industrie de l’IA générative.
Sept recommandations aux États pour une IA respectueuse du droit à l’information et du journalisme
Responsabilités des concepteurs d’IA
- Les concepteurs de services à base d’IA doivent pouvoir être tenus responsables en cas de torts causés par leurs produits sur le droit à l’information des citoyens, ou sur la liberté des journalistes à exercer librement leur profession. À ce titre, le retrait de la directive de l’Union européenne sur la responsabilité en matière d’IA envoie un signal tout à fait regrettable.
- Les concepteurs de systèmes utilisant des données produites par les médias doivent obtenir leur accord et rémunérer les auteurs de contenus journalistiques et les éditeurs de presse. En conséquence, ils doivent donner aux auteurs la liberté d’accepter ou de refuser l’usage de leurs contenus (“opt-in”) et négocier collectivement avec les médias.
Respect de l’intégrité de l’information journalistique
- Les systèmes d'IA conçus pour produire ou diffuser de l’information doivent s'appuyer sur des sources journalistiques fiables et restituer l’information sans nuire à son intégrité. Ils doivent rediriger vers les contenus sources et intégrer des mécanismes permettant de signaler les erreurs. Si une technologie, comme celle d’Apple Intelligence, fait la démonstration de son inefficacité en la matière, celle-ci ne doit pas être autorisée sur le marché pour cet usage.
- Ces systèmes doivent également favoriser une représentation pluraliste et diversifiée de l’information, en sélectionnant des sources selon des critères objectifs de qualité et d’indépendance, tels que définis par exemple par la norme Journalism Trust Initiative (JTI) développée par RSF.
Encadrement et régulation des “deepfakes”
-
Un cadre juridique strict doit être instauré pour lutter contre la prolifération des deepfakes nuisibles, avec des sanctions pénales pour la publication intentionnelle de contenus falsifiés dans le but de manipuler l’information ou de porter atteinte à la crédibilité d’un journaliste ou d’un média.
-
Obliger les plateformes de distribution de contenus d’information à valoriser les contenus authentiques dans leurs algorithmes de recommandation, et de tracer l’origine des contenus générés par IA. Il faut pour cela encourager, et subventionner si besoin, le déploiement de standards d’authentification dans le matériel journalistique, à l’instar de ce que l’AFP a récemment annoncé avoir expérimenté avec succès pour certifier l’origine de ses photos.
Initier une dynamique d’innovation respectueuse du droit à l’information
- Investir des fonds publics dans des projets vertueux pour le droit à l’information. L’industrie des médias a besoin d’innover pour relever les défis posés aux sociétés démocratiques contemporaines. Pour ce faire, il est nécessaire que des fonds publics soient alloués aux développements de technologies éthiques et respectueuses des valeurs journalistiques, à l’instar du Projet Spinoza de RSF et l’Alliance de la presse d’information générale (l’Alliance).