Code de bonnes pratiques du “AI Act” : dernière occasion de protéger le journalisme face aux intérêts de l’industrie technologique
Reporters sans frontières (RSF) demande à la Commission européenne de s’assurer que le Code de bonnes pratiques sur l’intelligence artificielle à usage général contienne des dispositions concrètes pour protéger le journalisme et l’information fiable. L’organisation s’inquiète que la régulation soit affaiblie au profit des intérêts de l’industrie technologique, qui dispose d’un rôle privilégié dans l’élaboration de ce code.
Alors que la Commission européenne a publié mi-novembre son projet de Code de bonnes pratiques sur l’intelligence artificielle (IA) à usage général, RSF, qui participe au processus de rédaction, souligne plusieurs faiblesses de cette première version du texte en ce qui concerne la protection de l’information journalistique. L'organisation formule des propositions pour remédier à ces lacunes.
“L’explosion récente de la désinformation alimentée par l’intelligence artificielle est une démonstration sans équivoque que cette technologie est insuffisamment régulée. Le Code de bonnes pratiques sur l’IA à usage général représente l’une des dernières occasions de faire prévaloir notre droit d’accéder à une information fiable face aux intérêts court-termistes d’une poignée d’acteurs de l’industrie. La Commission européenne ne doit pas permettre aux fournisseurs d’IA, qui bénéficient d’un statut privilégié dans la rédaction de ce code, de mettre une nouvelle fois la main sur le processus législatif. RSF exige que ce code intègre des dispositions concrètes pour protéger le journalisme et l’information fiable.
Un risque d'affaiblissement de la régulation par l’industrie de l’IA
L’industrie technologique déploie des efforts considérables pour affaiblir les efforts de régulation de l’IA sur le territoire européen. En 2023, année où la législation européenne sur l’IA (AI Act) était en préparation, l’ONG Corporate Europe Observatory révélait que 78 % des réunions sur l'IA impliquant des hauts fonctionnaires de la Commission européenne avaient eu lieu avec des représentants de l’industrie. Il en résulte une législation affaiblie, adoptée en mars 2024, dont RSF dénonçait l'omission des enjeux informationnels.
Le Code de bonnes pratiques en cours d’élaboration offre une occasion de reconsidérer le journalisme et l’information fiable dans l’encadrement des “modèles d’IA à usage général”, c’est-à-dire des algorithmes complexes sur lesquels s’appuient les systèmes d’IA tels que les agents conversationnels et les générateurs d’images.
Le processus de rédaction de ce code s’étalera jusqu’en mai 2025 et implique près de 1000 parties prenantes. Toutes ne bénéficient cependant pas du même statut : les fournisseurs d’IA sont invités à des “ateliers de rédaction” tandis que les autres acteurs, comme les universitaires et organisations de la société civile, sont uniquement conviées à émettre leur avis sur les versions intermédiaires du texte, et à participer à des groupes de travail – auxquels participent également les fournisseurs d’IA.
Les recommandations de RSF pour renforcer le Code de bonnes pratiques
Voici les principales recommandations de RSF sur le projet du Code de bonnes pratiques sur l’IA à usage général :
- Taxonomie des risques systémiques : RSF propose une révision de la définition des risques systémiques liés à l’IA. L’organisation plaide pour une reformulation du risque de “persuasion et manipulation” en un risque à la fois plus large et plus précis, portant sur l’atteinte au droit d’accéder à une information digne de confiance et sur la protection du journalisme digne de confiance. Elle recommande aussi d’ajouter un risque systémique lié à l’usurpation d’identité de personnalités publiques, y compris les journalistes, qui représente une menace directe pour leur réputation mais aussi pour l’intégrité des processus démocratiques, dont les élections.
- Évaluation et atténuation des risques : RSF appelle à un renforcement des exigences d’évaluation de la sécurité des modèles d’IA utilisés dans les systèmes jouant un rôle structurel dans la production d’information et la diffusion de l’information journalistique. L’organisation insiste sur l’importance d’allouer davantage de ressources humaines et financières pour garantir des évaluations fiables des risques, soulignant que l’état de l’art des moyens d’évaluation est sévèrement limité par un manque de ressources allouées par l’industrie à la sécurité. De plus, RSF propose que des mesures préventives strictes soient mises en place pour éviter le déploiement non autorisé des modèles d’IA dans des contextes risqués, notamment en matière d’accès à l’information journalistique.
- Droits d’auteur : RSF recommande d’assurer une meilleure transparence dans l’utilisation des œuvres protégées par le droit d’auteur pour l’entraînement des modèles d’IA, et des moyens plus efficaces pour que les auteurs et détenteurs de droits, dont les journalistes et les médias, puissent négocier et réserver leurs droits.