IA et droit à l’information : l’Italie prend de l’avance, RSF invite les États de l’UE à lui emboîter le pas
À l’approche des élections européennes, l’Italie travaille sur un projet de loi visant à encadrer le développement et l’usage des systèmes d’intelligence artificielle (IA) sur son territoire. Reporters sans frontières (RSF) salue un texte ambitieux à ce stade qui pourrait, s'il est adopté, renforcer le droit à l’information fiable pour les Italiens, en luttant notamment contre les deepfakes, et appelle les États de l’Union européenne (UE) à l’étudier.
Un projet de loi initié par le gouvernement italien, dont une version non définitive a été rendue publique début avril 2024, édicte les principes du financement et de l’encadrement de l’IA dans de nombreux domaines : santé, emploi, éducation et recherche, droits d’auteur et sécurité nationale. Mais c’est pour la protection du droit à l'information que le texte se montre, à ce stade, le plus ambitieux : il entend astreindre les systèmes d’IA au respect de l’intégrité et du pluralisme de l’information, et prévoit des sanctions pénales pour la publication de deepfakes portant préjudice à autrui.
“Le développement incontrôlé de l’IA représente une menace de premier plan pour le droit à l’information fiable et, de ce fait, pour la démocratie et les droits fondamentaux. En Europe comme ailleurs, le cadre législatif actuel reste très insuffisant pour protéger efficacement ce droit. À cet égard, les mesures proposées par l’Italie pour réguler l’IA dans l’espace informationnel sont prometteuses et nous invitons les États, et en premier lieu ceux de l’UE, à s’en inspirer.. RSF veillera toutefois à ce que le projet de loi, s’il est adopté, reste pleinement respectueux de la liberté de la presse.
Le projet de loi, encore sujet à de possibles évolutions lors de son passage prochain au conseil des Ministres puis à l’Assemblée et au Sénat italiens, vise à limiter les risques liés au développement de l’IA pour l’économie, la société et les droits fondamentaux.
Afin de protéger le droit à une information fiable, il pose le principe général suivant lequel “l'utilisation de systèmes d'intelligence artificielle dans le domaine de l'information [doit se faire] sans compromettre la liberté et le pluralisme des médias, la liberté d'expression, ainsi que l'objectivité, l'exhaustivité, l'impartialité et l'intégrité de l'information”. Cette disposition a une portée particulièrement large lorsque l’on considère le rôle central des algorithmes de recommandation dans la diffusion de l’information dans l’espace numérique, depuis les réseaux sociaux aux moteurs de recherche.
Transparence et identification des contenus produits par IA
Le projet de loi entend également imposer une stricte transparence pour les images et sons générés par IA : ceux-ci devraient être “clairement identifiés comme tels par des marques visibles ou des annonces audio pour informer les utilisateurs de la nature artificielle du contenu”. Les plateformes numériques et les médias seraient en outre tenus de mettre en œuvre les moyens nécessaires pour garantir cette transparence – un principe déjà affirmé dans la Charte de Paris sur l’IA et le Journalisme en ce qui concerne les médias, et par les lignes directrices de l’UE consécutives au règlement sur les services numériques (DSA) pour les plateformes et moteurs de recherche.
Des sanctions pénales
En matière d’IA générative, le texte ne se limite pas à une simple exigence de transparence, déjà consacrée par le AI Act mais jugée insuffisante par de nombreux acteurs. Dans la droite ligne des recommandations émises par RSF pour limiter la prolifération des deepfakes, le projet de loi envisage des sanctions pénales pour quiconque causerait “un dommage injuste à autrui” en publiant des contenus audiovisuels “modifiés ou manipulés par IA, de manière à induire en erreur sur leur authenticité ou leur origine”. L’infraction pourrait être punie d'une peine de réclusion allant de un à cinq ans. RSF restera attentif à ce que l’usage des deepfakes transparent et sans intention de tromper le public reste licite –- notamment dans le cas de contenus d’information à caractère humoristique ou satirique.
Si ces premières mesures énoncées par le projet de loi constituent un signal positif à l’heure où les contenus générés par IA sont déjà utilisés pour usurper l’identité de journalistes notamment, manipuler l’opinion et influencer le résultat des élections, RSF appelle à ce que ces mesures soient complétées par une obligation donnée aux fournisseurs de système d’IA générative de prévenir la création de deepfakes nuisibles ou dangereux. En ce sens, l'organisation invite à l’adoption rapide, par les médias et les plateformes numériques, de standards techniques garantissant l’origine des contenus authentiques tels que ceux développés par la Coalition for Content Provenance and Authenticity (C2PA).