Distinguer un contenu d’information authentique du “deepfake” : RSF réclame la mise en place de standards de reconnaissance de contenus générés par IA

Le développement de l’intelligence artificielle (IA) permet de créer rapidement des trucages convaincants usurpant l’identité de personnalités ou de journalistes. Pour éviter la manipulation de l’espace informationnel par des contenus modifiés, Reporters sans frontières (RSF) appelle à l’accélération du développement d’outils de reconnaissance des contenus générés par IA.

En Slovaquie, fin septembre 2023, la voix de la journaliste Monika Tódová a été synthétisée dans un fichier audio réalisé par IA. Le faux enregistrement donnait l’illusion d’une conversation dans laquelle la journaliste et le dirigeant du parti progressiste slovaque organisaient une fraude électorale. Rien ne permettait au public de distinguer clairement qu’il s’agissait d’une fausse information produite à des fins de déstabilisation politique, et réalisée par des techniques d’IA. 

Pour RSF, il y a urgence à ce qu’un contenu puisse être rapidement identifiable comme une production synthétique, générée par IA, ou comme une production authentique. En ce sens, l’organisation encourage le développement de standards techniques internationaux qui agissent au niveau des métadonnées des contenus, c’est-à-dire dans la liste des informations qui sont associées au contenu diffusé.

“Les deepfakes sont un poison pour l’information fiable. Utilisés dans l’espace informationnel, sans garde-fous, ils intoxiquent non seulement le public, mais affaiblissent également la confiance des citoyens envers l’information en ligne. Pour RSF, il est nécessaire de développer et d’imposer massivement des standards techniques permettant d’identifier si un contenu a été créé par IA, modifié, ou bien s’il s’agit par exemple d’une authentique photographie. Ces informations sont fondamentales pour s’assurer que les fausses images générées par IA ne viennent pas polluer les représentations du réel.”

Vincent Berthier
Responsable du bureau technologies de RSF

 

Les pouvoirs publics ont leur rôle à jouer

Des initiatives d’origines privées pour développer ces standards existent déjà, comme celles de l’entreprise OpenOrigins ou de la Coalition for Content Provenance and Authenticity (C2PA), qui réunit à la fois des médias comme la BBC et des entreprises du secteur de la technologie telles qu’Adobe ou Microsoft. Mais à l’heure actuelle, aucune de ces techniques n’est universellement adoptée. C’est aux pouvoirs publics et démocratiques d’encourager le déploiement de standards internationaux et interopérables, et d’en imposer l’intégration dans les systèmes d’IA.

En Europe, le projet de législation sur l’intelligence artificielle, l’AI Act, offre le cadre idéal pour assurer que l’IA soit mise au service du droit à l’information. Ce texte devrait considérer les systèmes d’IA produisant des deepfakes comme à haut risque et exiger des concepteurs d’IA d’intégrer des standards d’authentification des contenus générés par leurs machines.

Le déploiement de ces standards devrait permettre à tous ceux qui jouent un rôle dans la circulation de l’information, comme les journalistes, d’attribuer à chaque contenu sa juste valeur dans le traitement de l’information. Ce principe doit également commander les grandes plateformes : il est hors de question de laisser les deepfakes circuler s’ils présentent une menace pour l’accès à l’information.

Publié le
Mise à jour le 21.11.2023