Les géants de la tech s’engagent à identifier les contenus générés par IA, enfin une avancée pour le droit à l'information en ligne !

L’annonce par Google, Microsoft, TikTok, Meta d’un engagement collectif à garantir l’identification des contenus produits par IA sur leurs plateformes est une avancée salutaire tant elle est nécessaire. Reporters sans frontières (RSF) les invite désormais à aller plus loin pour assurer la traçabilité des contenus d’information en ligne et contribuer à favoriser la visibilité des contenus fiables.

C’est une avancée significative en faveur de laquelle RSF s’était exprimée. Plusieurs géants de la tech dont Google, Microsoft, TikTok et Meta ont annoncé le 16 février avoir signé un accord pour s’engager collectivement à prendre des mesures pour lutter contre les risques que l’IA fait porter sur les élections, alors que la moitié du globe va être appelée aux urnes en 2024. Ces entreprises s’engagent notamment à identifier les contenus générés par intelligence artificielle (IA). Meta, la première, l’a annoncé début février 2024 en s’engageant très clairement à labelliser les images produites par des IA sur ses réseaux sociaux Facebook, Instagram et Threads dans les prochains mois.

Pour ce faire, les entreprises vont utiliser plusieurs standards d’authentification déjà intégrés dans des systèmes d’IA générant des images comme ceux d’OpenAI, d’Adobe, de Midjourney ou de Google. De plus, les entreprises signataires assurent continuer la recherche pour permettre l’identification des contenus audios et vidéos de manière efficace.

RSF salue ces engagements qui contribuent au droit à l’information du public, en garantissant un meilleur accès aux sources des contenus produits.  L’organisation  appelle les grandes plateformes à aller désormais plus loin :  à préciser aussi dans les métadonnées si un contenu, notamment photographique, a été pris par un appareil photo ou un smartphone, et à fortiori s’il provient d’un média qui l’a crédité. Ce sont des informations capitales pour le public. 

“L’IA générative amène l’espace informationnel vers l’ère du soupçon. Dans ce contexte, pouvoir identifier la source des contenus est devenu un enjeu de premier plan. L’engagement des plateformes à indiquer quand un contenu a été produit par un outil IA est une avancée majeure pour le droit à une information fiable du public. Pour tirer le plein potentiel de ces standards d’authentification, l’étape suivante est de pouvoir aussi simplement être informé de la source des contenus qui ne sont pas produits par IA et ceux qui proviennent d’un média d’information journalistique. RSF les appelle, ainsi que les plateformes, à généraliser l’usage de ces technologies pour permettre la traçabilité des contenus en ligne.”

Vincent Berthier

Responsable du bureau technologies de RSF

Compte tenu de l’influence des plateformes signataires de cet accord dans l’accès à l’information, elles sont aujourd’hui un acteur incontournable pour permettre la traçabilité des contenus sur l’ensemble de leurs espaces en ligne. 

Quant aux médias, la charte de Paris sur l’IA et le journalisme, initiée par RSF, fait de la traçabilité de leurs contenus son sixième principe : “Les médias doivent, dans la mesure du possible, utiliser des outils de pointe qui garantissent l’authenticité et la provenance des contenus publiés, en fournissant des détails fiables sur leur origine et toute modification qu’ils ont pu subir ensuite. Tout contenu ne répondant pas à ces normes d’authenticité doit être considéré comme potentiellement trompeur et faire l’objet d’une vérification détaillée.” Les standards d'authentification peuvent, à ce titre, être utilisés par les médias pour identifier leurs contenus. 

Cela présente un double avantage : garantir une transparence sur la fabrique de l’information au regard du public, et mieux protéger les journalistes face à l'augmentation des deepfakes. Le 7 février 2024, la presse britannique relevait que la journaliste Mary Nightingale, était à son tour victime d'une fausse vidéo de journal télévisé réalisée à des fins publicitaires.

 

Publié le
Updated on 22.02.2024