Pierres angulaires de l’industrie de l’IA, les modèles de fondation doivent être régulés pour protéger le droit à l’information

Les négociations finales sur le projet de règlement de l’Union européenne sur l’intelligence artificielle – l’Artificial Intelligence Act (AI Act) – achoppent sur la question de la régulation des modèles de fondation, c’est-à-dire des algorithmes d’intelligence artificielle générative conçus pour être réutilisés par d’autres développeurs. Reporters sans frontières (RSF) appelle les négociateurs européens à encadrer ces algorithmes incontournables lors de leur prochaine réunion, prévue ce 6 décembre 2023. Sans cela, le droit à l’information serait menacé par ces technologies.

Les modèles de fondation, comme GPT-4 ou Llama, sont les pierres angulaires de l’industrie de l’IA. Ils sont conçus par les plus grandes entreprises du secteur comme OpenAI, pour être réutilisés par les développeurs afin de produire des applications dédiées à certaines pratiques, telles que ChatGPT. Dans la sphère médiatique, ces applications permettent d’ores et déjà de produire des contenus. Or, sans encadrement, ces modèles qui comportent des biais et sont capables de produire de fausses informations pourraient faire courir des risques à l’intégrité de l’information.

RSF, qui a déjà appelé l’AI Act à intégrer des mesures de protection du droit à l’information, considère que ces modèles entraînés sur des milliards de données doivent être encadrés. Or, leur régulation par des codes de conduite, comme le prônent plusieurs États européens, dont la France, n’est pas suffisante, car non contraignants et reposant sur la seule bonne volonté des acteurs du secteur. RSF considère que cette proposition, si elle était acceptée, serait dangereuse pour le droit à l’information, et ferait obstacle à un usage éthique de l’IA dans les médias conformément aux engagements de la Charte de Paris sur l’IA et le journalisme.

La Charte de Paris sur l’IA et le journalisme exige, avant leur usage, de pouvoir auditer complètement les systèmes d’IA afin de vérifier leur compatibilité avec l’éthique journalistique. L’AI Act doit, dès lors, imposer aux modèles de fondation des standards d’ouverture, d’explicabilité de le fonctionnement et de transparence des systèmes ainsi que des mesures de protection du droit à l’information.”

Vincent Berthier
Responsable du bureau technologies de RSF

En mai 2023, RSF avait déjà dénoncé l’existence de faux sites d’information entièrement automatisés dont certains avaient publié de fausses informations sur des sujets de politique internationale. Des algorithmes ne donnant pas les garanties nécessaires sont dangereux et ne doivent pas être autorisés sur le marché.

Publié le