Cúpula de IA: sete recomendações da RSF para transformar a declaração em ações pelo direito à informação

A declaração final da Cúpula para a Ação sobre Inteligência Artificial (IA) de Paris, intitulada “Declaração sobre uma inteligência artificial inclusiva e sustentável para os povos e o planeta”, foi assinada por 62 países. A Repórteres Sem Fronteiras (RSF) acolhe com satisfação o retorno da referência à integridade da informação no texto final, embora este não contenha compromissos de implementar medidas concretas. A RSF propõe sete recomendações para superar este vazio.
Com 32 signatários a mais que a Declaração de Bletchley — assinada em 2023 após a cúpula realizada no Reino Unido sobre segurança da IA —, a declaração de Paris poderia servir de roteiro para uma governança da IA mais respeitosa ao direito à informação.
A menção aos riscos para a integridade da informação — conceito totalmente ausente na declaração da cúpula de Seul em 2024 — revela uma consciência bem-vinda dos desafios que a IA impõe, especialmente no que diz respeito à proliferação da desinformação. Entretanto, o texto final não apresenta propostas práticas para regular a indústria, enquanto as soluções técnicas sugeridas ignoram a urgência de uma regulação forte.
“É essencial que a declaração de IA de Paris não se torne um mero documento de princípios. O texto final tem o mérito de afirmar a disposição dos Estados signatários de ‘lidar com os riscos’ que a IA representa para a integridade da informação, ao mesmo tempo em que estimula a inovação. No entanto, a Cúpula para a Ação sobre IA precisa resultar em medidas concretas para uma regulação mais rigorosa, e a mídia deve participar da governança da IA e utilizar, de forma responsável, as ferramentas que promovem um jornalismo fortalecido e ético.
Durante todo o evento, diversas reportagens destacaram a urgência de uma regulação mais rígida para garantir a implementação segura da IA nos ecossistemas de informação. Um estudo da BBC demonstrou que os chatbots são incapazes de resumir com precisão artigos de notícias. Na França, mais de 40 veículos de comunicação moveram ações judiciais para bloquear um site operado de forma automatizada por IA, segundo investigação conjunta do Libération e do Next, que publicaria diariamente mais de 6 mil artigos furtados de meios franceses. Há evidências abundantes que ilustram a variedade de riscos que a emergente indústria de IA generativa impõe ao jornalismo.
Sete recomendações para os países garantirem que a IA respeite o direito à informação e o jornalismo
Responsabilização dos desenvolvedores de IA
- Os desenvolvedores de serviços baseados em IA devem ser responsabilizados por danos causados por seus produtos ao direito à informação dos cidadãos ou à liberdade dos jornalistas para exercer sua atividade. Nesse sentido, o recuo na diretiva da União Europeia sobre responsabilidade em IA é profundamente lamentável.
- Os desenvolvedores que utilizam dados produzidos pela mídia devem obter o consentimento e remunerar os autores de conteúdos jornalísticos e os meios de comunicação. Consequentemente, devem oferecer aos criadores a opção de aceitar ou recusar o uso de seus conteúdos (“opt-in”) e negociar coletivamente com os veículos de comunicação.
Respeito à integridade da informação jornalística
- Os sistemas de IA projetados para produzir ou disseminar informações devem basear-se em fontes jornalísticas confiáveis e reproduzir tais informações sem comprometer sua integridade. Eles devem redirecionar os usuários às fontes originais do conteúdo e disponibilizar mecanismos que permitam sinalizar erros. Se uma tecnologia — como a Apple Intelligence — demonstrar ineficácia nesse quesito, não deverá ser autorizada para esse fim.
- Esses sistemas também devem favorecer uma representação plural e diversificada de informações, selecionando fontes com base em critérios objetivos de qualidade e independência, conforme definidos, por exemplo, pela Journalism Trust Initiative (JTI) desenvolvida pela RSF.
Regulação das deepfakes
- É necessário estabelecer um marco legal rigoroso para combater a proliferação de deepfakes prejudiciais, com sanções criminais para a publicação intencional de conteúdos falsificados destinados a manipular informações ou a minar a credibilidade de jornalistas e veículos de comunicação.
- Plataformas que distribuem conteúdos informativos precisam ter o dever de priorizar material autêntico em seus algoritmos de recomendação e a rastrear a origem dos conteúdos gerados por IA. Para tanto, os países devem incentivar — e, se necessário, subsidiar — a implementação de padrões de autenticação em conteúdos jornalísticos, como o recente teste bem-sucedido da AFP para certificar a origem de suas fotos.
Fomento à inovação que respeite o direito à informação
- Recursos públicos devem ser investidos em projetos que promovam o direito à informação. A indústria dos meios de comunicação precisa inovar para enfrentar os desafios das sociedades democráticas contemporâneas. Para isso, é fundamental que recursos públicos sejam destinados ao desenvolvimento de tecnologias éticas e que respeitem os valores jornalísticos, como o pelo Projeto Spinoza da RSF e pela Aliança da Imprensa Generalista, da França.