Em 28 de março de 2025, mais de 40 entidades representativas do setor criativo europeu divulgaram uma nota conjunta de repúdio à terceira minuta do Código de Boas Práticas para IAs de Propósito Geral (GPAI), instrumento previsto no escopo do AI Act da União Europeia. A mensagem foi clara e firme: o texto atual do código é tão falho que, segundo os signatários, seria preferível não aprová-lo.
O documento expõe sérias preocupações com o conteúdo da proposta, apontando que ela contraria os objetivos originais do AI Act, enfraquece os mecanismos de proteção dos direitos autorais e prejudica a transparência exigida na utilização de dados para o treinamento de modelos de inteligência artificial.
O Que Está em Jogo
O AI Act é o principal marco regulatório da União Europeia voltado à governança da inteligência artificial. Ele busca garantir o uso responsável da IA, com foco na proteção de direitos fundamentais. Um de seus pilares é assegurar que modelos de IA de propósito geral — como os modelos de linguagem e de geração de imagens — respeitem os direitos autorais e forneçam informações claras sobre os dados utilizados em seu treinamento.
Para apoiar a implementação dessas obrigações, foi proposto o Código de Boas Práticas (Code of Practice), um instrumento voluntário para orientar provedores de IA. Contudo, a terceira minuta desse código representa, na visão das entidades culturais, um enorme retrocesso.
Críticas Centrais ao Código de Boas Práticas
1. Descompromisso com a Lei de Direitos Autorais
O código propõe que os provedores de IA façam apenas “esforços razoáveis” para respeitar os direitos autorais, o que, para os signatários, abre margem para interpretações frouxas e evasivas. O termo é vago e não garante conformidade legal efetiva, fragilizando o cumprimento das leis europeias de propriedade intelectual.
2. Ausência de Due Diligence
O texto abandona a exigência de que os provedores verifiquem a legalidade dos dados utilizados nos treinamentos. Isso significa que conteúdos protegidos por direitos autorais podem ser usados sem autorização, um risco que compromete a remuneração justa de autores, músicos, jornalistas, artistas visuais, diretores e outros profissionais criativos.
3. Transparência Inexistente
A minuta não obriga os provedores a fornecer um resumo detalhado dos conteúdos usados para treinar suas IAs, o que impede que autores e titulares de direitos possam verificar se suas obras foram usadas indevidamente. Além disso, o texto pode permitir que empresas escondam esses dados sob o argumento de “segredo comercial”.
4. Ignora Mecanismos de Reserva de Direitos
O único mecanismo de reserva de direitos considerado pelo código é o já ultrapassado robots.txt, utilizado para evitar a indexação por bots. A sugestão de que esse seria o único método reconhecido ignora outras formas válidas de exclusão e reserva — como licenças, contratos ou metadados — previstas e protegidas pela legislação europeia.
5. Sistema de Reclamações Inócuo
Apesar de propor um mecanismo de reclamações, o código não exige que os provedores tomem medidas para resolver os casos reportados. Na prática, isso cria um canal simbólico, sem impacto real para a proteção dos titulares de direitos.
Reação do Setor Criativo
O tom da resposta foi contundente: “Nenhum código seria melhor do que essa versão falha.” As organizações que assinaram o documento alertam que o código, ao invés de orientar a conformidade, serve como um disfarce para o descumprimento das obrigações legais por parte dos grandes desenvolvedores de IA.
O texto da carta foi assinado por um amplo leque de organizações de diversos setores culturais e criativos, incluindo:
- CISAC (Confederação Internacional de Sociedades de Autores e Compositores)
- IFPI (Federação Internacional da Indústria Fonográfica)
- ECSA (Aliança Europeia de Compositores e Autores)
- EFJ (Federação Europeia de Jornalistas)
- FEP (Federação dos Editores Europeus)
- FIA (Federação Internacional de Atores)
- FIM (Federação Internacional de Músicos)
- FERA (Federação de Diretores de Cinema da Europa)
- SAA (Sociedade de Autores Audiovisuais)
- GESAC (Grupo Europeu das Sociedades de Autores e Compositores)
- CEPI, CEATL, BIEM, AEPO-ARTIS, EWC, entre outras.
Essas entidades representam milhões de criadores, de músicos e autores a jornalistas e cineastas, que dependem do reconhecimento de seus direitos para garantir sua remuneração e sua sustentabilidade profissional.
Um Chamado por Revisão
Além de apontar os problemas, a carta aberta propõe soluções claras e factíveis. As entidades pedem que o Código de Boas Práticas:
- Estabeleça obrigações objetivas e vinculativas para GPAIs.
- Exija a apresentação de um resumo detalhado dos conteúdos utilizados nos treinamentos.
- Reconheça e respeite todos os métodos legítimos de reserva de direitos.
- Garanta um mecanismo efetivo de reclamação e resolução de conflitos.
- Reforce que a legislação europeia se aplica a qualquer GPAI operando no território da UE, independentemente de onde o modelo foi desenvolvido ou treinado.
Cultura e Tecnologia: Não Há Inovação Sem Responsabilidade
A revolução da inteligência artificial representa uma virada de chave no modo como criamos, consumimos e distribuímos conteúdo. No entanto, sem um marco claro que assegure o respeito aos direitos dos criadores, o setor cultural corre o risco de se tornar apenas fornecedor involuntário de matéria-prima para algoritmos.
A terceira minuta do GPAI Code of Practice, em vez de construir uma ponte entre tecnologia e cultura, ameaça esvaziar a proteção legal conquistada pelos criadores ao longo de décadas. Diante disso, a resposta das entidades europeias é não apenas legítima, mas urgente.
O debate agora está nas mãos das instituições europeias, que terão de decidir: a União Europeia vai liderar uma IA ética e responsável — ou permitirá que os interesses corporativos passem por cima de seus próprios princípios legais e culturais?
Lucas Oliveira – Relações Internacionais