Por Marco Arenhart, para Desacato.info.
Com a aprovação da urgência para o Projeto de Lei 2630/2020, da ‘Liberdade, Responsabilidade e Transparência na Internet’, conhecido como Lei das ‘Fake News’, a matéria irá à votação no plenário sem passar pela discussão nas comissões da Câmara. Isso pode acontecer a qualquer momento, a partir da próxima terça-feira, dia 02 de maio.
A maioria das pessoas entende que o ambiente tóxico criado pela desinformação e informações nocivas circulando pelas plataformas de Internet tornam a aprovação de uma legislação regulatória urgente. Passando pela ameaça ao estado de direito e chegando a absurdos como o negaciosismo da ciência na saúde e até mesmo ameaça à vida das crianças nas escolas, chegou o momento em que a sociedade precisa reagir a este processo desagregador. O crescimento vertiginoso das Ais, gerando textos e imagens em velocidade inimagináveis, piora ainda mais este cenário, projetando um cenário quase apocalíptico de pós verdade.
No entanto, o PL 2630, na forma do substitutivo recém apresentado, está longe de ser um consenso. A aprovação da urgência fez aflorar um debate intenso sobre o melhor rumo para a imposição de freios à desinformação.
Como era de se esperar, este debate também está sendo crivado de desinformação e má informação que tem dificultado ainda mais a discussão de um tema que é naturalmente complexo e difícil.
Não vou abordar aqui os argumentos contra o projeto feitos pelo bolsonarismo e outros setores de direita porque, pasmem, se baseiam quase exclusivamente em ‘fake news’. Quem tiver paciência ou quiser se divertir um pouco, recomendo o estudo feito pelo NetLab da UFRJ (1).
Vou tentar neste artigo sintetizar o que entendo como os pontos principais do substitutivo proposto pelo relator do projeto, Orlando Silva, e as principais críticas feitas por entidade da sociedade civil que debatem o tema já a longo tempo, além de posições manifestadas pelas principais plataformas (Meta, Alphabet).
Quadro comparativo dos principais pontos do PL2630, com o posicionamento de entidades da sociedade civil e das Plataformas de serviços.
/posição
Tema |
Substitutivo apresentado em 27/04 (2) | Sociedade Civil(3) | |
A quem se aplica (Art. 2) | Provedores (redes sociais, ferramentas de busca e mensageria) com mais de 10 milhões de usuários. As plaraformas alcançadas pela lei seriam: 1. WhatsApp (169 mi)2. YouTube (142 mi)3. Instagram (113 mi)4. Facebook (109 mi)5. TikTok (82 mi)6. LinkedIn (63 mi)7. Messenger (62 mi)8. Kwai (48 mi)9. Pinterest (28 mi)10. Twitter (24 mi), Telegrame o Google. | ||
Responsabilização dos provedores (Art. 6) | Por conteúdos impulsionados e descumprimento do dever de cuidado. | As plataformas devem ser corresponsáveis por qualquer conteúdo patrocinado. | Pode ter efeito inverso no combate a conteúdo nocivo, além de criar uma indústria de compensação, em vez de prevenção, sobrecarregando o sistema judiciário. |
Avaliação de riscos sistêmicos (Art. 7) | Pelos provedores, anualmente ou em alterações significativas. Difusão de ilícitos, ameaça à liberdade de expressão, misoginia, racismo, ameaça a criança e adolescente, ameaça ao estado de direito, ameaça a proteção de dados sensíveis. | Devem ser incluídos, nas diretrizes, a violência política e a desinformação socioambiental | |
Respostas aos riscos sistêmicos (Arts 8, 9, 10 e 12) | Pelos próprios provedores, pela moderação e algoritmos. Por solicitação, devem fornecer dados relativos aos riscos. Em caso de risco eminente, será instaurado protocolo de segurança por 30 dias. Nesta situação, os provedores serão responsabilizados civilmente por conteúdo de terceiros quando tiverem conhecimento prévio. | A avaliação e acompanhamento da resposta aos riscos sistêmicos deve ser acompanhada pela agência reguladora própria. | |
Dever de cuidado. (Art. 11) | Provedores se autorregulam para prevenir crimes: contra estado de direito; atos de terrorismo; induzimento ao suicídio; contra criança e adolescente; racismo; violência contra a mulher; infração sanitária. | O Judiciário é o caminho prioritário para definição de conteúdo ilegal, sendo necessário definir processos rápidos de remoção de conteúdo. | Transfere para as plataformas, entes privados, a decisão sobre ilegalidade de conteúdo, que é prerrogativa do Judiciário. O dever de informar suspeitas de crime transforma as plataformas e ‘polícia da Internet’, criando um sistema de vigilância permanente. |
Moderação de conteúdo (Art. 17 e 18) | Aplica-se a moderação pelos termos de uso, para conteúdo impulsionado ou publicidade. O provedor deve dar publicidade e identificar as ações de moderação | As plataformas não devem ter poder de decidir que conteúdo é nocivo. | |
Transparência de termos de uso e algoritmos de recomendação (Art. 20, 21 e 22) | O Provedor deve facilitar acesso aos termos de uso, bem como os parâmetros utilizados pelo sistema de recomendação (descrição geral do algoritmo, parâmetros da recomendação e opções disponíveis para modificação). A Lei Preserva o segredo comercial sobre o algoritmo. Provedores que usam mecanismo de recomendação por dados pessoais devem permitir opções para os usuários (Art. 21§2º (?)) | É necessário aprofundamento dos processos de transparência, particularmente nas atividades de moderação e atuação dos algoritmos, monetização e impulsionamento. Possibilitar intervenção do usuário no sistema de recomendação no qual é destinatário. | |
Relatórios de transparência (Art. 23) | Semestrais, sobre procedimentos de moderação de conteúdo e ações adotadas para moderar conteúdo ilegal. Será regulado posteriormente. | Disponibilização das informações por meio de API de extração de dados. | |
Auditoria externa (Art. 24) | Realizada anualmente, para verificar cumprimento do dever de cuidado e eficiência das medidas de prevenção, bem como ausência de viés na moderação de conteúdo e confiabilidade e impacto do algoritmo. Os auditores externos devem ser independente dos provedores. | Plataformas devem prover acesso amplo e gratuito aos dados, para investigação acadêmica e pela sociedade civil, em conformidade com a LGPD. Auditorias externas devem ser públicas. | |
Publicidade digital (Art. 26 a 30) | Deve ser identificada e o responsável pelo impulsionamento. Relatórios semestrais de todos conteúdos impulsionados. | Buscar uma maior regulação de conteúdo publicitário (impulsionado), identificando e rotulando tais conteúdos. Buscar simetria com a regulação do CONAR. | Ao tornar as plataformas corresponsáveis, torna a propaganda online mais restrita, burocrática, o que aumentará custos, prejudicando micro e pequenos negócios. |
Direitos do autor (Art. 31) | Conteúdos protegidos pelo direito de autor ensejam remuneração pelo provedor. O exercício deste direito se dá pela associação respectiva. | É necessário diferenciar o direito autoral de conteúdos não-jornalisticos. | Tema não tem relação com o combate a desinformação. Não define direito autoral para conteúdo gerado por usuário. A abordagem rompe com práticas internacionais e não haveria como viabilizar de forma sustentável pelas plataformas. |
Conteúdos jornalísticos (Art. 32) | Conteúdos usados pelos provedores ensejam remuneração às empresas jornalísticas. Provedor e empresa poderão pactuar livremente valores. Regulamentação posterior definirá mecanismos de equidade e arbitragem para aferição de valores e resolução de conflitos (quem fará a arbitragem?) | A definição de veículos jornalísticos deve ser protegida das visões políticas dos detentores das plataformas e dos governos. Combater os desertos jornalísticos e proteção do jornalismo independente e cooperativo. Esta discussão não pode ser dissociada da regulamentação da comunicação. | Cria ambiente incerto e insustentável para as plataformas. A falta de definição de ‘conteúdo jornalístico’ pode levar as plataformas a remunerar a desinformação e sustentar grupos de mídia tradicional, fomentando a concentração da informação. Propõe, como alternativa, a criação de um fundo de inovação do jornalismo, com contribuição das plataformas. |
Atuação do poder público (Art. 33) | Contas de agentes públicos (interesse público, detentores de mandato eletivo, ministros e secretários, etc) não podem bloquear visualizações e estarão protegidas de intervenção abusiva por parte dos provedores.
A imunidade parlamentar se estende aos conteúdos dos agentes públicos (paragrafo 6º ) |
Contas não podem sofrer limitações, mas devem ter o direito de moderar comentários em seus perfis, com conteúdos nocivos ou ilegais. Contas de detentores de mandato, pela alta visibilidade, devem ser submetidas às mesmas regras dos demais usuários, sob pena de ineficácia da lei. | |
Fomento a educação(Art. 38) | Educação digital articulada com o PNED | ||
Mensageria Instantânea (Art. 41, 42 e 43) | Limitar a distribuição em massa, desabilitar a inclusão automática em listas e criação de um código de conduta para regulação.
“Art. 42. Ordem judicial poderá determinar aos provedores de mensageria instantânea que preservem e disponibilizem informações suficientes para identificar a primeira conta denunciada por outros usuários quando em causa o envio de conteúdos ilícitos. “ As informações suficientes para identificar a primeira conta denunciada. Contas comerciais devem ser identificadas para impulsionamento. |
||
Investigação judicial (Art. 44, 45 e 46) | “Art. 46: os provedores deverão guardar: (…) II- os respectivos dados de acesso à aplicação, como o registro de acesso, endereço de protocolo de internet, incluindo as portas de origem, além de dados cadastrais, telemáticos, outros registros e informações dos usuários que possam ser usados como material probatório “ | ||
Regulação dos provedores (Art. 51 e 52) | O Comitê Gestor da Internet (CGI.br) irá propor diretrizes sobre liberdade, responsabilidade e transparência; propor diretrizes para o combate a desinformação nas redes sociais; elaborar diretrizes e validar o código de conduta dos provedores; estabelecer diretrizes para os procedimentos de moderação e termos de uso; publicar relação de provedores enquadrados no art. 2º ; definira diretrizes para análise dos riscos sistêmicos e protocolos de segurança.
Os provedores elaboram seus códigos de condutas a partir das diretrizes definidas pelo CGI-br. |
||
Alteração do Marco Civil da Internet (lei 12965/2014) (Art. 54 e 55) | Altera Art. 13 do MCI, para autorizar guarda de dados pessoais cadastrais.
Altera o art. 19 (responsabilidade do provedor sobre conteúdo de terceiros), criando exceções para o que é previsto na nova lei (art. 6º – conteúdos impulsionados ou descumprimento da obrigação de cuidado durante risco sistêmico) |
Tem reservas à alteração do art. 19 do Marco Civil da Internet | |
Criação de um órgão regulador para fiscalização da aplicação da norma. | Retirado do substitutivo. | Entende ser absolutamente essencial a criação de um órgão regulador independente, autônomo, multissetorial e com participação social. A constituição de um órgão regulador estatal e a atribuição das responsabilidades a um órgão preexistente seria negativa. |
De minha parte vejo que a proposta deste PL e as manifestações dos atores sociais envolvidos estão aquém do que precisa ser regulamentado para dar uma responta ao fenômeno da desinformação. Falta o entendimento que o espaço da camada de aplicação e consequentemente todos os provedores de serviços(redes sociais, mensageria, busca) ocupam um espaço público de convivência social.
Portanto, não devem ser legislados como negócios de empresas privadas, mas como concessões públicas e sujeitas às regras como temos atualmente para concessões de rádio e televisão e para bens públicos onde o Estado não consegue atender. Falta também o estabelecimento de objetivos de fomento à adoção de soluções em código aberto, a única forma de garantir a real transparência e auditabilidade.
Penso que seja inegociável a existência de entidades reguladoras que representem não apenas governos e empresas, mas majoritariamente a sociedade civil. Creio que seja fundamental o papel do judiciário como arbitro dos conflitos, mas com a velocidade e compreensão técnica que hoje não existe. Seria necessário a criação de uma justiça especializada, voltada para o tema. Um projeto de combate a fake news hoje precisa também, no mínimo, apontar instrumentos para contenção dos efeitos do uso indiscriminado de Inteligencia Artificial.
Bom, deixando a utopia um pouco de lado, o fato concreto é que temos uma decisão importante prestes a ser tomada. Temos de optar se o melhor é termos agora alguma regulamentação, mesmo que imperfeita, mas que possa estabelecer um limite mínimo a desinformação; ou e melhor amadurecer e buscar uma legislação melhor, pois a reforma da lei apos aprovada pode ser incerta e demorada.
O fato é que o rumo que o debate está seguindo não parece bom.
Por um lado, tencionam interesses econômicos, principalmente entre as plataformas e os grandes conglomerados de comunicação tradicional. Por outro, muitos setores da mídia alternativa e popular começam a manifestar a preocupação de que sejam marginalizados neste processo de regulamentação. Além disso, a preocupação legítima de que a legislação acabe tendo um viés vigilantista e restritivo da livre comunicação.
Hoje, vemos muitos atores que apoiam o governo Lula adotarem uma posição muito crítica a alguns pontos do projeto, que de fato não são os essenciais para uma politica de combate a desinformação.
Quando foi realizada a audiência pública promovida pelo STF sobre a constitucionalidade do artigo 19 do Marco Civil da Internet, os representantes do governo e seus afins se posicionaram como ‘neutros’. Esta postura pouco ajuda na discussão porque joga em favos dos atores com mais poder politico, que não são os do campo popular.
Neste emaranhado de interesses afetados pela regulamentação das plataformas, será fundamental um grande esforço de negociação e composição, inclusive com concessões no que não for essencial, para uma ampla defesa do projeto. Se não o fizermos, será o pior dos cenários, pois há a possibilidade real de rejeição do projeto e, consequentemente, voltarmos a estaca zero de um tema que não pode esperar.
Para a construção de uma unidade no campo popular em defesa do projeto, os defensores do PL 2630 deveriam buscar um acordo em torno das seguintes posições:
- Reafirmar a criação de um novo órgão regulador, independente, autônomo, multissetorial e com participação social;
- Retirar os artigos 31 e 32, remetendo o tema para o debate sobre regulamentação da comunicação;
- Retirar o paragrafo 6º do artigo 33, remetendo para uma discussão específica sobre negociação de remuneração de conteúdo.
Espero com esta contribuição melhorar o entendimento sobre o debate, fugindo do paradoxo de desinformações em que o tema acabou se embrenhando.
(1) https://www.netlab.eco.ufrj.br/blog/estudo-da-campanha-contra-o-pl-2630-e-regulamentacao-das-plataformas-digitais
(2) https://www.camara.leg.br/proposicoesWeb/prop_mostrarintegra?codteor=2265334
(3) https://desinformante.com.br/sociedade-civil-regulacao/
(4) https://revistaforum.com.br/ciencia-e-tecnologia/2023/4/29/meta-dona-do-facebook-instagram-ataca-pl-das-fake-news-antidemocratico-135089.html
(5) https://blog.google/intl/pt-br/novidades/iniciativas/pl2630-futuro-jornalismo/
Marco Arenhart é analista de sistemas, cofundador do Portal Desacato e da Cooperativa Comunicacional Sul e membro do Fórum pela Democratização da Comunicação.