O Supremo Tribunal Federal (STF) começará a julgar na próxima quarta-feira (27) duas ações que podem afetar drasticamente a liberdade de expressão nas redes sociais e na internet. Os ministros vão analisar a constitucionalidade do artigo 19 do Marco Civil da Internet, que estabelece que as plataformas só podem ser responsabilizadas na Justiça por conteúdos ofensivos postados pelos usuários caso descumpram uma ordem judicial de removê-los.
Essa regra foi aprovada na lei de 2014 justamente com o objetivo de assegurar a liberdade de expressão e impedir a censura na internet. A ideia era impedir que alguém que se sentisse ofendido por alguma publicação pudesse pressionar a rede social ou site a retirar aquele conteúdo a partir de um pedido direto à plataforma. No limite, as empresas de tecnologia poderiam ser pressionadas a remover críticas legítimas e lícitas a partir desses pedidos.
Por isso, o caminho escolhido foi delegar esse julgamento ao Judiciário, que, ouvindo a defesa de quem postou aquele conteúdo, verificaria se ele deveria ser preservado, em respeito à liberdade de expressão do emissor, ou se sua mensagem configurava um crime (como injúria, difamação e calúnia) e, por isso, deveria ser removida, em respeito à honra da pessoa afetada.
O próprio Marco Civil da Internet estabeleceu duas exceções a essa regra, no sentido de obrigar as plataformas a remover conteúdo a partir de uma notificação direta das partes afetadas, sem necessidade de decisão judicial: em caso de divulgação de cenas de nudez ou sexo sem autorização da pessoa envolvida; ou em caso de violação de direitos autorais.
Passados 10 anos da lei, o que se discute agora é a ampliação dessas hipóteses excepcionais. De lá para cá, parte do Judiciário, da academia e do atual governo passaram a considerar que as plataformas também deveriam remover, a partir de provocação direta, conteúdos ofensivos que configurem crimes de discriminação e racismo, pornografia e abuso infantil.
Mas, dentro dessas exceções, há pressão, principalmente de ministros e políticos, para retirada imediata de conteúdos mais subjetivos, como “discurso de ódio”, “desinformação” e “ataques às instituições”. O temor de defensores da liberdade de expressão é que conteúdo crítico, legítimo e lícito às autoridades seja propositalmente confundido ou transformado em crimes contra o Estado Democrático de Direito e, com isso, seja censurado sumariamente.
A pressão pela remoção desses conteúdos subiu nos últimos anos, principalmente por iniciativa do STF, a partir do momento em que os ministros, seus atos, declarações e decisões passaram a ser criticados de forma dura e massiva nas redes sociais. Inicialmente por causa do desmonte da Lava Jato e depois pela oposição da Corte ao governo do ex-presidente Jair Bolsonaro (PL).
O inquérito das fake news, aberto em 2019, e outras diversas investigações que ele originou, delegadas a Alexandre de Moraes por seus colegas, foram a forma encontrada para combater não apenas ameaças e ofensas aos ministros, mas também serviram de instrumento para inibir os críticos. Entre os primeiros alvos estavam um procurador da Lava Jato e a revista Crusoé; a partir de 2020, políticos ligados a Bolsonaro, e depois ele mesmo, viraram alvo das investigações.
As manifestações de rua contra a Corte, ocorridas por incentivo de Bolsonaro desde 2020, fermentaram o anseio dos ministros por uma atualização do Marco Civil da Internet. Para eles, boa parte das críticas eram alimentadas nas redes sociais, com mentiras, distorções e ameaças. Em 2020, após vários apelos nesse sentido, nasceu no Congresso o Projeto de Lei 2630, também conhecido como PL das Fake News ou PL da Censura.
A versão inicial, do Senado, mais enxuta, buscava definir e coibir a desinformação na internet. Na Câmara, o texto foi desenvolvido e passou a estabelecer regras e procedimentos para que as redes sociais adotassem políticas de combate a “riscos sistêmicos” – nome dado à disseminação maciça de publicações nas redes que pudessem configurar crimes contra o Estado Democrático de Direito; atos de terrorismo ou preparatórios; induzimento a suicídio; incitação à prática de crimes contra crianças; racismo; violência contra a mulher; e infração sanitária.
Contra isso, as plataformas deveriam adotar um “dever de cuidado”, nome dado a um conjunto de providências para remover, reduzir o alcance e coibir a viralização desses conteúdos. Teriam de provar essa obrigação com relatórios periódicos de transparência e demonstração das medidas adotadas; caso contrário, poderiam ser punidas por um órgão regulador do governo. No ano passado, a cúpula da Câmara tentou aprovar o projeto, mas a pressão contrária da sociedade e das plataformas digitais, por risco de censura, fez a Casa recuar, em razão do receio de derrota na votação.
Em 2022, a desconfiança contra as urnas eletrônicas, semeada por Bolsonaro e seus aliados, principalmente por meio das redes, fez o TSE adotar uma regulamentação própria com a finalidade de preservar o processo eleitoral; na prática, os ministros acabaram usando a resolução para coibir propagandas duras contra Luiz Inácio Lula da Silva, sob a alegação de que teriam “fatos sabidamente inverídicos” ou “gravemente descontextualizados”.
Em 2023, a invasão e depredação do STF, do Palácio do Planalto e do Congresso por eleitores de Bolsonaro revoltados com a condução do processo eleitoral pelo TSE fez os ministros do STF pressionarem ainda mais o Congresso por uma nova regulamentação das redes. O governo Lula juntou-se a isso, principalmente na figura do ex-ministro da Justiça Flávio Dino, hoje integrante do STF. Ainda assim, o PL da Censura foi rejeitado. Agora, a regulamentação virá via STF.
O recente atentado a bomba em frente à Corte deu ainda mais força aos ministros que defendem um controle maior sobre o que trafega nas redes, especialmente porque o autor dos ataques sinalizou nelas que iria fazer algo contra o tribunal.
0 Comentários
Obrigado pela sugestão.