A Meta, dona do Facebook, Instagram e WhasApp, divulgou uma nota na qual manifesta preocupação com os rumos do julgamento da constitucionalidade do Marco Civil da Internet, que entrou em pauta no Supremo Tribunal Federal (STF) na semana passada.
Os ministros que já se manifestaram defendem uma “nova” regulação das redes — esse regramento já foi estabelecido pelo Marco Civil na Lei Federal 12.964/2014. Na ocasião, ficou estabelecido, no artigo 19, que as plataformas só serão responsabilizadas por conteúdo de terceiro se não o retirarem depois de decisão judicial.
Dos votos apresentados até agora e dos debates, ficou claro que os ministros acham que o artigo 19 deve ser considerado inconstitucional e o entendimento é de que as plataformas deveriam retirar do ar qualquer conteúdo entendido como “fake news” ou que contenha “discurso de ódio”.
Se isso ocorrer, diz a Meta, na nota, “as plataformas digitais seriam sujeitas a um regime amplo de notificação e remoção e, ao mesmo tempo, poderiam ser responsabilizadas por praticamente todos os tipos de conteúdo mesmo sem que tenham sido notificadas”.
A empresa de Mark Zuckerberg lista as consequências da eventual mudança na lei da internet:
- As plataformas seriam incentivadas a remover conteúdos subjetivos que não necessariamente violam leis locais ou regras das plataformas, em um esforço preventivo para evitar responsabilidade;
- As plataformas poderiam ser responsabilizadas por conteúdos que não removem, mas também poderiam ser penalizadas por remover conteúdos de acordo com seus padrões de comunidade que foram aceitos pelos usuários ao criarem suas contas.
- A combinação de um sistema amplo de notificação e remoção com responsabilidade objetiva provavelmente sobrecarregaria o Judiciário, com usuários dispostos a litigar mais sobre tópicos subjetivos como difamação sobre os quais haverá expectativa de que as plataformas tomem medidas.
A Meta afirma que nenhuma grande democracia, como União Europeia, Alemanha e Estados Unidos, usa modelo como o que pode ser implantado no Brasil, pelo STF, de responsabilização das plataformas para retirar do ar qualquer conteúdo supostamente inverídico ou agressivo.
“Temos uma longa história de diálogo e colaboração com as autoridades no Brasil, incluindo o Judiciário. Mas nenhuma grande democracia no mundo jamais tentou implementar um regime de responsabilidade para plataformas digitais semelhante ao que foi sugerido até aqui no julgamento no STF”, explica a Meta. “Não é o caso do regime previsto na Lei dos Serviços Digitais (DSA, na sigla em inglês) na União Europeia, nem no NetzDG na Alemanha ou na Seção 230 do Communications Decency Act (CDA) nos Estados Unidos”, listou.
A Meta também afirma que as plataformas, de maneira geral, já adotam medidas para barrar conteúdos nocivos, como violência, incitação e abuso infantil. “Na Meta, usamos tecnologia automatizada e revisão humana para identificar e agir sobre conteúdos que violam essas políticas.”