A Meta, big tech responsável por plataformas como Facebook, Instagram e WhatsApp, divulgou nesta quinta-feira (12/12) uma nota em que manifesta preocupação com as discussões no Supremo Tribunal Federal (STF) sobre a constitucionalidade do artigo 19 do Marco Civil da Internet. “Nenhuma grande democracia no mundo jamais tentou implementar um regime de responsabilidade para plataformas digitais semelhante ao que foi sugerido até aqui no julgamento no STF”, disse a empresa sobre as discussões no STF.

Até agora, dois ministros votaram no sentido da inconstitucionalidade do texto, Dias Toffoli e Luiz Fux. O julgamento será retomado na próxima quarta-feira (18/12), após pedido de vista do presidente Luís Roberto Barroso. Nos votos proferidos, os ministros manifestaram-se no sentido de que plataformas têm o dever de remover certos tipos de conteúdo antes de ordem judicial, considerando determinados parâmetros.

O artigo 19 estabelece que plataformas só podem ser responsabilizadas por conteúdos de terceiros caso não os removam após uma ordem judicial, o que foi definido pela Meta como um marco de equilíbrio entre liberdade de expressão e responsabilidade. Segundo a Meta, o modelo atual é reconhecido internacionalmente e serve de referência para legislações de outros países, como o DSA na União Europeia e a Seção 230 nos Estados Unidos.

Para a companhia, declarar o artigo 19 inconstitucional pode trazer “incertezas jurídicas” e colocar o Brasil em posição “dissonante da comunidade internacional”. A empresa aponta que um regime de responsabilização mais amplo incentivaria plataformas a remover conteúdos de forma preventiva, mesmo que estes não violem as leis ou os padrões das comunidades.

“As plataformas poderiam ser responsabilizadas por conteúdos que não removem, mas também poderiam ser penalizadas por remover conteúdos de acordo com seus padrões de comunidade”, segundo a empresa.

Outro ponto levantado pela big tech é o impacto no sistema judiciário brasileiro. A implementação de um sistema amplo de notificação e remoção combinado com a responsabilização objetiva, segundo a empresa, “provavelmente sobrecarregaria o Judiciário, com usuários dispostos a litigar mais sobre tópicos subjetivos”.

“Temos uma longa história de diálogo e colaboração com as autoridades no Brasil, incluindo o Judiciário”, afirmou a Meta na nota. A empresa também disse apoiar a atualização das regras da internet, desde que sejam criadas “diretrizes claras para enfrentar os desafios mais substanciais da sociedade”.

A Meta é recorrente em um dos casos julgados pelo plenário do STF. A ação, que começou a tramitar em 2015, envolve uma dona de casa que descobriu a existência de um perfil falso em seu nome no Facebook, que era utilizado para ofender outras pessoas. Ela nunca teve cadastro na rede social e, ao tomar conhecimento do perfil falso, acionou a Justiça para sua remoção e solicitou indenização por danos morais.

Em primeira instância, a mulher conseguiu a exclusão do perfil e o fornecimento do endereço IP utilizado para sua criação, mas não o pedido de indenização. Em recurso, a decisão foi reformada, condenando o Facebook ao pagamento de R$ 10 mil por danos morais. A 2ª Turma Recursal Cível de Piracicaba entendeu que condicionar a retirada do perfil falso apenas após ordem judicial específica isentaria os provedores de responsabilidade, contrariando o Código de Defesa do Consumidor e a Constituição Federal.

A Meta recorreu ao STF, questionando a decisão e defendendo a constitucionalidade do Artigo 19 do Marco Civil da Internet, que exige ordem judicial prévia para a responsabilização civil de provedores por conteúdos de terceiros. Empresas de tecnologia argumentam que permitir a exclusão de conteúdo sem análise judicial prévia poderia levar à censura por parte de empresas privadas, em desacordo com a liberdade de expressão garantida pela Constituição. O STF reconheceu a repercussão geral no tema 987.

COMENTAR