O Supremo Tribunal Federal (STF) começará a julgar na próxima quarta-feira (27) duas ações que podem afetar drasticamente a liberdade de expressão nas redes sociais e na internet. Os ministros vão analisar a constitucionalidade do artigo 19 do Marco Civil da Internet, que estabelece que as plataformas só podem ser responsabilizadas na Justiça por conteúdos ofensivos postados pelos usuários caso descumpram uma ordem judicial de removê-los. Em setembro, o governo Lula, por meio da Advocacia-Geral da União (AGU), enviou ao STF uma proposta para obrigar as redes sociais, sem necessidade de decisão judicial, a adotar um “dever de precaução” e remover conteúdos, canais, perfis ou contas que publicarem conteúdos que violem “direitos da criança e adolescente, a integridade das eleições, a defesa do consumidor, e a prática de ilícitos penais, desinformação e outras situações que importem em violação à legislação”.
Essa regra foi aprovada na lei de 2014 justamente com o objetivo de assegurar a liberdade de expressão e impedir a censura na internet. A ideia era impedir que alguém que se sentisse ofendido por alguma publicação pudesse pressionar a rede social ou site a retirar aquele conteúdo a partir de um pedido direto à plataforma. No limite, as empresas de tecnologia poderiam ser pressionadas a remover críticas legítimas e lícitas a partir desses pedidos.
O próprio Marco Civil da Internet estabeleceu duas exceções a essa regra, no sentido de obrigar as plataformas a remover conteúdo a partir de uma notificação direta das partes afetadas, sem necessidade de decisão judicial: em caso de divulgação de cenas de nudez ou sexo sem autorização da pessoa envolvida; ou em caso de violação de direitos autorais.
O órgão utilizou uma definição da União Europeia para caracterizar a desinformação: “qualquer forma de informação falsa, imprecisa ou enganosa que seja criada, apresentada e promovida com a intenção deliberada de causar danos públicos ou obter lucros”. Para definir discurso de ódio, a AGU recorreu ao conceito das Nações Unidas: “qualquer tipo de comunicação oral, escrita ou comportamento, que ataca ou usa linguagem pejorativa ou discriminatória com referência a uma pessoa ou grupo com base em quem eles são, ou seja, com base em sua religião, etnia, nacionalidade, raça, cor, descendência, gênero ou outro fator identitário”.
Argumentou que, com essa proposta, a moderação de conteúdo pelas plataformas seria mais efetiva para preservar direitos fundamentais. “Longe de representar uma ameaça à liberdade de expressão, ela reforça a integridade das informações veiculadas no mundo virtual, contribuindo para a proteção dos direitos fundamentais, do regime democrático e da própria liberdade de expressão”, escreveu na manifestação o advogado-geral da União, Jorge Messias.
O que dizem as empresas de tecnologia no STF sobre a regulamentação
“A obrigação de remover conteúdos em atendimento a demandas de terceiros, sob pena de responsabilização, poderia ser utilizada para silenciar vozes dissidentes, censurar opiniões legítimas ou simplesmente remover conteúdos em nome de interesses comerciais ou políticos, sem a devida verificação da ilicitude”, afirmou a rede social, ao argumentar a favor de preservar a atual regra do Marco Civil da Internet, que delega à Justiça o papel de verificar o que é ou não ilícito e o que deve ou não ser removido. Do contrário, esse julgamento ficaria a cargo de particulares, entes privados, ou até mesmo das próprias plataformas.
“Nos casos em que há disputas sobre a veracidade ou a conveniência do conteúdo, o que pode incluir debates legítimos, críticas ou opiniões (inclusive as mais ácidas), é essencial que o Judiciário permaneça como mediador imparcial. Ele garantirá que os direitos à livre manifestação e informação sejam protegidos contra remoções arbitrárias ou abusivas.”
O Facebook ainda argumentou que a proposta do governo, de obrigar a remoção de conteúdos com “violação à legislação”, usa um termo muito aberto. “Flexibilizações desse tipo podem gerar um efeito inibitório sobre a liberdade de expressão (chilling effect), com plataformas digitais removendo conteúdos de maneira excessivamente cautelosa para evitar possíveis responsabilidades legais, o que, na prática, equivaleria a uma forma de censura privada.”