Corgarashu - stock.adobe.com

Como as big techs terão de se adaptar à responsabilidade sobre conteúdos no Marco Civil da Internet

Políticas de moderação e remoção de conteúdo até canais de atendimentos precisam ser revistos. A decisão do STF vai abrir margem para o condicionamento da liberdade de expressão e a segurança jurídica de plataformas como redes sociais, marketplaces e buscadores.

Com a tese firmada no 26 de Junho pelo Supremo Tribunal Federal (STF), o Artigo 19 do Marco Civil da Internet foi considerado parcialmente inconstitucional no que se refere à responsabilidade civil aos provedores de aplicação de internet, por 8 de 11 ministros da última instância do poder judiciário brasileiro.

Dessa forma, como as big techs terão de ficar atentas para se adaptar às novas diretrizes? Além das adaptações técnicas, as big techs precisarão mudar suas políticas de moderação e remoção de conteúdo.

O STF exige dos provedores de aplicação a edição de normas de autorregulação, o que impõe que alterem suas políticas e termos de uso, para tornar público como será feita a moderação e remoção de conteúdo, quais critérios serão utilizados, meios de formalização de denúncias, entre outros requisitos necessários para adequação da atividade à decisão do STF.

Os termos de uso e as políticas de privacidade das plataformas, uma vez aceitas pelo usuário, fazem lei entre as partes e criam direitos e obrigações recíprocos, então é necessário que haja clareza quanto à atividade moderadora que será realizada.

Os provedores de aplicação terão que manter canais de atendimento para recebimento de denúncias, e órgãos internos para apuração e análise das denúncias e do conteúdo das postagens realizadas.

Além disso, para os casos de crimes graves, como tentativa de golpe de Estado, racismo, terrorismo ou instigação ao suicídio, por exemplo, o STF exige uma conduta mais ativa de identificação e remoção de conteúdos, estabelecendo responsabilidade das plataformas em caso de falha sistêmica nessa identificação e em caso de violação do dever de atuar com cautela. As plataformas terão que investir em recursos humanos e tecnológicos capazes de identificar rapidamente esse tipo de crimes.

Liberdade de expressão e insegurança jurídica

A decisão do STF também vai abrir margem para o condicionamento da liberdade de expressão e a segurança jurídica de plataformas como redes sociais, marketplaces e buscadores.

A atividade dos provedores de aplicação passa a gerar um risco maior que antes de responsabilidade civil perante usuários. O fato de o STF ter definido que alguns tipos de conteúdo ilícito de terceiros devem ser removidos pelo provedor sem necessidade de decisão judicial coloca a plataforma na posição de “juiz” da questão, com todos os problemas que isso causa.

O risco de insegurança jurídica também é iminente, porque cada provedor pode ter um entendimento e um critério diferente sobre o que é lícito e do que é ilícito, e a decisão de remover ou não um conteúdo sempre gerará insatisfação na parte prejudicada (ou o gerador do conteúdo ou a pretensa vítima), a qual sempre poderá levar a discussão ao Judiciário.

Já o risco à liberdade de expressão surge porque o provedor de aplicação, nesse papel de moderador das questões relacionadas ao conteúdo gerado por terceiro, pode se sentir forçado a remover determinado conteúdo em razão de alguma denúncia, ainda que a considere infundada, apenas para se eximir de eventual responsabilidade civil por danos causados por aquele conteúdo.

Isso pode levar à formalização de denúncias maliciosas com o objetivo único de impedir a veiculação de conteúdo contrário a seus interesses (políticos, por exemplo), o que sem dúvida violaria a livre manifestação do pensamento nas redes sociais, que hoje têm grande alcance público.

Sobre o autor: Aloísio Costa Jr. sócio do Ambiel Advogados e pós-graduando em Direito Digital pela FGV/SP. Bacharel em Direito pela USP e pós-graduado em Direito Processual Civil pela FGV/SP. Possui atuação na área de Mídia e Entretenimento.

Saiba mais sobre Privacidade e proteção de dados