
putilov_denis - stock.adobe.com
Novas obrigações ampliam a responsabilidades das plataformas digitais pela veiculação de conteúdos
Ao declarar parcialmente inconstitucional o art. 19 do Marco Civil da Internet, o STF mudou de forma substancial os critérios para responsabilização dessas empresas pelos conteúdos veiculados por terceiros, segundo o Martinelli Advogados.
A decisão do Supremo Tribunal Federal (STF), tomada por maioria no dia 26 de junho, de declarar a inconstitucionalidade parcial do artigo 19 do Marco Civil da Internet (lei 12.965/2014), mudou substancialmente a lógica aplicada até então ao tema, ao fixar novos parâmetros para a responsabilização civil de plataformas digitais por conteúdos gerados por terceiros, segundo avaliação do Martinelli Advogados, um dos maiores escritórios de advocacia do País.
A mudança incluiu novos parâmetros de responsabilização de plataformas, provedores e sites por conteúdos veiculados, incluindo aqueles impulsionados por robôs ou sistemas automatizados, bem quanto critérios de responsabilização das plataformas em casos de crimes graves, incluindo a obrigação de agir frente a falhas sistêmicas. Outro ponto relevante é a obrigação de constituição de sede e representante legal no Brasil por parte dessas empresas. Também se destaca o fato de que marketplaces passam a ser responsáveis civilmente por conteúdos de terceiros veiculados em seus canais.
Anteriormente, o artigo 19 do Marco Civil da Internet previa que plataformas, provedores e sites somente poderiam ser responsabilizados civilmente por danos decorrentes de conteúdos de terceiros se, após decisão judicial específica, deixassem de remover o material considerado ilícito. Já o artigo 21 previa as exceções, de modo que os provedores poderiam ser responsabilizados civilmente se, após receberem notificações extrajudiciais dos interessados, não removessem conteúdos pornográficos não autorizados ou relacionada a direitos autorais.
“O Tribunal entendeu pela constitucionalidade parcial do artigo 19, mas limitou sua aplicação a determinados serviços que pressupõem sigilo das comunicações, como provedores de e-mail, aplicativos de mensagens privadas e plataformas de reuniões fechadas por voz ou vídeo”, explica Filipe Ribeiro Duarte, sócio da área de Direito Digital e Propriedade Intelectual do Martinelli Advogados. Nesses casos, ressalta, permanece a exigência de ordem judicial prévia para obrigar a remoção de conteúdo e configurar responsabilidade civil, resguardando a privacidade dos usuários.
Nas demais hipóteses, observa ele, passa a ser possível a responsabilização civil das plataformas mesmo na ausência de ordem judicial, desde que comprovada a culpa — por ação ou omissão — da empresa, nos termos do regime subjetivo de responsabilidade. Isso vale, por exemplo, para plataformas de caráter aberto ou sem proteção especial de sigilo — como redes sociais e serviços públicos de compartilhamento de conteúdo.
“Isso se aplica especialmente quando a plataforma, devidamente notificada de forma extrajudicial, deixa de remover conteúdos manifestamente ilícitos e/ou não adota providências razoáveis e proporcionais para remoção ou contenção da sua disseminação”, afirma o sócio do Martinelli Advogados
Presunção de responsabilidade
O STF também estabeleceu que cabe às plataformas comprovarem que atuaram de forma diligente tanto nos casos relacionados a conteúdos impulsionados por pagamento quanto nos conteúdos disseminados de forma artificial, como por meio de robôs ou sistemas automatizados. Nesse caso, houve o reconhecimento de hipóteses de presunção de responsabilidade, que representam um afastamento parcial do regime exclusivamente subjetivo previsto originalmente no art. 19.
“O entendimento é de que há um dever reforçado de diligência por parte das plataformas, posto que a responsabilidade é presumida e independerá de notificação prévia, cabendo a elas a comprovação da atuação tempestiva e eficaz na remoção do conteúdo”, destaca Ribeiro.
Outro ponto relevante é o que trata da responsabilidade das plataformas em casos de crimes graves, como pornografia infantil, incitação ao suicídio, violência contra a mulher, atos antidemocráticos, terrorismo e crimes de ódio. O sócio do Martinelli afirma que, nessas situações, será possível a responsabilização das empresas quando ficar demonstrada uma falha sistêmica, isto é, quando não houver mecanismos eficazes para prevenção, detecção ou resposta à veiculação de conteúdos evidentemente ilícitos.
“Embora a responsabilidade continue, em regra, sendo subjetiva — ou seja, dependerá da demonstração de culpa —, a decisão do STF representa uma inflexão relevante ao ampliar as hipóteses em que a culpa pode ser presumida, especialmente diante de omissões reiteradas ou estruturas que favoreçam a viralização de conteúdo ilegal”, avalia o advogado.
O STF determinou ainda que conteúdos já considerados ilícitos por decisão judicial anterior devam ser prontamente removidos por qualquer plataforma, quando reaparecerem em ambientes digitais, independentemente de nova ordem judicial, bastando, para tanto, uma notificação extrajudicial que aponte a reiteração do conteúdo anteriormente julgado.
Para o sócio do Martinelli, a decisão da Corte inova ao introduzir, ainda que parcialmente, o dever de cuidado frente às falhas sistêmicas. É considerada uma falha sistêmica, imputável ao provedor de aplicações de internet, a sua omissão na adoção de medidas adequadas para prevenir ou remover os conteúdos ilícitos, caracterizando violação do dever de atuar com responsabilidade, transparência e cautela.
Dentre os conteúdos listados pelo STF estão tráfico de pessoas; crimes sexuais envolvendo pessoas vulneráveis, pornografia infantil e outras formas graves de violência contra crianças e adolescentes; crimes praticados contra a mulher; crimes de induzimento, instigação ou auxílio ao suicídio ou à automutilação; crimes de terrorismo ou preparatórios de terrorismo; atos e condutas de natureza antidemocrática, e incitação à discriminação em razão de raça, cor, etnia, religião, nacionalidade, orientação sexual ou identidade de gênero.
“Nesses casos, a plataforma poderá ser responsabilizada por não adotar medidas para indisponibilizar, de forma imediata, conteúdos que caracterizem tais práticas”, lembra Ribeiro, ao ressaltar que a existência de conteúdo ilícito de forma isolada, não é, por si só, suficiente para ensejar a aplicação da responsabilidade civil do presente item, prevalecendo o regime previsto no artigo 21 do Marco Civil da Internet.
Representante legal no Brasil
Outro ponto fundamental para provedores de aplicação é a obrigação de constituição de sede e representante legal no Brasil, inclusive com a disponibilização fácil de suas informações de contato no portal da plataforma.
Com o objetivo de garantir a efetividade das obrigações legais das plataformas e permitir que os usuários e o Poder Público tenham um canal oficial de responsabilização e diálogo no País, essa representação deve:
- Ser exercida por pessoa jurídica com sede no Brasil;
- Estar devidamente identificada e com contatos acessíveis no site da plataforma;
- Ter plenos poderes para representar a empresa nas esferas administrativa e judicial, além de prestar informações às autoridades sobre moderação de conteúdo, políticas internas, relatórios de transparência, regras de impulsionamento, uso de algoritmos, entre outros, e cumprir determinações judiciais e penalidades.
Impacto nos marketplaces
Na avaliação do Martinelli Advogados, o novo cenário também impõe desafios relevantes para as plataformas que operam como marketplaces, já que a ampliação da responsabilização civil por conteúdos de terceiros — especialmente em casos de falha sistêmica ou ausência de diligência — afeta diretamente esses ambientes, nos quais frequentemente há oferta de produtos ou serviços por usuários independentes.
“Além dos deveres previstos no Código de Defesa do Consumidor, os marketplaces devem agora observar com mais rigor os mecanismos de controle de publicações e anúncios, adoção de medidas preventivas e canais eficazes de resposta a notificações de conteúdos ou ofertas ilícitas, sob pena de responsabilização”, alerta Filipe Ribeiro.
O Supremo também reforçou os deveres de transparência e a necessidade de autorregulação. Por exemplo, as plataformas deverão implementar mecanismos acessíveis de notificação e contestação de conteúdos, publicar relatórios periódicos de transparência e manter canais permanentes de atendimento, inclusive para pessoas que não sejam usuárias registradas em seus serviços.
“A expectativa é a de que que essas obrigações sejam detalhadas por futura legislação, já que o STF instou o Congresso Nacional a disciplinar o tema de forma mais precisa”, completa o sócio do Martinelli Advogados, ao lembrar que os efeitos da decisão passam a valer apenas a partir do julgamento, ou seja, de forma prospectiva. Casos já encerrados por decisão definitiva não serão afetados.
Saiba mais sobre Conformidade e controle
-
Como as big techs terão de se adaptar à responsabilidade sobre conteúdos no Marco Civil da Internet
-
1 em cada 5 das PMEs latinas não está preparada para combater ciberataques
-
Marco Civil da Internet: antecipar decisão gera insegurança jurídica e ameaça direitos fundamentais
-
Meta muda as regras do jogo: quais as implicações para as empresas brasileiras?