STF Derruba Artigo 19 do Marco Civil da Internet: Novas Regras para Plataformas Digitais e Usuários

STF Derruba Artigo 19 do Marco Civil da Internet: Novas Regras para Plataformas Digitais e Usuários

O Supremo Tribunal Federal (STF) do Brasil proferiu uma decisão histórica no final de junho de 2025, derrubando o Artigo 19 do Marco Civil da Internet. Esta medida implica em mudanças significativas para a regulamentação da internet no país, impactando diretamente tanto usuários de redes sociais quanto grandes empresas de tecnologia, como Google, Meta e X.

A principal alteração é que as plataformas digitais passam a ser civilmente responsáveis por conteúdo ilícito publicado por terceiros, mesmo sem uma ordem judicial prévia. Essa responsabilidade se configura se a plataforma for notificada sobre o conteúdo e falhar em removê-lo, desde que este seja “manifestamente ilícito”. Isso inclui, mas não se limita a, incitação à violência, discurso de ódio, pornografia infantil e ataques ao Estado Democrático de Direito. Anteriormente, a responsabilização era restrita a casos muito específicos, como pornografia de vingança.

A nova regra se aplica a qualquer plataforma digital que permita a publicação de conteúdo de terceiros em ambiente público, abrangendo redes sociais, sites com seções de comentários, blogs, plataformas de vídeo, fóruns e comunidades online. Marketplaces são isentos, pois são regidos pelo Código de Defesa do Consumidor, e mensagens privadas (como WhatsApp ou e-mail) continuam a exigir uma ordem judicial para responsabilização.

Para as empresas de tecnologia, a decisão acarreta um aumento do risco legal e dos custos de moderação, exigindo ações mais proativas e rápidas, além de uma revisão de suas políticas internas e estruturas de conformidade digital. Para os usuários, embora o conteúdo ilícito possa ser removido mais rapidamente, há um risco elevado de sobre-moderação, uma vez que as plataformas podem optar por remover conteúdo para evitar litígios. Em casos graves, como atos terroristas ou crimes contra crianças, as plataformas têm a obrigação de agir proativamente, sem a necessidade de uma denúncia ou decisão judicial. Além disso, as plataformas agora são obrigadas a oferecer canais acessíveis para que os usuários possam recorrer de decisões de moderação.

A decisão do STF sublinha a necessidade de uma definição clara do que constitui conteúdo “manifestamente ilícito”, a garantia de mecanismos para contestação por parte dos usuários, a transparência nos critérios de moderação e a supervisão judicial subsequente para prevenir a censura. As plataformas devem manter sede e um representante legal no Brasil, além de canais eletrônicos públicos para dúvidas e reclamações. Relatórios anuais de transparência, incluindo estatísticas sobre notificações extrajudiciais e conteúdo removido devido a impulsionamento, também são mandatórios.

Embora esta decisão não substitua o “PL das Fake News” (Projeto de Lei 2.630), ela pode contribuir para reduzir a disseminação de notícias falsas e crimes de ódio, facilitando a remoção de conteúdo claramente ilícito. A medida aproxima o Brasil de regulamentações internacionais mais rigorosas, como o Digital Services Act (DSA) da Europa, em termos de responsabilidade das plataformas e mecanismos de remoção de conteúdo, embora ainda existam diferenças, especialmente nos processos formais de defesa do usuário e na supervisão técnica. O STF ainda não designou um órgão específico para supervisionar e aplicar essas novas regras, o que significa que qualquer cidadão ou instituição pode atualmente acionar a justiça se considerar que uma empresa foi negligente. A decisão já está em vigor, mas especialistas destacam que o Brasil ainda precisa de um arcabouço regulatório detalhado para o ambiente digital, a fim de estabelecer um equilíbrio consistente entre liberdade de expressão, responsabilidade e transparência.

Publicar comentário