O Supremo Tribunal Federal (STF) concluiu recentemente um julgamento de grande relevância para o ambiente digital brasileiro, redefinindo os parâmetros de responsabilização de plataformas por conteúdos gerados por terceiros.
A decisão, proferida nos Recursos Extraordinários 1.037.396 (Tema 987 da repercussão geral) e 1.057.258 (Tema 533), representa uma demarcação na interpretação do art. 19 da Lei 12.965/2014, o Marco Civil da Internet. A intenção da Corte foi buscar um equilíbrio entre a liberdade de expressão e a necessidade de combate a ilícitos online. Contudo, o novo cenário pode ser tenebroso, conforme veremos adiante.
O art. 19 do Marco Civil da Internet estabelece que os provedores de aplicações de internet (como redes sociais, sites de compartilhamentos e buscadores) só poderem ser responsabilizados civilmente por danos decorrentes de conteúdos gerados por terceiros se, após o recebimento de ordem judicial específica, não cumpram a determinação para remoção.
Art. 19. Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário.
§ 1º A ordem judicial de que trata o caput deverá conter, sob pena de nulidade, identificação clara e específica do conteúdo apontado como infringente, que permita a localização inequívoca do material.
§ 2º A aplicação do disposto neste artigo para infrações a direitos de autor ou a direitos conexos depende de previsão legal específica, que deverá respeitar a liberdade de expressão e demais garantias previstas no art. 5º da Constituição Federal.
§ 3º As causas que versem sobre ressarcimento por danos decorrentes de conteúdos disponibilizados na internet relacionados à honra, à reputação ou a direitos de personalidade, bem como sobre a indisponibilização desses conteúdos por provedores de aplicações de internet, poderão ser apresentadas perante os juizados especiais.
§ 4º O juiz, inclusive no procedimento previsto no § 3º , poderá antecipar, total ou parcialmente, os efeitos da tutela pretendida no pedido inicial, existindo prova inequívoca do fato e considerado o interesse da coletividade na disponibilização do conteúdo na internet, desde que presentes os requisitos de verossimilhança da alegação do autor e de fundado receio de dano irreparável ou de difícil reparação.
Ou seja, se um conteúdo postado por terceiro no Instagram, por exemplo, ofendesse a honra de determinada pessoa, esta poderia ajuizar ação buscando a remoção do conteúdo, inclusive pleiteando a concessão de tutela provisória de urgência, o que na prática quer dizer que a determinação para a remoção pode ocorrer sem que o réu (ofensor ou provedor) fosse previamente ouvido.
O Superior Tribunal de Justiça já havia se consolidado no sentido de exigir prévia intervenção judicial para a responsabilização dos provedores de conteúdo. Nesse sentido:
(…) O propósito recursal consiste em determinar se há dever indenizatório dos provedores de aplicação de internet por conteúdo gerado por terceiro. A jurisprudência do Superior Tribunal de Justiça está amplamente consolidada no sentido de afirmar que a responsabilidade dos provedores de aplicação da internet, por conteúdo gerado de terceiro, é subjetiva e solidária, somente nas hipóteses em que, após ordem judicial, negar ou retardar indevidamente a retirada do conteúdo” (STJ, 3ª Turma, REsp n. 1993896 SP 2021/0277687-7, Relatora Ministra Nancy Andrighi, julgado m: 17/05/2022, DJe de 19/05/2022).
Somente após o provedor de conteúdo tomar ciência da decisão, que além de prazo para cumprimento, deveria preencher os requisitos do § 1º do art. 19, é que a responsabilização civil poderia ocorrer. Na prática: se não havia intimação da decisão judicial concessiva da tutela pretendida – remoção/indisponibilização do conteúdo –, o provedor não poderia ser responsabilizado. Consequentemente, as eventuais denúncias de usuários ou notificações sem qualquer intervenção judicial não tinham efeito prático.
Alguns afirmaram que a interpretação literal desse dispositivo concedia uma espécie de “imunidade” às plataformas, exigindo uma imprescindível intervenção do Poder Judiciário para que a responsabilidade civil estivesse configurada. Outros alegavam que a ideia do legislador sempre foi de preservar a liberdade de expressão e evitar a censura prévia.
Agora, por maioria (8×3), o STF considerou o art. 19 da Lei do Marco Civil da Internet parcialmente inconstitucional, estabelecendo um novo regime de responsabilização que amplia o dever de cautela das plataformas digitais.
A Corte buscou uma solução intermediária, alinhando-se a modelos de regulação que consideram as particularidades do ambiente digital e a capacidade das plataformas de moderar e impulsionar conteúdos.
Os principais pontos da nova tese de repercussão geral fixada pelo STF são:
- Notificação extrajudicial: em casos de conteúdos ofensivos ou ilícitos, as plataformas poderão ser responsabilizadas se não removerem o material após notificação extrajudicial clara e inequívoca da vítima ou de seu representante legal. Ou seja, não há mais necessidade de ordem judicial prévia. A efetiva responsabilidade da plataforma dependerá da posterior ação judicial através da qual o conteúdo será analisado se, de fato, era ilícito/ofensivo.
- Dever de cuidado para conteúdos graves: para determinadas categorias de crimes graves, as plataformas terão o dever de agir preventivamente e promover a remoção imediata, independentemente de ordem judicial ou notificação. Isso se aplica a ilícitos como terrorismo, indução ao suicídio ou automutilação, pornografia infantil e crimes contra crianças e adolescentes, tráfico de pessoas, discriminação e discurso de ódio, violência de gênero contra mulheres e atos antidemocráticos. O problema aqui será a interpretação, especialmente diante da existência de conceitos jurídicos indeterminados. O que pode ou não ser considerado “discurso de ódio”? Como estabelecer em um país com diversas culturas e costumes, a linha divisória entre a liberdade de expressão e a ofensa? É certo que existem conteúdos obviamente ofensivos. Porém, sobre uma mesma imagem ou texto podem surgir interpretações diversas. A organização das Nações Unidas, inclusive, esclarece que até o momento, “não existe uma definição universal de discurso de ódio no âmbito do direito internacional dos direitos humanos. O conceito ainda está em discussão, especialmente em relação à liberdade de opinião e expressão, à não discriminação e à igualdade”[1]. A amplitude da definição de “discurso de ódio”, por exemplo, que não se limita à linguagem verbal, pode, salvo melhor juízo, gerar situações de restrição à liberdade de expressão sem que necessariamente estejamos diante da violação de um direito fundamental. A nosso ver, interpretação deve continuar a ser casuística, tanto que o próprio STF possibilitou que o responsável pela publicação do conteúdo removido pelo provedor de aplicações de internet requeira judicialmente o seu restabelecimento, mediante demonstração da ausência de ilicitude. Nessa hipótese, “ainda que o conteúdo seja restaurado por ordem judicial, não haverá imposição de indenização ao provedor”[2]
- Conteúdos impulsionados ou distribuídos automaticamente: as plataformas também poderão ser responsabilizadas sem qualquer notificação prévia quando o conteúdo ilícito for impulsionado, patrocinado ou distribuído por robôs ou redes artificiais de disseminação. Nestas situações, presume-se o conhecimento da ilicitude pela plataforma. Conforme decisão do STF, “os provedores ficarão excluídos de responsabilidade se comprovarem que atuaram diligentemente e em tempo razoável para tornar indisponível o conteúdo”[3].
- Repetição do conteúdo ilícito: se uma postagem já foi judicialmente reconhecida como ofensiva, suas reproduções ou cópias devem ser removidas pelas plataformas sem a necessidade de nova ordem judicial específica. Ou seja, se o Judiciário for chamado a intervir, basta que o faça uma vez sobre determinado conteúdo. A repetição por parte do provedor gerará o dever de remoção e indenização, ainda a ciência ocorra por notificação extrajudicial.
- Transparência e autorregulação: as plataformas deverão implementar normas de autorregulação, incluindo sistemas de notificação acessíveis, canais de atendimento eficientes, prazos razoáveis de resposta e relatórios periódicos (e públicos) de transparência sobre conteúdos denunciados e impulsionamentos pagos.
- Manutenção de representante no país: como dever adicional “os provedores de aplicações de internet com atuação no Brasil devem constituir e manter sede e representante no país, cuja identificação e informações para contato deverão ser disponibilizadas e estar facilmente acessíveis nos respectivos sítios”[4]. O STF ainda definiu quais os poderes que esse representante deve possuir. Na prática, a própria Corte é quem demarcou os poderes a serem outorgados ao representante, que deverá ser necessariamente uma pessoa jurídica.
- Validade para casos futuros: a decisão do STF tem aplicação para casos futuros (decisão prospectiva), ou seja, para processos que forem analisados a partir da conclusão do julgamento, preservando a segurança jurídica para situações anteriores já decididas. Enquanto o Congresso Nacional – efetivo legislador – não deliberar sobre essa temática, prevalecerá, em todos os termos, a decisão do Supremo. Vale ressaltar que não há qualquer prazo para que o legislativo edite nova legislação sobre o assunto.
Para resumir:
- Antes da decisão do STF e após a entrada em vigor da Lei do Marco Civil da Internet, o termo inicial da responsabilidade era fixado no momento da notificação judicial que ordenava a retirada do conteúdo ilícito.
- Agora, a responsabilização civil de provedores de aplicação por conteúdos gerados por terceiros em casos de crimes ou atos ilícitos pode surgir independentemente de ordem judicial e, em alguns casos, a ciência do provedor será considerada presumida. De toda sorte, continua a ser possível a defesa judicial do provedor e a demonstração da regularidade da publicação e/ou adoção de práticas diligentes e efetivas para a remoção/restrição de conteúdos ofensivos.
[1] Fonte: https://www.un.org/en/hate-speech/understanding-hate-speech/what-is-hate-speech.
[2] Trecho de uma das teses (5.5). Disponível em: https://noticias-stf-wp-prd.s3.sa-east-1.amazonaws.com/wp-content/uploads/wpallimport/uploads/2025/06/26205223/MCI_tesesconsensuadas.pdf.
[3] Idem.
[4] Idem.
.
.
.
Elpídio Donizetti Sociedade de Advogados
Facebook: https://www.facebook.com/elpidiodonizetti
Instagram: https://www.instagram.com/elpidiodonizetti
LinkedIn:https://www.linkedin.com/in/elp%C3%ADdio-donizetti-advogados-4a124a35/