O Supremo Tribunal Federal (STF) alcançou maioria nesta quarta-feira (11) para estabelecer que empresas de tecnologia — as chamadas big techs — podem ser responsabilizadas por conteúdos ilícitos postados por usuários, mesmo sem ordem judicial prévia. O novo entendimento representa um marco na regulação de plataformas digitais no Brasil e poderá mudar profundamente a atuação de redes sociais como Google, Meta, X (ex-Twitter), TikTok, entre outras.
Com os votos dos ministros Flávio Dino, Cristiano Zanin e Gilmar Mendes, somados aos já proferidos por Dias Toffoli, Luiz Fux e Luís Roberto Barroso, a Corte atingiu seis votos favoráveis à ampliação da responsabilização, superando a metade dos 11 ministros. No entanto, os magistrados ainda deverão modular a tese ao final do julgamento, que deve continuar nesta quinta-feira (12).
Por ora, apenas o ministro André Mendonça votou pela manutenção da regra atual, prevista no artigo 19 do Marco Civil da Internet, que condiciona a responsabilização das plataformas à existência de decisão judicial específica para retirada de conteúdo.
O que está em jogo
O Supremo analisa a constitucionalidade do artigo 19 do Marco Civil da Internet, em vigor desde 2014. Esse artigo limita a responsabilidade das plataformas a casos em que, mesmo após ordem judicial, elas se recusam a remover conteúdos considerados ilegais — como calúnia, incitação à violência ou discurso de ódio.
A maioria formada na Corte aponta para uma interpretação mais rigorosa: a partir do momento em que as empresas forem notificadas por usuários, passam a ter a obrigação de agir, sob risco de sanções. O debate ocorre em meio ao impasse no Congresso sobre o PL das Fake News, que foi travado por pressão das próprias big techs.
Palco de desinformação e discurso de ódio
Durante seu voto, Flávio Dino defendeu uma internet com “liberdade regulada”, associando a ausência de responsabilidade à barbárie digital.
“Nunca vi alguém abrir uma companhia aérea sem regulação em nome da liberdade de ir e vir. A responsabilidade evita tiranias”, comparou.
Cristiano Zanin concordou que a legislação atual é insuficiente para proteger direitos fundamentais e a própria democracia. Ele propôs que as plataformas tenham margem de recusa apenas em casos que envolvam dúvida legítima, como ofensas à honra, mas que sejam obrigadas a remover o que for manifestamente criminoso.

Gilmar Mendes, por sua vez, criticou o modelo de negócios das redes, acusando as empresas de deixarem de ser meras intermediárias para se tornarem agentes ativos da disseminação de conteúdo.
“O paradigma da neutralidade foi superado. As plataformas interferem diretamente na visibilidade e no alcance das postagens, com base em algoritmos que priorizam engajamento e tempo de exposição do usuário à publicidade”, explicou.
Quais conteúdos devem ser removidos de imediato?
A tese predominante no STF sugere que plataformas devem agir rapidamente para retirar do ar conteúdos que envolvam crimes graves, como:
-
Apologia ao terrorismo;
-
Estímulo ao suicídio ou automutilação;
-
Crimes contra crianças e adolescentes;
-
Incitação ao golpe de Estado ou ataques ao Estado Democrático de Direito.
Flávio Dino também defende que as big techs estabeleçam regras claras de autorregulação, incluindo sistemas internos de notificação, análise de denúncias e publicação de relatórios anuais de transparência.
Divergências sobre regulação estatal
Um dos pontos mais controversos do julgamento é a possível criação de um órgão do Poder Executivo para fiscalizar o cumprimento das regras. O ministro Gilmar Mendes propôs a criação de uma entidade semelhante à Autoridade Nacional de Proteção de Dados (ANPD), com capacidade de aplicar sanções.
Já o presidente da Corte, Luís Roberto Barroso, defende que tal órgão seja colegiado e autônomo, com ampla participação da sociedade civil, para evitar riscos à liberdade de expressão.
Resistência das plataformas
Enquanto os ministros debatiam o tema, o presidente de Assuntos Globais do Google, Kent Walker, esteve em Brasília para reuniões com membros do STF. Em declarações à imprensa, ele afirmou que a tese discutida no Supremo é vaga e pode levar à remoção excessiva de conteúdos legítimos.
“Pela forma como nossas ferramentas operam, seríamos obrigados a remover muitos conteúdos, inclusive com valor político e social, apenas para evitar responsabilização”, alertou. “O diabo está nos detalhes.”
Ainda assim, Walker reconheceu que a moderação é necessária em casos de ameaças à democracia, violência e conteúdo nocivo para crianças, mas se opôs à responsabilização direta das plataformas por todo o conteúdo postado por terceiros.
O que esperar a partir de agora
Com a maioria já consolidada, o Supremo deve agora debater como modular a decisão, ou seja, quais critérios objetivos definirão a obrigação de remoção por parte das empresas. Também será necessário estabelecer quais tipos de conteúdo exigem reação imediata e quais podem aguardar decisão judicial, a fim de evitar censura prévia.
O julgamento representa um divisor de águas para a regulação das redes sociais no Brasil e pode influenciar decisões semelhantes em outros países. Ao mesmo tempo, reforça a tensão entre o Judiciário e as gigantes da tecnologia em torno da responsabilidade digital e da preservação da democracia em tempos de desinformação massiva.