
[Foto: Ilustrativa]
Após o Supremo Tribunal Federal (STF) concluir o julgamento sobre a responsabilidade das plataformas digitais por conteúdos ilegais publicados por usuários, o Google comentou o novo entendimento da Corte. A decisão, encerrada na quinta-feira (26/06), trata da aplicação do Artigo 19 do Marco Civil da Internet, que antes limitava a responsabilização das empresas por publicações de terceiros.
Segundo o Google, a definição do STF representa uma mudança significativa. “O julgamento do Artigo 19 foi encerrado hoje pelo Supremo Tribunal Federal (STF) com um novo entendimento sobre responsabilidade civil para um grupo grande e diverso de plataformas de internet”, afirmou a empresa.
Nos últimos meses, o Google havia expressado preocupações públicas sobre possíveis consequências da alteração na interpretação da norma, especialmente no que se refere à liberdade de expressão e ao funcionamento do ecossistema digital no Brasil.
“Estamos analisando a tese aprovada, em especial a ampliação dos casos de remoção mediante notificação (previstos no Artigo 21), e os impactos em nossos produtos. Continuamos abertos ao diálogo”, destacou o comunicado da empresa.
O julgamento do STF decidiu que redes sociais e plataformas digitais podem ser responsabilizadas civilmente por conteúdos ilegais, mesmo sem decisão judicial, desde que tenham sido notificadas previamente e não tenham removido a publicação. A decisão pode resultar em impacto direto sobre a atuação de empresas como o Google, que administra serviços como o YouTube.
O Google não informou se irá adotar medidas específicas após o julgamento.
STF
O Supremo Tribunal Federal (STF) decidiu, nesta quinta-feira (26/06), que plataformas digitais como Instagram, Facebook, YouTube, TikTok e outras redes sociais podem ser responsabilizadas civilmente por conteúdos ilegais publicados por seus usuários. A decisão, tomada por 8 votos a 3, altera a forma como se aplica o Artigo 19 do Marco Civil da Internet e passa a permitir que postagens com crimes graves sejam removidas a partir de simples notificação extrajudicial, sem a necessidade de decisão judicial prévia.
A mudança marca um novo entendimento jurídico no país e deve impactar diretamente a atuação das chamadas big techs no Brasil, exigindo delas respostas mais rápidas na remoção de conteúdos considerados ilegais, como apologia ao terrorismo, discursos de ódio, violência contra mulheres, entre outros. A nova regra vale apenas para casos futuros e permanece em vigor até que o Congresso Nacional aprove uma nova legislação sobre o tema.
O que muda com a decisão do STF sobre responsabilização das plataformas digitais
Responsabilidade em Crimes Graves
Plataformas devem remover conteúdos ligados a crimes graves, como terrorismo, racismo, homofobia e violência contra mulheres e crianças, imediatamente após notificação, sob risco de responsabilização civil.
Crimes Contra a Honra
Em casos de calúnia, difamação e injúria, plataformas só são responsáveis se não cumprirem ordem judicial. Remoções podem ser feitas com base em notificações extrajudiciais antes da decisão judicial.
Remoção de Conteúdos Replicados
Conteúdos já declarados ilegais pela Justiça devem ser removidos por todas as plataformas, mesmo se replicados, sem necessidade de novas decisões judiciais.
Autorregulação das Plataformas
Empresas devem criar regras claras para notificações extrajudiciais, disponibilizar canais acessíveis e divulgar relatórios anuais sobre remoções, anúncios e impulsionamentos.
Publicidade e Bots
Uso de anúncios pagos e bots para espalhar conteúdos ilegais gera responsabilização direta das plataformas, sem necessidade de notificações prévias.
Mensagens Privadas e Sigilo
Serviços de e-mail e mensageria como WhatsApp e Telegram permanecem protegidos pelo sigilo das comunicações, sem responsabilização direta por conteúdos ilegais em mensagens privadas.
Votos
O ministro Luís Roberto Barroso afirmou que a ordem judicial é necessária para a remoção somente de postagens de crimes contra a honra “(calúnia, difamação e injúria)”. Segundo ele, nos demais casos, como publicações antidemocráticas e terrorismo, a notificação extrajudicial é suficiente para a remoção de conteúdo.
A ministra Cármen Lúcia declarou que houve uma transformação tecnológica desde a sanção da lei em 2014 e que as plataformas se tornaram “donas das informações”. Ela destacou que as plataformas têm algoritmos que “não são transparentes”.
O ministro Alexandre de Moraes disse que as big techs impõem um modelo de negócios “agressivo” e completou: não podem ser uma “terra sem lei”.
O ministro Cristiano Zanin afirmou que o Artigo 19 impõe aos usuários o ônus de acionar o Judiciário em caso de postagens ofensivas e ilegais”.
Gilmar Mendes considerou que o artigo está “ultrapassado” e defendeu que “a regulamentação das redes sociais não representa ameaça à liberdade de expressão.
O ministro Luiz Fux votou para permitir que os próprios atingidos por conteúdos ilegais façam a notificação para remoção, sem a necessidade de decisão judicial, entendimento também seguido por Dias Toffoli.
Votaram contra a responsabilização direta os ministros Nunes Marques, André Mendonça e Edson Fachin. Nunes Marques declarou que “a liberdade de expressão é pedra fundamental para necessária troca de ideias, que geram o desenvolvimento da sociedade”. Ele acrescentou que a responsabilidade pela publicação de conteúdos é de quem causou o dano, ou seja, o usuário.
Ministro(a) | Voto | Posição |
---|---|---|
Flávio Dino | Sim | A favor da responsabilização direta das plataformas |
Alexandre de Moraes | Sim | A favor da responsabilização direta das plataformas |
Gilmar Mendes | Sim | A favor da responsabilização direta das plataformas |
Cristiano Zanin | Sim | A favor da responsabilização direta das plataformas |
Luiz Fux | Sim | A favor da responsabilização direta das plataformas |
Dias Toffoli | Sim | A favor da responsabilização direta das plataformas |
Luís Roberto Barroso | Sim | A favor da responsabilização direta das plataformas |
Cármen Lúcia | Sim | A favor da responsabilização direta das plataformas |
Nunes Marques | Não | Contra a responsabilização direta; defende decisão via Congresso |
André Mendonça | Não | Contra a responsabilização direta; favorável às regras atuais |
Edson Fachin | Não | Contra a responsabilização direta; favorável às regras atuais |
Opinião
Para Alexander Coelho, especialista em Direito Digital, Inteligência Artificial e Cibersegurança, a medida representa uma ruptura histórica que carrega tanto avanços quanto riscos. “A promessa é nobre: combater a desinformação, o discurso de ódio e proteger direitos fundamentais. Mas o risco é estrutural: em nome de proteger a democracia, não estaríamos entregando seu futuro aos algoritmos e às assessorias jurídicas das big techs?”, afirmou.
A nova interpretação modifica um dos pilares da regulação da internet no Brasil. Até então, conforme previsto pelo Marco Civil (Lei 12.965/2014), as plataformas só eram responsabilizadas por conteúdo publicado por terceiros após decisão judicial que determinasse a retirada do material. Agora, o STF entende que em alguns casos, especialmente envolvendo crimes graves, uma notificação já pode exigir a remoção imediata, sob pena de responsabilização.
Na visão de Coelho, o maior problema está no caminho adotado para alcançar esse objetivo. “O problema não é a intenção, mas o atalho institucional escolhido. Porque sim, plataformas precisam ser responsabilizadas. Mas não sem garantias, sem contraditório, sem critérios objetivos e sem limites claros. A democracia digital não pode sobreviver à insegurança jurídica travestida de zelo moral”, destacou.