
[Foto: Ilustrativa]
A decisão do Supremo Tribunal Federal (STF) que alterou a interpretação do Artigo 19 do Marco Civil da Internet segue repercutindo entre especialistas. Com a nova diretriz aprovada na última quinta-feira (26/06), plataformas digitais passam a ser responsabilizadas civilmente por conteúdos considerados ilegais mesmo sem ordem judicial, bastando apenas notificação extrajudicial.
Para Alexander Coelho, especialista em Direito Digital, Inteligência Artificial e Cibersegurança, a medida representa uma ruptura histórica que carrega tanto avanços quanto riscos. “A promessa é nobre: combater a desinformação, o discurso de ódio e proteger direitos fundamentais. Mas o risco é estrutural: em nome de proteger a democracia, não estaríamos entregando seu futuro aos algoritmos e às assessorias jurídicas das big techs?”, afirmou.
A nova interpretação modifica um dos pilares da regulação da internet no Brasil. Até então, conforme previsto pelo Marco Civil (Lei 12.965/2014), as plataformas só eram responsabilizadas por conteúdo publicado por terceiros após decisão judicial que determinasse a retirada do material. Agora, o STF entende que em alguns casos, especialmente envolvendo crimes graves, uma notificação já pode exigir a remoção imediata, sob pena de responsabilização.
Na visão de Coelho, o maior problema está no caminho adotado para alcançar esse objetivo. “O problema não é a intenção, mas o atalho institucional escolhido. Porque sim, plataformas precisam ser responsabilizadas. Mas não sem garantias, sem contraditório, sem critérios objetivos e sem limites claros. A democracia digital não pode sobreviver à insegurança jurídica travestida de zelo moral”, destacou.
A decisão do STF também determina que as plataformas devem instituir mecanismos de autorregulação, criar canais permanentes para notificações e apresentar relatórios anuais de transparência. As medidas devem valer até que o Congresso Nacional aprove uma nova legislação sobre o tema.
Votos
A decisão foi tomada por 8 votos a 3. O ministro Luís Roberto Barroso afirmou que a ordem judicial é necessária para a remoção somente de postagens de crimes contra a honra “(calúnia, difamação e injúria)”. Segundo ele, nos demais casos, como publicações antidemocráticas e terrorismo, a notificação extrajudicial é suficiente para a remoção de conteúdo.
A ministra Cármen Lúcia declarou que houve uma transformação tecnológica desde a sanção da lei em 2014 e que as plataformas se tornaram “donas das informações”. Ela destacou que as plataformas têm algoritmos que “não são transparentes”.
O ministro Alexandre de Moraes disse que as big techs impõem um modelo de negócios “agressivo” e completou: não podem ser uma “terra sem lei”.
O ministro Cristiano Zanin afirmou que o Artigo 19 impõe aos usuários o ônus de acionar o Judiciário em caso de postagens ofensivas e ilegais”.
Gilmar Mendes considerou que o artigo está “ultrapassado” e defendeu que “a regulamentação das redes sociais não representa ameaça à liberdade de expressão.
O ministro Luiz Fux votou para permitir que os próprios atingidos por conteúdos ilegais façam a notificação para remoção, sem a necessidade de decisão judicial, entendimento também seguido por Dias Toffoli.
Votaram contra a responsabilização direta os ministros Nunes Marques, André Mendonça e Edson Fachin. Nunes Marques declarou que “a liberdade de expressão é pedra fundamental para necessária troca de ideias, que geram o desenvolvimento da sociedade”. Ele acrescentou que a responsabilidade pela publicação de conteúdos é de quem causou o dano, ou seja, o usuário.
O que muda com a decisão do STF sobre responsabilização das plataformas digitais
Responsabilidade em Crimes Graves
Plataformas devem remover conteúdos ligados a crimes graves, como terrorismo, racismo, homofobia e violência contra mulheres e crianças, imediatamente após notificação, sob risco de responsabilização civil.
Crimes Contra a Honra
Em casos de calúnia, difamação e injúria, plataformas só são responsáveis se não cumprirem ordem judicial. Remoções podem ser feitas com base em notificações extrajudiciais antes da decisão judicial.
Remoção de Conteúdos Replicados
Conteúdos já declarados ilegais pela Justiça devem ser removidos por todas as plataformas, mesmo se replicados, sem necessidade de novas decisões judiciais.
Autorregulação das Plataformas
Empresas devem criar regras claras para notificações extrajudiciais, disponibilizar canais acessíveis e divulgar relatórios anuais sobre remoções, anúncios e impulsionamentos.
Publicidade e Bots
Uso de anúncios pagos e bots para espalhar conteúdos ilegais gera responsabilização direta das plataformas, sem necessidade de notificações prévias.
Mensagens Privadas e Sigilo
Serviços de e-mail e mensageria como WhatsApp e Telegram permanecem protegidos pelo sigilo das comunicações, sem responsabilização direta por conteúdos ilegais em mensagens privadas.