Publicado em

CONTEÚDO ILEGAL E NOTIFICAÇÃO EXTRAJUDICIAL: UMA NOVA DIRETRIZ PARA A INTERNET BRASILEIRA

No dia 26/06/2025, o Supremo Tribunal Federal alterou a interpretação do artigo 19 do Marco Civil da Internet. A mudança permite que plataformas digitais sejam responsabilizadas civilmente por conteúdos ilegais graves, mesmo sem ordem judicial, desde que tenham sido notificadas extrajudicialmente. A decisão foi tomada por ampla maioria e inaugura um novo entendimento sobre o papel das redes sociais na moderação de conteúdos.

A partir de agora, empresas de tecnologia devem atuar com maior cuidado ao lidar com publicações que envolvam práticas como terrorismo, incitação ao suicídio, pornografia infantil, discurso de ódio ou ataques à ordem democrática. Uma vez notificadas sobre esse tipo de conteúdo, as plataformas devem agir prontamente para removê-lo. A omissão pode gerar responsabilização jurídica, inclusive quando houver impulsionamento, uso de bots ou disseminação em larga escala.

Essa reformulação do entendimento jurídico busca oferecer uma resposta mais eficaz a condutas extremas e nocivas, sem desproteger a liberdade de expressão. O Supremo estabeleceu distinções importantes: para crimes contra a honra — como calúnia, injúria e difamação — permanece necessária a ordem judicial. Nos demais casos considerados mais graves, a notificação extrajudicial passa a ser suficiente para exigir ação das plataformas.

Ainda assim, o debate jurídico permanece sensível. Há preocupações legítimas sobre o risco de que empresas privadas se tornem árbitras do que pode ou não circular online. A própria Corte reconheceu essa tensão, indicando a necessidade de que as plataformas criem canais transparentes, publiquem relatórios periódicos e ofereçam meios adequados para contestação de decisões. O cuidado, aqui, deve ser redobrado para que a remoção de conteúdo não se torne automática ou desprovida de ponderação.

Para influenciadores, criadores de conteúdo e usuários com alta visibilidade, a mudança representa um ponto de atenção. Conteúdos impulsionados ou monetizados tendem a ser analisados com mais rigor. Isso não significa censura, mas a expectativa de que quem publica — e lucra — também compreenda os limites jurídicos da expressão online.

Este novo modelo não elimina o Judiciário da equação, tampouco entrega às plataformas o poder absoluto sobre o debate público. Busca-se um ponto de equilíbrio: agir com mais eficiência diante de conteúdos graves, sem abrir mão do direito de defesa e do controle judicial quando necessário. A proposta é objetiva: mais responsabilidade, mais transparência e menos tolerância à omissão. Todos os envolvidos — empresas, usuários e criadores — precisam agora revisar suas práticas diante de um marco interpretativo mais exigente.

Publicado em

A RESPONSABILIDADE DAS PLATAFORMAS DIGITAIS NA VIOLAÇÃO DE DIREITOS AUTORAIS

O Marco Civil da Internet (Lei 12.965/2014) estabelece uma série de disposições relacionadas à responsabilidade das plataformas digitais, especialmente no que diz respeito à moderação de conteúdo gerado por usuários. O artigo 19 dessa legislação afasta a responsabilidade das plataformas em exercer controle prévio sobre os conteúdos compartilhados por seus usuários, mas condiciona essa imunidade à criação de uma legislação específica para regular a questão. Enquanto essa lei não entra em vigor, a situação permanece regulada pela legislação vigente de direitos autorais, ou seja, o artigo 102 da Lei 9.610/98.

Recentemente, um caso envolvendo a plataforma de mensagens Telegram trouxe à tona as complexidades dessa responsabilidade, especialmente quando há violação de direitos autorais. Um educador, cujos cursos estavam sendo disseminados de maneira pirata na plataforma, iniciou uma série de notificações extrajudiciais à empresa solicitando o bloqueio de canais que compartilhavam seu conteúdo sem autorização. Contudo, o Telegram não respondeu a essas solicitações, o que levou o autor a recorrer ao Judiciário.

O Tribunal de primeira instância acolheu a defesa da plataforma, que alegava ser tecnicamente impossível realizar o monitoramento do conteúdo compartilhado entre seus usuários. No entanto, ao analisar o recurso, o relator do caso reconheceu que, de fato, houve uma violação aos direitos autorais do educador e que a empresa não tomou as medidas necessárias após ser notificada de forma extrajudicial.

O juiz destacou que a falta de ação da plataforma, aliada à comercialização indevida do conteúdo sem a autorização do titular, gerou um prejuízo claro ao autor. A omissão da empresa em tomar providências efetivas após as notificações extrajudiciais fez com que o educador fosse forçado a buscar a reparação por meio da via judicial. Em razão disso, a plataforma foi condenada a pagar R$ 5 mil a título de danos morais e a remover os canais infratores.

Este caso reafirma a crescente discussão sobre os limites da responsabilidade das plataformas digitais na vigilância e na proteção dos direitos autorais. A alegação de impossibilidade técnica para monitorar o conteúdo pode ser vista como uma tentativa de se esquivar da responsabilidade, mas, ao que parece, o Judiciário tem adotado uma postura mais rigorosa. Afinal, quando uma plataforma é notificada sobre a violação de direitos e não adota as medidas cabíveis, ela pode ser responsabilizada pelos danos causados, como ficou evidenciado na decisão recente.

O cenário ainda é dinâmico e em constante evolução, e a regulamentação mais clara sobre o papel das plataformas digitais e sua responsabilidade perante a legislação de direitos autorais continua sendo aguardada com atenção por juristas, especialistas e empresas.