Publicado em

CONTEÚDO ILEGAL E NOTIFICAÇÃO EXTRAJUDICIAL: UMA NOVA DIRETRIZ PARA A INTERNET BRASILEIRA

No dia 26/06/2025, o Supremo Tribunal Federal alterou a interpretação do artigo 19 do Marco Civil da Internet. A mudança permite que plataformas digitais sejam responsabilizadas civilmente por conteúdos ilegais graves, mesmo sem ordem judicial, desde que tenham sido notificadas extrajudicialmente. A decisão foi tomada por ampla maioria e inaugura um novo entendimento sobre o papel das redes sociais na moderação de conteúdos.

A partir de agora, empresas de tecnologia devem atuar com maior cuidado ao lidar com publicações que envolvam práticas como terrorismo, incitação ao suicídio, pornografia infantil, discurso de ódio ou ataques à ordem democrática. Uma vez notificadas sobre esse tipo de conteúdo, as plataformas devem agir prontamente para removê-lo. A omissão pode gerar responsabilização jurídica, inclusive quando houver impulsionamento, uso de bots ou disseminação em larga escala.

Essa reformulação do entendimento jurídico busca oferecer uma resposta mais eficaz a condutas extremas e nocivas, sem desproteger a liberdade de expressão. O Supremo estabeleceu distinções importantes: para crimes contra a honra — como calúnia, injúria e difamação — permanece necessária a ordem judicial. Nos demais casos considerados mais graves, a notificação extrajudicial passa a ser suficiente para exigir ação das plataformas.

Ainda assim, o debate jurídico permanece sensível. Há preocupações legítimas sobre o risco de que empresas privadas se tornem árbitras do que pode ou não circular online. A própria Corte reconheceu essa tensão, indicando a necessidade de que as plataformas criem canais transparentes, publiquem relatórios periódicos e ofereçam meios adequados para contestação de decisões. O cuidado, aqui, deve ser redobrado para que a remoção de conteúdo não se torne automática ou desprovida de ponderação.

Para influenciadores, criadores de conteúdo e usuários com alta visibilidade, a mudança representa um ponto de atenção. Conteúdos impulsionados ou monetizados tendem a ser analisados com mais rigor. Isso não significa censura, mas a expectativa de que quem publica — e lucra — também compreenda os limites jurídicos da expressão online.

Este novo modelo não elimina o Judiciário da equação, tampouco entrega às plataformas o poder absoluto sobre o debate público. Busca-se um ponto de equilíbrio: agir com mais eficiência diante de conteúdos graves, sem abrir mão do direito de defesa e do controle judicial quando necessário. A proposta é objetiva: mais responsabilidade, mais transparência e menos tolerância à omissão. Todos os envolvidos — empresas, usuários e criadores — precisam agora revisar suas práticas diante de um marco interpretativo mais exigente.

Publicado em

VOCÊ CONHECE OS LIMITES DA IA? DESCUBRA OS DIREITOS E RISCOS DOS INFLUENCIADORES DIGITAIS

A discussão sobre a substituição de humanos por máquinas, que ganhou força durante a Revolução Industrial, voltou à tona com a crescente digitalização e o avanço acelerado da tecnologia. Um exemplo marcante é o sucesso do ChatGPT, um reflexo da maior acessibilidade da Inteligência Artificial (IA) ao público em geral.

É importante notar que a IA, embora avançada, ainda depende da inteligência humana para sua alimentação e controle. Sem supervisão, as máquinas podem absorver e replicar comportamentos indesejáveis do mundo virtual, como discriminação ou agressividade.

Um caso recente ilustra esse ponto. Uma agência de modelos em Barcelona criou “Aitana”, uma influenciadora digital gerada totalmente por IA. Esta influenciadora virtual, com 148 mil seguidores e um perfil voltado para games, fitness e cosplay, levanta questões intrigantes. Alguns seguidores acreditam que ela é real, mesmo com outros tentando alertar sobre sua natureza artificial.

Esta situação reflete um preocupante desinteresse, especialmente entre os jovens, em discernir o real do artificial. O crescente envolvimento com a vida virtual exige uma adaptação às novas tecnologias e comportamentos geracionais, para evitar mais prejuízos do que benefícios com a IA.

Do ponto de vista legal, a existência de influenciadores virtuais como “Aitana” não enfrenta obstáculos, a menos que cometam atos ilícitos. Qualquer dano causado deve ser atribuído aos humanos que operam a IA. Porém, a legislação enfrenta desafios maiores quando os desenvolvedores desses personagens são desconhecidos, especialmente se estes personagens causam danos reais, como na venda de drogas a adolescentes.

No Brasil, ainda não temos uma legislação específica para IA, mas há um projeto de lei em estudo. Grupos de juristas e profissionais, como os da OAB do Rio Grande do Sul, estão acompanhando de perto o desenvolvimento desse projeto e as tendências globais relacionadas à IA.

A complexidade e a importância do tema são inegáveis. Prever todos os desdobramentos é impossível, mas com estudo, dedicação e observação do Direito comparado, podemos ter uma visão mais clara dos riscos e benefícios. Enquanto isso, a sociedade deve ser cautelosa, especialmente com crianças e adolescentes nas redes sociais, e consciente no uso da IA. Eventualmente, a IA se tornará uma parte mais natural de nossas vidas, com implicações jurídicas mais bem regulamentadas. Até lá, é fundamental usar essa tecnologia com responsabilidade e consciência.