Publicado em Deixe um comentário

DESAFIOS NA REGULAÇÃO DAS REDES SOCIAIS: PROPOSTAS E PERSPECTIVAS

O presidente do Supremo Tribunal Federal (STF), trouxe à tona uma discussão fundamental sobre a responsabilidade das plataformas digitais no Brasil. De acordo com a legislação vigente, as empresas como Facebook, Twitter (conhecido como X), e YouTube só podem ser responsabilizadas civilmente se não cumprirem ordens judiciais para a remoção de conteúdo.

No entanto, o ministro propôs duas exceções a essa regra. A primeira delas envolve a obrigação de as empresas removerem conteúdos criminosos por conta própria, sem depender de ordens judiciais. A segunda exceção se aplica a violações de direitos fundamentais, onde uma notificação privada poderia desencadear a remoção.

A discussão é de extrema importância, pois envolve a regulação das plataformas digitais, que desempenham um papel cada vez mais importante na disseminação de informações e comunicação. Entretanto, há diferentes perspectivas sobre como essa regulação deve ocorrer.

Especialistas divergem sobre o papel do STF nesse processo. Alguns argumentam que a criação de exceções ao Marco Civil da Internet, como proposto por Barroso, deve ser uma tarefa do Legislativo, uma vez que implica em mudanças significativas na legislação.

A criação de novas leis e regulamentações, incluindo a implementação de algoritmos para monitorar comportamentos criminosos, é de competência do Congresso Nacional. É essencial que os três poderes – Executivo, Legislativo e Judiciário – desempenhem seus papéis de forma a manter o equilíbrio e a separação de poderes.

Outra questão levantada é o risco de censura prévia caso algoritmos sejam usados para monitorar conteúdos ofensivos. Isso levanta questões importantes sobre a liberdade de expressão e a limitação do acesso à informação.

O Supremo Tribunal Federal pode ter um papel fundamental ao julgar casos específicos envolvendo danos causados por publicações nas redes sociais. No entanto, a extensão de exceções à lei deve ser uma prerrogativa do Legislativo, não do Judiciário.

A discussão sobre a regulação das plataformas digitais é crucial para equilibrar a proteção dos direitos individuais e a promoção da responsabilidade das empresas. É um debate que deve envolver não apenas os poderes constituídos, mas também a sociedade civil e especialistas, a fim de encontrar soluções equilibradas e em conformidade com os princípios do Estado de Direito.

Publicado em Deixe um comentário

DIREITOS E REGULAMENTAÇÃO DIGITAL: O IMPACTO DO MARCO CIVIL DA INTERNET NA SOCIEDADE BRASILEIRA

O Marco Civil da Internet no Brasil, sancionado em 2014, é uma legislação que visa regulamentar o uso da internet no país. Seu principal objetivo é estabelecer direitos, deveres e garantias no ambiente digital, tornando a internet um espaço seguro e democrático para a população. A proteção de dados pessoais e a segurança online tornaram-se questões essenciais, dada a crescente ocorrência de ataques cibernéticos e vazamento de informações, como exemplificado pelo ataque ao Tribunal de Justiça do Rio Grande do Sul em 2021.

A Lei Geral de Proteção de Dados é frequentemente invocada para assegurar o tratamento adequado dos dados pessoais, mas o Marco Civil da Internet também desempenha um papel importante nessas situações. A legislação, que contém 32 artigos, foi elaborada com a participação direta da sociedade, que contribuiu com comentários e sugestões por meio de fóruns e blogs.

Uma de suas principais metas era encerrar o estigma de “terra sem lei” associado à internet, uma vez que, anteriormente, não havia regulamentação específica para o meio digital, restringindo-se ao artigo 5 da Constituição Federal. O Marco Civil da Internet regula diversos aspectos, incluindo:

  1. Direito ao acesso à internet.
  2. Proteção da privacidade.
  3. Liberdade de expressão online.
  4. Preservação e garantia da neutralidade da rede.
  5. Preservação da estabilidade, funcionalidade e segurança da rede.
  6. Deveres dos provedores de internet.
  7. Liberdade de modelos empresariais promovidos na internet.
  8. Proteção dos dados pessoais dos usuários.

O STJ elaborou jurisprudência sobre o Marco Civil da Internet, resumida da seguinte forma:

  1. Os provedores de pesquisa são considerados uma categoria de provedores de conteúdo de acordo com o Marco Civil da Internet.
  2. Sites de intermediação, como os de e-commerce, também podem ser enquadrados como provedores de conteúdo.
  3. Empresas de serviços de aplicação na internet devem cumprir as leis brasileiras, independentemente de possuírem filiais no país ou armazenarem dados em nuvem.
  4. Provedores de internet devem manter registros de patrocínio de links por seis meses após o término do patrocínio.
  5. Utilizar a marca de um concorrente como palavra-chave em links patrocinados pode ser considerado concorrência desleal.
  6. O uso indevido de nomes comerciais e marcas registradas como palavra-chave em anúncios patrocinados pode resultar em compensação por danos morais.
  7. A responsabilidade limitada dos provedores de pesquisa não se aplica ao mercado de links patrocinados.
  8. A responsabilidade dos provedores de aplicação por conteúdo de terceiros é subjetiva, tornando-se solidária em casos de recusa ou atraso na remoção de material ofensivo após notificação judicial.
  9. A motivação do conteúdo disseminado indevidamente é irrelevante para a aplicação do artigo 19 do Marco Civil da Internet.

Essa jurisprudência do STJ esclarece a aplicação do Marco Civil da Internet em diferentes contextos e casos, ajudando a moldar o cenário legal para a utilização da internet no Brasil.

Publicado em Deixe um comentário

ANPD EXIGE REVISÃO NA POLÍTICA DE PRIVACIDADE DO TIKTOK EM MEIO À CONTROVÉRSIA DAS ‘LIVES NPC

A Agência Nacional de Proteção de Dados (ANPD) emitiu recentemente uma nota técnica instando o TikTok a revisar sua política de privacidade para usuários menores de 18 anos. O objetivo é evitar que crianças e adolescentes criem contas no aplicativo e garantir medidas específicas de proteção para esse grupo, que é amparado pelo Estatuto da Criança e do Adolescente (ECA).

Embora o documento tenha sido produzido em agosto, só veio a público na semana passada. A ANPD aponta “indícios” de que jovens com menos de 13 anos estavam conseguindo acessar a plataforma, o que levanta preocupações sobre a segurança desses usuários. A pesquisa “TIC Kids Online Brasil 2021” revelou que 58% das pessoas entre 9 e 17 anos no Brasil têm uma conta no TikTok, com 34% afirmando que é a rede social mais utilizada. Entre as crianças de 9 a 12 anos, essa proporção é ainda maior. Os dados mais recentes, de 2022, mostram um aumento desses números.

Diante disso, a ANPD recomendou que o TikTok reavalie seus mecanismos de verificação de idade e atualize sua política de privacidade, com ênfase nas diferenças entre o tratamento de dados de jovens e adultos.

Além disso, nas últimas semanas, as “lives NPC” no TikTok têm causado polêmica devido a seu conteúdo excêntrico, levando a debates nas redes sociais. Como resultado, a plataforma começou a restringir o alcance dessas transmissões, exibindo um aviso que proíbe “conteúdo repetitivo, não autêntico e degradante que incentive os espectadores a enviar presentes”.

As transmissões ao vivo no TikTok funcionam com base no envio de presentes pelos espectadores, que são convertidos em pequenas quantias em dinheiro para os criadores de conteúdo. Com essas novas restrições, como os usuários podem proteger seu conteúdo e garantir que não seja afetado por medidas mais severas? Marcelo Mattoso, advogado especializado em Direito de Games e eSports do Barcellos Tucunduva Advogados, explica que cada plataforma tem suas próprias regras, geralmente chamadas de “termos de uso”, “termos de utilização” ou “termos de serviço”.

Essas regras são elaboradas de acordo com a legislação local e servem para proteger tanto a plataforma quanto seus usuários, sejam eles criadores ou espectadores. Ao aceitar esses termos, presume-se que o usuário os leu e concordou com eles, estabelecendo um contrato entre as partes. Isso significa que as plataformas têm o direito de suspender usuários que violem essas regras, incluindo a produção ou disponibilização de conteúdo tóxico, agressivo, discriminatório, relacionado a spam ou crimes, ou o uso de programas de terceiros para acessar os servidores da plataforma.

É importante ressaltar que, em casos de conteúdo ilegal ou abusivo, além da penalidade de suspensão da conta e remoção do conteúdo pela plataforma, os produtores ou usuários podem enfrentar ações legais de acordo com a legislação civil ou criminal. No entanto, o TikTok não pode ser responsabilizado pelo conteúdo de seus usuários, a menos que não cumpra uma ordem judicial para remover o conteúdo após a constatação de uma infração.

As recentes medidas adotadas pelo TikTok visam proteger a comunidade de usuários e garantir que a plataforma seja usada de maneira segura e responsável. No entanto, é fundamental que os usuários estejam cientes das regras da plataforma e ajam de acordo com elas para evitar problemas futuros.