Publicado em

O PAPEL DA LEI NA PROTEÇÃO DE DADOS E NO USO DAS REDES SOCIAIS

A regulamentação da mídia digital tornou-se um dos pontos mais delicados do debate público contemporâneo. A transformação promovida pelas redes sociais no convívio social, na política e na economia expôs a necessidade de atualizar o arcabouço jurídico brasileiro, especialmente diante do impacto das grandes plataformas.

A Lei Geral de Proteção de Dados (LGPD), em vigor desde 2020, representou um avanço significativo ao definir parâmetros para o tratamento de informações pessoais. Seus princípios centrais (finalidade, necessidade, transparência, segurança e prevenção) estabeleceram limites claros para empresas físicas e digitais. Ao mesmo tempo, asseguraram ao cidadão direitos como acesso, correção e exclusão de dados. Assim, companhias globais como Meta, TikTok e X passaram a ter a obrigação de explicar de forma acessível como utilizam informações de usuários e a responder por eventuais vazamentos.

Ainda que essencial, a LGPD não esgota os desafios das plataformas digitais. Questões como moderação de conteúdo, liberdade de expressão, transparência de algoritmos e publicidade direcionada permanecem em aberto. A legislação protege contra abusos no tratamento de dados, mas não regula de modo completo a atuação das redes sociais.

Entre os riscos sociais e jurídicos que emergem desse vácuo regulatório, destacam-se:

  • Privacidade e segurança: vazamentos e uso indevido de dados;
  • Desinformação: ausência de parâmetros que, se mal conduzidos, podem dar margem à censura ou perseguições;
  • Exploração econômica: microdirecionamento de publicidade, manipulação de comportamento e concentração de poder por parte das plataformas.

Diante disso, ganha força a ideia de um ecossistema normativo integrado, em que a LGPD se articule com o Marco Civil da Internet (2014), o Código de Defesa do Consumidor e propostas em discussão, como o PL 2630/2020 (Fake News), além dos debates sobre regulação de algoritmos e inteligência artificial.

Os pontos prioritários para uma futura regulação incluem:

  1. Transparência e moderação de conteúdo, com regras claras e garantias de defesa aos usuários;
  2. Proteção de dados pessoais, reforçando a responsabilização de redes sociais;
  3. Publicidade direcionada e algoritmos, limitando práticas de microdirecionamento político e restringindo o uso de dados sensíveis;
  4. Sanções proporcionais e relatórios periódicos, que ampliem a prestação de contas das plataformas;
  5. Educação digital e proteção de grupos vulneráveis, especialmente crianças, adolescentes e idosos.

Outro desafio relevante é o da competência jurídica. Embora as plataformas sejam globais, as leis têm alcance nacional. A LGPD, por exemplo, aplica-se a empresas estrangeiras que tratam dados de brasileiros, mas disputas sobre remoção de conteúdo ainda encontram resistência das big techs. Isso evidencia a necessidade de mecanismos mais eficazes para assegurar a aplicação do direito brasileiro.

Por fim, cabe observar que a Autoridade Nacional de Proteção de Dados (ANPD) cumpre papel essencial na fiscalização e orientação em matéria de privacidade. No entanto, a regulação de conteúdos precisa ser conduzida em conjunto com o Congresso Nacional e outros órgãos, sob pena de desequilíbrio entre proteção do usuário e preservação da liberdade de expressão. O desafio está em construir normas que garantam segurança jurídica sem restringir indevidamente o espaço democrático de participação e debate.

Publicado em

A VIRADA NO REGIME JURÍDICO DA RESPONSABILIDADE DAS PLATAFORMAS DIGITAIS NO BRASIL

A recente decisão do Supremo Tribunal Federal que declarou a inconstitucionalidade parcial do artigo 19 do Marco Civil da Internet inaugura uma etapa de forte impacto no modo como o país lidará com a moderação de conteúdos digitais. Ainda sem a publicação do acórdão, paira considerável incerteza quanto à extensão prática da tese fixada, mas já é evidente que a lógica estabelecida até então sofreu um redirecionamento.

Desde sua origem, o Marco Civil buscava reproduzir um equilíbrio inspirado no modelo norte-americano do safe harbor, estabelecendo que as plataformas só responderiam por conteúdos ilícitos de terceiros mediante descumprimento de ordem judicial. Antes disso, vigorava a lógica da notificação extrajudicial, que transferia às empresas a responsabilidade de avaliar a legalidade de publicações.

O que agora se anuncia é uma inflexão: embora para crimes contra a honra ainda seja exigida decisão judicial, nos casos de delitos mais graves — como pornografia infantil, crimes de ódio, terrorismo e violência contra a mulher — passa a existir um dever imediato de remoção, sem necessidade de ordem judicial. O descumprimento desses deveres será interpretado como “falha sistêmica” na moderação, conceito que abre caminho para a responsabilização civil das plataformas.

Essa mudança aproxima o Brasil de modelos regulatórios europeus. Em países como a Alemanha, a Lei NetzDG, em vigor desde 2018, impõe a remoção de conteúdos “obviamente ilegais” em até 24 horas após denúncia, com prazos maiores para casos mais complexos. Além disso, exige relatórios de transparência, canais de denúncia acessíveis e representantes locais das plataformas. O não cumprimento pode resultar em multas milionárias.

A experiência alemã revelou avanços e dificuldades. O aumento expressivo de denúncias contrasta com uma taxa relativamente baixa de remoções efetivas, demonstrando a complexidade de identificar violações diante do volume massivo de conteúdo. A isso se soma o risco de overblocking, quando empresas retiram publicações preventivamente para evitar punições, restringindo indevidamente a liberdade de expressão.

Mais recentemente, a União Europeia consolidou no Digital Services Act (DSA) um modelo mais abrangente, impondo obrigações de transparência, auditorias independentes e avaliações periódicas de riscos sistêmicos, como disseminação de desinformação ou ameaças eleitorais. O DSA ainda diferencia responsabilidades de acordo com o porte e o tipo de plataforma, buscando maior proporcionalidade regulatória.

No Brasil, a aplicação da tese do Supremo demandará das empresas políticas internas consistentes, treinamento especializado e adoção de tecnologias avançadas de monitoramento e análise. Não se trata apenas de atender às exigências legais, mas também de preservar a confiança dos usuários e a integridade do debate público.

O grande desafio será traduzir tipos penais em protocolos objetivos, capazes de guiar a atuação de moderadores e sistemas automatizados, sem cair no risco de transferir integralmente às plataformas o papel de julgadoras — algo que sempre motivou cautela no modelo do Marco Civil.

O momento exige, portanto, um redesenho cuidadoso das práticas de moderação, em diálogo com referências estrangeiras, mas respeitando os fundamentos constitucionais locais. A construção de um ambiente digital que combine liberdade de expressão com a proteção contra abusos dependerá da capacidade de integrar soluções jurídicas, técnicas e éticas, capazes de evitar a chamada “falha sistêmica” e promover um espaço digital mais seguro e plural.

Publicado em

PLATAFORMAS DE CRIPTOATIVOS PODEM SER RESPONSABILIZADAS POR FRAUDES, DECIDE STJ

Uma importante diretriz foi estabelecida no campo jurídico brasileiro envolvendo a responsabilização de plataformas digitais que operam com criptoativos. O Superior Tribunal de Justiça confirmou a possibilidade de se aplicar a responsabilidade objetiva a essas empresas, com base no Código de Defesa do Consumidor, quando falhas na prestação de serviços permitem a ocorrência de fraudes.

O caso que originou essa orientação tratava da transferência indevida de uma quantia significativa em ativos digitais, realizada sem o consentimento do titular da conta. A empresa responsável pelo ambiente digital tentou se eximir de responsabilidade, atribuindo a fraude a fatores externos. Contudo, a corte entendeu que não foram apresentados elementos suficientes que comprovassem a robustez dos mecanismos de segurança adotados pela plataforma. Essa omissão, por si só, foi considerada como um indício de deficiência na prestação do serviço.

Ao adotar esse entendimento, o tribunal reafirma que empresas que operam em meios digitais, especialmente aquelas voltadas ao mercado financeiro alternativo, têm o dever de oferecer ferramentas eficazes para prevenir acessos indevidos e proteger seus usuários. Não basta apontar causas externas como justificativa para prejuízos sofridos pelos consumidores; é necessário comprovar a adoção de medidas técnicas adequadas e eficazes.

Esse posicionamento judicial representa um avanço na consolidação de parâmetros mais objetivos para aferição de responsabilidade nas relações digitais. A decisão também tende a influenciar outras instâncias, provocando uma reavaliação das estratégias de segurança cibernética adotadas por plataformas tecnológicas.

Para os operadores do direito e gestores empresariais, a mensagem é clara: o dever de proteção de dados e integridade das transações não pode ser tratado como diferencial competitivo, mas sim como parte da estrutura mínima esperada de conformidade. A ausência de comprovação de medidas efetivas de proteção pode configurar falha de serviço, atraindo não apenas a responsabilização civil, mas também desdobramentos de ordem administrativa e reputacional.

Empresas que atuam com ativos digitais, portanto, precisam investir de forma consistente em auditorias, protocolos de resposta a incidentes, métodos de autenticação robustos e treinamento de equipe. A jurisprudência passa a exigir mais do que promessas de segurança: requer provas concretas de que as medidas de proteção foram, de fato, implementadas e operam de maneira eficaz.

Esse entendimento também contribui para a estabilização das relações jurídicas no ambiente digital, ampliando a confiança dos usuários e promovendo um equilíbrio nas responsabilidades entre prestadores de serviços tecnológicos e consumidores. Ao delimitar as obrigações das plataformas, o Judiciário colabora para um mercado mais transparente e alinhado às normas de proteção ao consumidor e aos princípios da boa-fé objetiva.

Publicado em

VESTÍGIOS VIRTUAIS E PERSONALIDADE: O QUE O DIREITO DEVE PROTEGER NO MUNDO DIGITAL

Nas últimas décadas, o modo como os indivíduos constroem e manifestam suas identidades passou por transformações profundas. Uma parte significativa da experiência humana foi transferida, de forma progressiva e muitas vezes imperceptível, para o meio digital. O cotidiano, as relações afetivas, os posicionamentos públicos e até mesmo os hábitos mais triviais encontram registro em redes sociais, aplicativos de mensagens e outras plataformas virtuais. Assim, formou-se uma espécie de espelho digital da subjetividade, composto por fragmentos que, reunidos, contam a história de uma pessoa.

Esse conjunto de informações não se limita a dados objetivos ou registros administrativos. Ele carrega nuances afetivas, pensamentos íntimos, memórias e traços de personalidade. Um comentário feito em um momento de emoção, uma playlist compartilhada, uma mensagem antiga — tudo isso adquire valor quando compreendido como parte de uma narrativa de vida. Trata-se de um registro existencial disperso, mas legítimo, que ultrapassa o simples conteúdo informacional.

A partir dessa compreensão, surge uma necessidade: refletir juridicamente sobre a natureza desses vestígios digitais. Não apenas como objetos de proteção de dados ou como manifestações da liberdade de expressão, mas como extensão da própria personalidade. Quando os rastros digitais passam a expressar sentimentos, opiniões e experiências acumuladas ao longo dos anos, eles ganham uma dimensão que exige tutela mais cuidadosa, inclusive após a morte de seu titular.

Há ainda um outro fator que amplia a relevância do tema. O avanço das tecnologias de inteligência artificial já permite, de modo experimental, a simulação de traços de comportamento e linguagem com base em registros digitais acumulados. A possibilidade de recriação de avatares inteligentes a partir de históricos pessoais, antes restrita ao campo da ficção, torna-se cada vez mais tangível. Isso impõe ao Direito o dever de repensar seus institutos e considerar que a vida digital também pode carregar significados existenciais e até mesmo legado.

A exclusão arbitrária de perfis, conteúdos ou históricos digitais, seja por empresas privadas ou por decisões administrativas sem contraditório, não representa apenas uma violação ao direito de expressão. Pode configurar o apagamento de parte de uma identidade construída com o tempo. Não se trata da simples remoção de um conteúdo, mas da eliminação de um acervo simbólico que carrega lembranças, posicionamentos, vínculos e até mesmo amadurecimentos pessoais. A supressão desses registros afeta não apenas o titular da conta, mas também seus familiares, amigos e aqueles que, direta ou indiretamente, partilharam daquela vivência.

Nesse contexto, é preciso adotar uma nova leitura jurídica: reconhecer que a identidade digital não é mero acessório da vida moderna, mas parte integrante da personalidade. Isso demanda mecanismos normativos que resguardem esse patrimônio, assegurando que qualquer exclusão ou modificação de registros digitais respeite garantias mínimas de informação, defesa e proporcionalidade.

A Constituição brasileira já oferece fundamentos sólidos para essa construção, ao estabelecer a dignidade da pessoa como princípio estruturante da ordem jurídica. A partir dessa base, é possível reconhecer que os registros digitais carregam valores ligados à memória, à autonomia, à identidade e à história pessoal de cada cidadão. Essa interpretação se alinha, inclusive, a um esforço mais amplo de preservação da memória coletiva e de proteção da diversidade de narrativas humanas no ambiente virtual.

Essa preocupação se intensifica quando observamos casos concretos de exclusões definitivas e sem justificativa transparente, em que perfis inteiros — construídos ao longo de muitos anos — são simplesmente eliminados. Em episódios como esses, o impacto vai além da perda de conteúdo. O que está em jogo é a possibilidade de reconstrução futura de histórias pessoais e a preservação da identidade em sua dimensão afetiva e simbólica. Não se trata de um direito abstrato, mas de um elemento que poderá, inclusive, compor a memória de gerações futuras.

A supressão unilateral de um perfil digital, especialmente quando realizada sem garantias mínimas, revela um desequilíbrio de poder entre usuários e as grandes plataformas. Há um espaço normativo pouco explorado, no qual a vontade privada se impõe com poucos freios, em prejuízo da autonomia e da dignidade do indivíduo. Ao mesmo tempo, a omissão regulatória do Estado contribui para consolidar essa fragilidade. O Direito, nesse ponto, permanece aquém da realidade vivida por milhões de pessoas que constroem vínculos, memórias e identidade nos meios digitais.

É preciso, portanto, inaugurar uma etapa normativa mais atenta à permanência da existência digital. A proteção jurídica deve incorporar a ideia de que os registros acumulados ao longo da vida formam um patrimônio imaterial legítimo, digno de ser preservado. Esse reconhecimento não se limita à proteção de dados, mas envolve o respeito à trajetória humana em sua dimensão contemporânea. Garantir esse direito é, também, garantir que cada pessoa possa deixar um rastro legítimo de quem foi, não apenas para si, mas para aqueles que ainda virão.

Publicado em

O QUE DIZ A LEI SOBRE O USO DOS SEUS DADOS PELAS INTELIGÊNCIAS ARTIFICIAIS

A difusão das plataformas de inteligência artificial generativa tem transformado significativamente a interação dos usuários com as tecnologias digitais. Desde sua adoção em larga escala, modelos como o ChatGPT, desenvolvidos por empresas americanas, destacam-se pela capacidade de fornecer respostas coerentes e precisas, conquistando rapidamente usuários em diversas regiões, incluindo o Brasil.

Por outro lado, modelos provenientes da China chamaram a atenção inicialmente por sua eficiência técnica, mas também geraram debates relacionados à transferência de dados pessoais para servidores localizados naquele país, levantando questionamentos sobre privacidade e segurança da informação.

O debate sobre regulação e proteção de dados envolvendo essas tecnologias está em constante desenvolvimento. Assim, a reação do público e dos órgãos reguladores varia conforme a origem da plataforma e as práticas adotadas. Independentemente dessas diferenças, é fundamental observar com atenção qualquer transferência de dados pessoais para fora do território nacional, considerando o destino das informações e o cumprimento das normas aplicáveis.

Essa discussão envolve não apenas aspectos regulatórios, mas também questões relacionadas à geopolítica e à regulação do fluxo internacional de dados. Dado que os conflitos entre grandes potências ultrapassam a esfera das normas de proteção de dados, o foco desta análise será restrito à regulação da transferência internacional de dados pessoais, tema relevante para todas as plataformas de inteligência artificial generativa acessíveis no Brasil.

No ordenamento jurídico brasileiro, a transferência de dados pessoais para outros países está submetida à Lei Geral de Proteção de Dados (Lei nº 13.709/2018). Os artigos 33 a 36 estabelecem que esse tipo de transferência só pode ocorrer mediante cumprimento de condições específicas previstas na legislação, como a existência de decisão de adequação da autoridade reguladora, consentimento expresso do titular ou a utilização de cláusulas contratuais padrão aprovadas pela Autoridade Nacional de Proteção de Dados (ANPD).

Em agosto de 2024, a ANPD publicou norma regulamentadora detalhando procedimentos para reconhecimento de países e organismos considerados adequados, assim como para a disponibilização de cláusulas-padrão e avaliação de outras ferramentas regulatórias. Entretanto, mecanismos de transferência previstos na lei que não dependam de regulamentação continuam vigentes, desde que cumpram os requisitos legais.

Cabe destacar que a regulamentação diferencia a coleta internacional de dados, quando a empresa obtém os dados diretamente em outro país, da transferência internacional, que ocorre quando um controlador envia dados sob sua posse para o exterior.

Os sistemas de inteligência artificial generativa mencionados encontram-se sob a vigência da LGPD, o que impõe às empresas responsáveis a observância dos princípios e regras, principalmente quanto à transparência sobre os tratamentos realizados.

Dessa forma, é esperado que os termos de uso e, principalmente, as políticas de privacidade informem claramente quais mecanismos legais fundamentam as transferências internacionais de dados pessoais, conforme o princípio da transparência previsto na legislação brasileira.

Por meio de um estudo recente realizado em parceria com um centro de tecnologia e sociedade, foram avaliadas as práticas de transparência de diversas plataformas de inteligência artificial generativa. A pesquisa identificou que a maioria dos serviços não fornece informações claras sobre os mecanismos utilizados para transferência internacional de dados, tampouco detalha os países que recebem essas informações.

Um exemplo elucidativo é o modelo chinês que, conforme sua política de privacidade, não esclarece adequadamente quais dados pessoais são enviados a servidores locais ou retransmitidos para outras regiões, o que tem gerado questionamentos regulatórios e notificação por autoridades internacionais.

No mesmo sentido, a plataforma americana, embora utilize servidores em território norte-americano para transferência de dados, não tem enfrentado o mesmo grau de questionamento público. Sua política de privacidade também deixa lacunas em relação à explicitação dos mecanismos adotados para a transferência internacional.

Importa mencionar que, ao contrário da China, os Estados Unidos não dispõem de legislação federal específica sobre proteção de dados pessoais nem de autoridade reguladora dedicada ao tema, o que reflete em dificuldades para a celebração e manutenção de acordos internacionais de proteção, como evidenciado por decisões recentes de tribunais europeus.

Os acordos em vigor entre Estados Unidos e União Europeia não têm validade para o Brasil, o que reforça a necessidade de observância rigorosa da legislação nacional para todas as transferências internacionais de dados.

Ao analisar as demais plataformas avaliadas, verifica-se que o quadro de insuficiência de transparência e conformidade regulatória é generalizado, independentemente do país de origem.

Por mais que algumas dessas tecnologias ainda não recebam ampla atenção do público, o tema da proteção de dados merece constante monitoramento pelas autoridades brasileiras. A percepção pública acerca da segurança das informações parece estar mais relacionada a fatores culturais e políticos do que a uma avaliação técnica aprofundada.

A preocupação com a coleta e transferência internacional de dados pessoais não é nova. Desde o final do século passado, temas ligados ao controle de dados financeiros e, atualmente, ao uso intensivo de informações pessoais em dispositivos móveis, evidenciam a relevância da proteção de dados.

A inovação tecnológica amplifica o alcance do monitoramento, aumentando a exposição dos titulares a riscos relacionados à privacidade e à segurança, especialmente em um contexto de compartilhamento internacional de informações entre empresas privadas e entes governamentais.

Diante disso, é fundamental que a sociedade e os órgãos reguladores no Brasil mantenham atenção contínua sobre todas as plataformas tecnológicas operantes no país, exigindo cumprimento rigoroso das normas de proteção de dados pessoais. É importante evitar julgamentos baseados apenas na origem geográfica das empresas ou em sua popularidade, priorizando critérios técnicos e legais para assegurar a proteção dos direitos dos titulares.

Publicado em

LEIS, TECNOLOGIA E NOVOS RUMOS PARA 2025

O início de um novo ano é sempre repleto de análises e previsões em diversos campos. No setor jurídico, 2025 promete ser um ano de debates intensos e decisões importantes, com destaque para novas leis, projetos em tramitação e julgamentos de grande impacto. Aqui, exploramos os temas mais relevantes que podem moldar o cenário jurídico nos próximos meses.

A Lei das Bets e os desafios de sua implementação

Desde dezembro de 2023, a chamada “Lei das Bets” está em vigor, regulamentando as apostas esportivas no Brasil. No entanto, a eficácia da lei tem sido questionada, especialmente em relação à proteção de públicos vulneráveis. Em um movimento significativo, o Supremo Tribunal Federal (STF) determinou que o governo implemente mecanismos para impedir o uso de recursos de programas sociais, como o Bolsa Família, em apostas. Além disso, o STF antecipou a aplicação de medidas que restringem publicidade voltada a crianças e adolescentes, reforçando a preocupação com a ética na promoção desse mercado.

Reforma do Código Civil: um novo marco legislativo?

Outro ponto que desperta atenção é a reforma do Código Civil. Um anteprojeto apresentado no ano passado sugere mudanças profundas em diversas áreas do direito, como família, sucessões, empresarial, contratual e responsabilidade civil. A novidade mais comentada é a inclusão de uma seção específica para o direito digital, abordando temas como patrimônio e herança digital, inteligência artificial e proteção de menores no ambiente online. Caso aprovado, o novo Código Civil será um marco regulatório importante, adaptando-se às demandas de uma sociedade cada vez mais digital.

A responsabilidade das plataformas digitais em debate

A discussão sobre a responsabilização de plataformas digitais também promete ser um ponto alto de 2025. O STF retomará o julgamento sobre o artigo 19 do Marco Civil da Internet, que trata da responsabilidade das empresas por conteúdos publicados por terceiros. Esse debate é crucial para definir os limites entre liberdade de expressão e a necessidade de moderação de conteúdo em ambientes digitais, um tema cada vez mais urgente no Brasil e no mundo.

Regulação da inteligência artificial: um avanço necessário

O Brasil também está avançando na criação de um marco regulatório para a inteligência artificial. A proposta, que já passou pelo Senado e agora aguarda votação na Câmara, estabelece diretrizes gerais para o uso da IA. Entre os destaques, estão regras para a classificação de risco dos sistemas e a proteção de direitos autorais em relação às fontes usadas para o treinamento de modelos generativos. Este será um passo importante para equilibrar inovação tecnológica e segurança jurídica.

Economia de compartilhamento: novos desafios no judiciário

No campo da economia de compartilhamento, empresas como plataformas de transporte e hospedagem continuam no centro das atenções. O STF analisará a existência de vínculo empregatício entre motoristas de aplicativos e as empresas, enquanto o Superior Tribunal de Justiça (STJ) poderá decidir sobre a legalidade de serviços de transporte compartilhado. Esses julgamentos definirão as bases para o futuro desses modelos de negócio no Brasil.

O que esperar do futuro jurídico?

Com tantas questões em pauta, 2025 será um ano decisivo para o direito brasileiro. As discussões sobre leis, tecnologia e o papel das plataformas digitais evidenciam a necessidade de atualização constante do ordenamento jurídico, acompanhando as transformações sociais e econômicas. Fiquemos atentos às decisões que moldarão os rumos do país.

Publicado em

COMO PROTEGER CRIANÇAS E ADOLESCENTES NA ERA DIGITAL

No cenário atual, onde 79% dos adolescentes brasileiros entre 9 e 17 anos acessam a internet diariamente, a proteção de dados pessoais de crianças e adolescentes se torna uma prioridade indispensável. Com o aumento da conectividade e do uso de plataformas digitais, como redes sociais, jogos online e aplicativos educacionais, é crucial que empresas adotem medidas iniciais para garantir a segurança dos menores: a verificação de idade.

Esse processo é o primeiro passo para proteger essa parcela vulnerável da população e assegurar que o tratamento de seus dados seja feito de forma segura e responsável. A validação inicial permite que decisões como a criação de contas, a solicitação de consentimento parental e a implementação de medidas de segurança adicionais sejam realizadas com base em informações corretas e de acordo com a legislação vigente. Dessa forma, a privacidade e a segurança dos jovens usuários permanecem no centro das operações.

A Lei Geral de Proteção de Dados (LGPD) reconhece a necessidade de um tratamento diferenciado para dados de menores, e a verificação de idade atua como um pilar essencial para garantir o cumprimento dessas diretrizes. Além disso, a adoção de práticas adequadas de checagem não só garante conformidade legal, mas também constrói uma relação de confiança entre empresas, usuários e suas famílias.

Para além das exigências legais, a verificação de idade abre portas para a implementação de medidas adicionais, como camadas extras de segurança, políticas de privacidade adaptadas e a restrição de conteúdos inapropriados. Tais práticas são fundamentais para assegurar um ambiente digital mais seguro e confiável, permitindo que menores utilizem a tecnologia de forma saudável e protegida.

O mercado de jogos online e apostas, por exemplo, enfrenta desafios ainda maiores. Além das preocupações com privacidade e conteúdo inadequado, há regulações específicas que proíbem o acesso de menores a essas plataformas. A ausência de sistemas eficientes de controle de idade pode gerar sérios problemas regulatórios e danos à reputação das empresas. Nesse contexto, a adoção de ferramentas de controle parental e verificação rigorosa torna-se imprescindível.

A educação digital também desempenha um papel vital. A responsabilidade das empresas de restringir o acesso de menores deve vir acompanhada de uma conscientização constante dos pais e responsáveis sobre os riscos do ambiente online. É importante que, além das escolas, as próprias plataformas digitais contribuam para essa educação, promovendo um uso consciente e seguro da tecnologia desde cedo.

Proteger os dados de crianças e adolescentes vai além de uma obrigação legal; trata-se de um compromisso social. Empresas, governo e sociedade devem trabalhar em conjunto para criar um ambiente digital que permita às novas gerações explorar o mundo virtual de maneira segura e protegida, assegurando que as oportunidades da era digital sejam aproveitadas sem comprometer a privacidade e o bem-estar dos mais jovens.

Publicado em

REDUÇÃO DE FRAUDES DIGITAIS EM 2024: QUAIS SÃO OS PRINCIPAIS GOLPES E COMO SE PROTEGER?

No Brasil, o primeiro semestre de 2024 registrou uma redução de 10,3% nos golpes digitais em comparação ao mesmo período de 2023, segundo dados do mercado. Foram identificadas 3.091 fraudes este ano, em contraste com 3.447 ocorridas nos seis primeiros meses do ano anterior. Embora a perda financeira ainda seja significativa, houve uma diminuição de 37%, totalizando R$ 245 milhões em prejuízos. O estudo analisou as fraudes no ambiente digital entre janeiro e junho de 2024, revelando um cenário ainda preocupante, especialmente no que se refere a golpes relacionados a falsas transações financeiras e invasões de contas.

A fraude mais comum foi o falso pagamento, representando 50,4% dos casos, um aumento expressivo de 64% em relação ao ano passado. Em seguida, as invasões de contas corresponderam a 22,2% dos golpes, seguidas por anúncios falsos (14,3%) e coleta de dados pessoais (12,3%), com os dois últimos apresentando quedas de 20% e 46%, respectivamente.

São Paulo lidera em número de fraudes, com 47% dos casos, seguido por Rio de Janeiro (15%), Minas Gerais (9%) e Paraná (5%). Entre os produtos mais visados pelos golpistas estão celulares e smartphones, que correspondem a 40% das fraudes, sendo os modelos de iPhone responsáveis por 32% desse total. Consoles de videogame, principalmente o PlayStation, aparecem em seguida, representando 22% das fraudes, enquanto computadores somam 9%.

Principais Tipos de Golpes e Como Evitá-los

1 – Falso Pagamento
Este golpe consiste no envio de comprovantes falsos de pagamento, geralmente via e-mail ou aplicativos de mensagens. O vendedor, acreditando que o pagamento foi feito, envia o produto, mas na verdade não houve nenhuma transação. Outra variação é o envio de boletos falsos, em nome de lojas fictícias. Para evitar esse golpe, é essencial confirmar o recebimento do valor na conta antes de entregar o produto. Além disso, é recomendado manter as conversas dentro das plataformas de compra e verificar a autenticidade dos e-mails recebidos.

2 – Invasão de Conta
Criminosos utilizam dados vazados na internet, como login e senha, para invadir contas em plataformas de vendas. Uma vez com o acesso, publicam anúncios falsos ou fazem compras em nome da vítima. Para prevenir esse tipo de fraude, o uso de senhas fortes e variadas é fundamental. Outra medida de segurança é a troca periódica de senhas e a atenção aos alertas de tentativas de login suspeitas.

3 – Anúncio Falso
Ofertas com preços muito abaixo do valor de mercado são um sinal clássico de golpe. Os fraudadores publicam anúncios falsos para obter pagamentos antecipados ou até mesmo roubar dados confidenciais. Desconfiar de preços excessivamente baixos e evitar negociações fora dos chats das plataformas são práticas essenciais para se proteger desse tipo de fraude.

4 – Coleta de Dados
Utilizando-se de técnicas de engenharia social, os golpistas coletam informações pessoais das vítimas, como CPF, dados bancários e número de celular, para aplicar golpes futuros. Proteger esses dados e evitar o compartilhamento em ambientes não confiáveis é a melhor forma de prevenção. Além disso, desconfie de links suspeitos e mantenha as negociações dentro das plataformas de venda, que oferecem recursos de proteção à privacidade dos usuários.

Embora o número de fraudes tenha caído, a sofisticação dos golpes continua a exigir atenção redobrada de quem utiliza o ambiente digital para comprar e vender produtos. O conhecimento sobre as práticas fraudulentas e a adoção de medidas preventivas são fundamentais para minimizar os riscos.

Publicado em

O IMPACTO DA DIVULGAÇÃO INDEVIDA DE INFORMAÇÕES SENSÍVEIS NO AMBIENTE DIGITAL

Uma ação indenizatória foi movida contra o Estado da Bahia e uma conhecida plataforma de divulgação de conteúdo jurídico, sob a alegação de violação do direito ao sigilo de informações sensíveis sobre a saúde do autor. O caso gira em torno da divulgação indevida de um processo judicial sigiloso, envolvendo uma pessoa vivendo com HIV, cujos detalhes acabaram expostos publicamente na plataforma.

Os advogados do autor destacaram a gravidade do ocorrido, argumentando que ele, já vítima de discriminação relacionada à sua condição de saúde, sofreu uma nova violação com a exposição de dados pessoais. A situação trouxe à tona a discussão sobre a importância da proteção de dados sensíveis, especialmente no ambiente digital, onde informações podem ser disseminadas com grande rapidez e alcance.

A defesa do autor foi fundamentada na Constituição Federal, que, em seu artigo 5º, LXXIX, garante o direito fundamental à proteção de dados pessoais, inclusive nos meios digitais. A Lei Geral de Proteção de Dados (LGPD) também foi utilizada como base, com foco no artigo 11, que restringe o tratamento de dados sensíveis, prevendo sua utilização apenas em hipóteses específicas e com medidas adequadas para evitar danos ao titular.

A plataforma envolvida não comentou o caso específico, devido ao sigilo judicial, mas reforçou que adota medidas contínuas para garantir que conteúdos sigilosos não sejam indexados. Além disso, mantém um canal de comunicação direta com os usuários para tratar de possíveis violações de privacidade, buscando assegurar a proteção dos envolvidos.

É importante destacar a complexidade da exposição indevida de dados pessoais e a urgência em assegurar a privacidade, especialmente em casos judiciais que tratam de questões de saúde ou outras informações sensíveis. A quebra de sigilo pode gerar prejuízos irreversíveis, agravando a situação de indivíduos que já são alvo de preconceitos sociais.

Publicado em

REFORMA TRIBUTÁRIA E A ECONOMIA DIGITAL

A reforma tributária, em discussão no Brasil, apresenta desafios significativos para o setor de tecnologia e economia digital. Empresas especializadas em desenvolvimento de aplicativos e plataformas digitais, por onde transitam grandes volumes financeiros, têm expressado preocupação com a falta de incentivos tributários, em contraste com outros segmentos econômicos. A atual proposta de reforma parece presa a uma visão analógica, desconsiderando a crescente importância da economia digital, inclusive em um cenário onde o Banco Central avança com a digitalização da moeda.

As plataformas digitais enfrentam uma situação peculiar, onde a redução da base de cálculo dos impostos, de até 60%, é restrita aos serviços prestados ao governo. Esta exceção evidencia um tratamento desigual que não se estende às demais operações comerciais dessas empresas. A conceituação inadequada entre plataforma e serviço digital no texto da reforma é um dos principais pontos de crítica, pois dificulta a adaptação das empresas às novas exigências tributárias e desincentiva a entrada de novos investidores estrangeiros.

O desafio de transição entre o sistema tributário atual e o novo, previsto para se estender de 2026 a 2033, impõe custos adicionais às empresas. A manutenção de duas estruturas tributárias simultaneamente resultará em aumento nos custos de transação, o que, sem incentivos específicos, pode tornar o ambiente de negócios menos atraente para empresas de tecnologia que operam ou pretendem operar no Brasil.

A questão da responsabilidade solidária, destacada na proposta de reforma, é um ponto de grande debate. Nos modelos internacionais, essa responsabilidade não é atribuída da mesma forma. O Brasil, ao impor essa responsabilidade às plataformas digitais que atuam como hubs oferecendo serviços diversificados, transfere o ônus do controle e da cobrança do Estado para o setor privado. Esta mudança precisa ser discutida e ajustada para evitar retrocessos.

A reforma tributária, embora necessária, exige adaptações específicas para a economia digital. Grupos de trabalho têm sido formados para discutir as problemáticas e buscar soluções adequadas. Um dos aspectos a ser aperfeiçoado é o sistema de pagamento parcelado (split payment), onde a questão dos créditos e da não cumulatividade necessita de melhorias significativas. A implementação de um sistema eficaz para o mapeamento e cálculo desses créditos é fundamental para garantir a competitividade e a eficiência do setor.

Além disso, a falta de diálogo entre o setor de tecnologia e os formuladores da reforma tem sido um entrave. O conhecimento especializado das empresas de tecnologia é crucial para desenvolver um sistema tributário que realmente contemple as necessidades e especificidades desse setor. A ausência de incentivos e o aumento da alíquota padrão para 26,5% no setor de serviços digitais, equiparando-o aos demais setores, contradiz as promessas iniciais da reforma e desconsidera o papel vital que a economia digital desempenha no desenvolvimento econômico do país.

Portanto, é premente que a reforma tributária seja revisada e ajustada para reconhecer e incentivar o crescimento da economia digital. Apenas assim será possível criar um ambiente de negócios justo, competitivo e alinhado com as tendências globais de digitalização e inovação tecnológica.

Publicado em

NOVA RESOLUÇÃO DO TSE IMPÕE REGRAS PARA USO DE IA NA PROPAGANDA ELEITORAL

Recentemente, o Tribunal Superior Eleitoral (TSE) aprovou uma nova resolução que impactará a propaganda eleitoral para as eleições municipais de 2024, especificamente abordando o uso de inteligência artificial (IA), proteção de dados e fake news. A Resolução Nº 23.732/24 altera a Resolução nº 23.610/19 e traz à tona questões cruciais sobre a identificação e rotulagem de conteúdo sintético multimídia em peças publicitárias.

Uma das mudanças mais notáveis é a exigência de rotulagem de qualquer peça publicitária que utilize IA. Esta determinação visa informar o público sobre o uso de tecnologia avançada na criação de imagens, textos ou vídeos. No entanto, a aplicação prática dessa exigência gera dúvidas, pois a IA pode ser utilizada em várias fases do desenvolvimento publicitário, desde a pesquisa até a produção final. A resolução esclarece que o rótulo deve ser aplicado ao conteúdo final veiculado ao público, garantindo transparência sobre o uso de IA no material divulgado.

Além disso, o uso de chatbots e avatares foi restringido, proibindo qualquer simulação de conversas com candidatos ou pessoas reais, com o objetivo de evitar a disseminação de informações falsas ou enganosas. A vedação ao uso de deepfakes também é destacada, proibindo a utilização de qualquer conteúdo artificialmente gerado ou modificado que possa influenciar negativamente o processo eleitoral.

A resolução também aborda a proteção de dados, classificando campanhas em cidades com menos de 200.000 eleitores como agentes de tratamento de pequeno porte, aplicando-se as disposições da Resolução CD/ANPD nº 2 de 2022. Há uma exigência de registro detalhado das operações de tratamento de dados, incluindo informações sobre o tipo de dado, sua origem, categorias de titulares, finalidade e medidas de segurança adotadas.

Outra medida significativa é a exigência de um relatório de impacto à proteção de dados (RIPD) para campanhas que realizem tratamento de dados de alto risco, especialmente aquelas que envolvem tecnologias inovadoras ou dados sensíveis. Esse relatório deve ser elaborado pela candidata ou candidato e pelo partido político, detalhando os tipos de dados coletados, os riscos identificados, as metodologias de tratamento e as medidas de mitigação de riscos.

Essas regulamentações são essenciais para garantir que a IA e outras tecnologias emergentes sejam usadas de maneira responsável no contexto eleitoral, preservando a integridade do processo democrático e protegendo os direitos dos eleitores. Em um cenário global onde o uso irresponsável da IA em campanhas eleitorais tem sido reportado, como em casos nos EUA onde telefonemas automatizados enganam eleitores, a iniciativa do TSE representa um avanço significativo na busca por um processo eleitoral mais justo e transparente.

Publicado em

FAKE NEWS: ESTRATÉGIAS LEGAIS E SOCIAIS PARA UMA ERA DIGITAL INFORMADA

A era digital trouxe consigo uma avalanche de informações, acessíveis com um simples clique. No entanto, essa facilidade de acesso também pavimentou o caminho para a propagação de notícias falsas, ou “fake news”, um fenômeno que ameaça a integridade da informação e, por extensão, o tecido social, político e econômico de nossa sociedade.

Entender o que constitui uma notícia falsa é o primeiro passo para combatê-la. Diferentemente da desinformação, que pode ser inadvertida, as fake news são criações maliciosas destinadas a enganar, prejudicar reputações, ganhar vantagem financeira ou política, ou distorcer a opinião pública. Essa distinção é vital para abordar o problema de maneira eficaz.

O impacto das fake news não é trivial. Elas têm o poder de influenciar eleições, diminuir a confiança nas instituições, incitar ódio e violência, e até mesmo afetar a saúde pública, como observado nos boatos sobre vacinas durante a pandemia de Covid-19. A necessidade de uma ação legislativa tornou-se evidente, com vários países, incluindo o Brasil, propondo leis para mitigar esse fenômeno.

No coração do combate às fake news está o direito, servindo como um instrumento para proteger a sociedade. No Brasil, por exemplo, o Projeto de Lei 2.630/2020 representa um esforço para regular a disseminação de informações falsas, introduzindo responsabilidades para as plataformas digitais e promovendo a verificação de fatos e a educação digital. No entanto, é necessário reconhecer que soluções legais não devem se restringir ao âmbito penal, mas também incorporar a responsabilidade civil para tratar os danos causados pela desinformação.

Para efetivamente combater as fake news, é essencial ir além das medidas legais, promovendo a educação digital e a consciência crítica entre a população. Agências de checagem de fatos e iniciativas educacionais, como as do Tribunal Superior Eleitoral (TSE) e do Conselho Nacional de Justiça (CNJ), são fundamentais nesse processo. A responsabilidade individual na verificação e compartilhamento de informações também não pode ser subestimada.

Contudo, o combate às fake news enfrenta desafios significativos, incluindo a proteção da liberdade de expressão e a prevenção da censura por plataformas digitais. Além disso, a proteção da privacidade dos usuários e a garantia de que as medidas contra as fake news não sejam usadas para fins políticos ou ideológicos permanecem preocupações prementes.

As fake news representam um desafio complexo que exige uma resposta multifacetada, envolvendo legislação, educação, responsabilidade individual e coletiva, e a promoção de um jornalismo de qualidade. Somente através de um esforço conjunto, abrangendo todos os setores da sociedade, poderemos esperar proteger nossa democracia e nossos direitos contra o perigo das notícias falsas.