Publicado em

O FUTEBOL E OS BASTIDORES JURÍDICOS DO STREAMING: O QUE A FINAL DO MUNDIAL TRANSMITIDA POR INFLUENCIADORES NOS ENSINA SOBRE DIREITO DIGITAL

Durante a final do Mundial, a transmissão realizada por Casimiro, via CazéTV, atraiu milhões de espectadores e pode ter gerado, em poucas horas, uma receita superior a R$ 3,7 milhões. Mais do que um evento esportivo, o episódio ilustra com clareza a transformação radical que a chamada creator economy tem promovido no ecossistema da comunicação digital. O que antes era controlado exclusivamente por grandes emissoras, agora passa pelas mãos de influenciadores que operam com contratos complexos, audiências massivas e relevância comercial expressiva.

Esse novo cenário não é apenas tecnológico ou midiático — ele é também jurídico. Onde há audiência, monetização e dados pessoais circulando, há responsabilidades legais que envolvem diretamente o direito digital e a proteção de dados.

Do ponto de vista jurídico, algumas questões se destacam.

Contratos de transmissão e licenciamento de imagem
Influenciadores como Casimiro não transmitem jogos livremente. Há contratos com federações ou detentores de direitos, como a FIFA, que impõem regras rígidas sobre o uso das imagens, limitações de exibição, cláusulas de monetização e penalidades por descumprimento contratual. O entretenimento transmitido ao vivo é, na prática, a execução de um contrato cuidadosamente negociado.

Tratamento de dados pessoais
Quando um espectador comenta, curte ou realiza uma doação no chat, está fornecendo dados à plataforma e, potencialmente, a terceiros parceiros. Isso desencadeia obrigações previstas na Lei Geral de Proteção de Dados Pessoais (LGPD), que impõe deveres de transparência, finalidade e segurança quanto ao uso dessas informações.

Publicidade e responsabilidade sobre anúncios
A monetização no ambiente digital ocorre por meio de múltiplas frentes — publicidade automática da plataforma, contratos com patrocinadores, promoções e parcerias comerciais. Cada forma de veiculação deve seguir normas claras, tanto da própria plataforma quanto do Conselho Nacional de Autorregulamentação Publicitária (CONAR), sob pena de sanções.

Discurso e moderação de conteúdo
Ainda que os influenciadores não sejam os autores diretos das manifestações de seus espectadores, o canal pode ser responsabilizado por conteúdos ilícitos, discursos de ódio ou práticas abusivas veiculadas no ambiente do chat. A moderação não é apenas uma questão ética, mas também de compliance.

A transmissão da final, portanto, representa mais do que uma mudança de tela — é o reflexo de uma nova realidade jurídica que acompanha o entretenimento digital. Advogados atentos a essas transformações percebem que o campo do direito digital se tornou indispensável para a atuação estratégica em um ambiente onde comunicação, tecnologia e responsabilidade caminham lado a lado.

Dr. Lécio Machado,
Advogado Criminalista e Especialista em Direito Digital

LGPD na prática | Comunicação jurídica estratégica

Publicado em

CIBERSEGURANÇA EMPRESARIAL: POR QUE TREINAR SUA EQUIPE É UMA MEDIDA ESTRATÉGICA E INDISPENSÁVEL

A digitalização das rotinas empresariais, embora represente ganhos expressivos em agilidade e competitividade, também impõe desafios relevantes no campo da proteção de dados. Cada novo sistema, plataforma ou ferramenta conectada amplia a superfície de exposição a riscos cibernéticos. Diante disso, a segurança da informação deve ser compreendida como elemento estruturante da gestão organizacional.

Entre os muitos fatores que compõem a estrutura de defesa de uma empresa, um dos mais sensíveis é o comportamento humano. As equipes internas, especialmente aquelas que lidam com informações sensíveis e canais digitais, figuram como pontos vulneráveis quando não devidamente orientadas. O erro humano, ainda hoje, figura entre as principais causas de incidentes de segurança digital.

Relatórios especializados têm apontado que grande parte dos ataques bem-sucedidos foram facilitados por falhas operacionais, como o clique em links fraudulentos, a abertura de anexos contaminados por malwares ou o fornecimento de credenciais em páginas falsas. Esses dados, por si só, evidenciam o impacto que a falta de preparo técnico e comportamental pode gerar.

Além disso, há um número expressivo de empresas brasileiras que sofreram prejuízos decorrentes de fraudes com boletos falsos. Esses ataques, muitas vezes bem elaborados, resultam não apenas em perdas financeiras, mas também em danos reputacionais que afetam a relação da empresa com seus parceiros e clientes.

Mesmo com o uso de sistemas avançados de proteção, como firewalls e softwares de monitoramento, a eficácia das barreiras tecnológicas está diretamente relacionada à conduta dos usuários. Uma equipe consciente e bem treinada funciona como camada adicional de segurança, capaz de identificar tentativas de golpe e adotar medidas corretas diante de situações suspeitas.

Nesse contexto, torna-se altamente recomendável adotar ações estruturadas voltadas à educação digital dentro da organização. Algumas medidas que podem ser implementadas incluem:

1. Capacitação periódica: É importante manter uma rotina de treinamentos que abordem temas como fraudes eletrônicas, engenharia social, proteção de senhas e segurança em ambientes digitais. A atualização dos conteúdos deve acompanhar as mudanças nas táticas utilizadas por cibercriminosos.

2. Simulações e testes práticos: Exercícios como campanhas de phishing simulado permitem identificar vulnerabilidades reais no comportamento dos colaboradores. Os resultados dessas ações ajudam a direcionar novas capacitações com base em situações vivenciadas.

3. Recursos informativos acessíveis: Cartilhas, vídeos curtos, fluxogramas e murais informativos são instrumentos valiosos para reforçar boas práticas no cotidiano da equipe. O conteúdo deve ser simples, direto e orientado à prevenção.

4. Valorização da conduta segura: Estimular a troca de informações, o relato imediato de situações suspeitas e o diálogo aberto sobre cibersegurança contribui para a construção de um ambiente mais vigilante e colaborativo.

A segurança digital, portanto, vai além da tecnologia. Ela depende da conscientização de cada pessoa envolvida nas rotinas corporativas. O investimento em capacitação não deve ser tratado como despesa, mas como política de proteção de patrimônio, confiança institucional e continuidade dos negócios.

Empresas que escolhem atuar de forma preventiva e educativa em relação à proteção digital colhem os frutos de uma estrutura mais sólida e preparada para os desafios do ambiente empresarial moderno. É a postura de quem compreende que a verdadeira proteção não está apenas nos sistemas, mas, sobretudo, nas atitudes.

Publicado em

IA GENERATIVA E COMPLIANCE: COMO INTEGRAR INOVAÇÃO E RESPONSABILIDADE NAS ORGANIZAÇÕES

A adoção da inteligência artificial generativa (IAGen) deixou de ser tendência e passou a compor a rotina de departamentos de design, marketing e desenvolvimento de novos modelos de negócios. Levantamento publicado pela McKinsey mostra que, em 2024, aproximadamente 72 % das companhias em todo o mundo já utilizavam esse tipo de ferramenta. À medida que a tecnologia se integra às operações, também se intensificam as preocupações jurídicas, éticas e regulatórias.

Temas como direitos autorais, tratamento de dados pessoais sem consentimento e responsabilização por decisões automatizadas, especialmente em crédito, saúde e recrutamento, dominam as conversas entre gestores e áreas de compliance. Fica cada vez mais evidente que não basta a IA funcionar; ela precisa ser explicável, auditável e isenta de preconceitos estruturais. Caso contrário, a reputação do negócio pode sofrer danos significativos.

Na prática, a IAGen oferece avanços notáveis, mas carrega riscos equivalentes. O desafio consiste em promover inovação sem comprometer transparência e ética. Enquanto o Marco Legal da Inteligência Artificial (PL 2338/2023) aguarda tramitação, cabe às organizações adotar políticas robustas de governança, capazes de assegurar a confiança de consumidores, parceiros e reguladores.

Caminhos para harmonizar IAGen e compliance

A experiência em projetos de governança de IA indica que algumas medidas são particularmente eficazes:

  1. Definir princípios éticos claros
    Transparência, justiça, privacidade e responsabilidade devem orientar todo o ciclo de vida da tecnologia, desde a escolha de modelos até a entrega de resultados.
  2. Implantar uma política de governança algorítmica
    É essencial documentar quais modelos são utilizados, com que finalidade, quais dados os alimentam e quais riscos envolvem. A gestão precisa ser multidisciplinar, reunindo áreas técnica, jurídica e de gestão de riscos.
  3. Realizar auditorias periódicas
    A revisão regular dos algoritmos ajuda a identificar e mitigar vieses, falhas e desvios de uso. Auditoria não significa desconfiança da ferramenta, mas sim garantia de confiabilidade e conformidade.
  4. Utilizar apenas dados obtidos legalmente e, sempre que possível, anonimizados
    O tratamento deve observar a Lei Geral de Proteção de Dados, zelando por consentimento, minimização e segurança das informações.
  5. Instituir um comitê interno de ética em IA
    Um grupo formado por especialistas em tecnologia, jurídico, RH e compliance avalia casos, aprova projetos e orienta decisões estratégicas.
  6. Fortalecer a cultura organizacional
    Programas de capacitação periódica sobre boas práticas e riscos associados à IA tornam as equipes aliadas fundamentais da governança.
  7. Acompanhar normas e padrões internacionais
    Quem já adota boas práticas globais sai na frente, evita retrabalho e reduz exposição a futuros passivos regulatórios.
  8. Assegurar rastreabilidade das decisões automatizadas
    Quando um sistema de IA nega crédito ou recomenda a contratação de um candidato, deve ser possível compreender os motivos que levaram à conclusão.
  9. Manter supervisão humana
    A IA deve complementar, e não substituir integralmente, o juízo humano. Pessoas continuam sendo a camada final de responsabilidade.
  10. Atualizar rotineiramente as políticas de compliance digital
    O ambiente tecnológico muda em velocidade elevada. Políticas rígidas, mas dinâmicas, acolhem inovações sem perder o rigor jurídico.

A inteligência artificial generativa oferece ganhos competitivos inegáveis, mas só trará valor sustentável às organizações que aliarem inovação tecnológica a práticas sólidas de governança e compliance. Ao adotar diretrizes éticas, criar estruturas de supervisão e assegurar transparência em cada decisão automatizada, as empresas pavimentam um caminho seguro para explorar todo o potencial transformador dessa tecnologia.

Publicado em

DADOS EXPOSTOS? ENTENDA SEUS DIREITOS E MEDIDAS POSSÍVEIS SEGUNDO A LGPD

Na última semana, veio a público um incidente de segurança que comprometeu uma fornecedora de tecnologia responsável pela integração de instituições financeiras ao sistema Pix. O ataque cibernético, que desviou valores expressivos de contas vinculadas ao Banco Central, revelou vulnerabilidades profundas nas engrenagens técnicas que sustentam o sistema financeiro nacional.

Diferentemente de falhas pontuais em aplicativos ou sistemas isolados, esse tipo de incidente atinge estruturas de infraestrutura que deveriam ser protegidas por padrões elevados de segurança, supervisão e governança. O acesso indevido ocorreu por meio de uma brecha explorada na integradora tecnológica, afetando diretamente contas utilizadas para liquidações financeiras entre instituições e o Banco Central.

Embora o impacto inicial tenha se concentrado em contas institucionais, é necessário reconhecer o potencial reflexo sobre usuários finais. Instabilidades em sistemas de pagamento, eventuais bloqueios operacionais e o possível comprometimento de dados transacionais são riscos que não podem ser descartados. Dados operacionais expostos, se não forem corretamente tratados após o incidente, podem ser utilizados de forma fraudulenta em outras esferas do sistema bancário.

Nessas situações, a Lei Geral de Proteção de Dados Pessoais (LGPD) estabelece obrigações objetivas para as organizações envolvidas. Entre elas, está o dever de comunicar prontamente à Autoridade Nacional de Proteção de Dados (ANPD) a ocorrência do incidente, além de, conforme a gravidade, informar os titulares e adotar medidas para mitigar os efeitos do vazamento.

A legislação assegura ainda ao titular o direito de acessar informações sobre o tratamento de seus dados e sobre o incidente ocorrido. É possível, por exemplo, solicitar detalhes sobre a extensão da exposição, os dados afetados e as medidas tomadas para correção e prevenção. O titular também pode solicitar cópias dos dados tratados e exigir revisão de decisões automatizadas que envolvam seus dados pessoais.

Caso haja indício de uso indevido dos dados — como fraudes bancárias, abertura de contas indevidas ou empréstimos não autorizados — o titular pode apresentar reclamação à ANPD e, se necessário, acionar o Poder Judiciário para buscar reparação. Contudo, decisões recentes do Superior Tribunal de Justiça indicam que a simples exposição dos dados, por si só, não gera o dever automático de indenização. É preciso comprovar um dano efetivo e o nexo com o incidente de segurança.

Diante disso, é recomendável que o cidadão que suspeita de envolvimento em um incidente de segurança:

  1. Solicite informações formais à instituição envolvida sobre a possível exposição de seus dados;
  2. Monitore movimentações bancárias e financeiras, com especial atenção a tentativas de fraude;
  3. Formalize reclamação junto à ANPD caso a empresa não forneça os esclarecimentos devidos;
  4. Em caso de dano material ou moral, avalie o ajuizamento de ação judicial com base nos direitos previstos pela LGPD.

A confiança no sistema financeiro digital repousa, em grande parte, na capacidade das instituições de prevenir, detectar e responder de forma transparente a situações como essa. O dever de proteger os dados dos cidadãos permanece, mesmo quando falham os mecanismos de segurança. E é justamente nesse ponto que os direitos do titular devem ser plenamente respeitados e exercidos.

Publicado em

DIREITO DIGITAL E CRIMES CIBERNÉTICOS: QUALIFICAÇÃO PRÁTICA PARA NOVOS DESAFIOS DA ADVOCACIA

A transformação da vida social pela internet deslocou inúmeros conflitos para o ambiente virtual, exigindo da advocacia competências até então pouco exploradas. Questões como fraudes bancárias on-line, clonagem de perfis, remoção de conteúdos, vazamentos de dados e proteção da reputação digital passaram a integrar o cotidiano forense, tornando indispensável a habilidade de navegar entre normas tradicionais e novas regulações de plataformas e dados pessoais.

Nesse contexto, programas de capacitação focados na prática vêm se revelando instrumentos valiosos de atualização profissional. Há formações on-line estruturadas em dez módulos objetivos que disponibilizam modelos de petições e outras peças processuais prontos para adaptação, permitindo ao advogado aplicar o aprendizado de forma imediata. Além do conteúdo técnico, esses cursos abordam estratégias para captação e atendimento de clientes, oferecendo ao participante ferramentas de posicionamento no meio digital e técnicas específicas de relacionamento com públicos afetados por controvérsias virtuais.

A especialização em Direito Digital também estimula uma postura mais empreendedora. Ao dominar temas como crimes cibernéticos, difamação on-line, proteção de dados e responsabilidades de provedores, o profissional amplia o portfólio de serviços e se destaca em um mercado que valoriza respostas eficazes a litígios virtuais. Escritórios que adotaram esse enfoque já observam expansão da carteira de clientes e reforço da autoridade no segmento.

A necessidade de atualização é reforçada pela dinâmica jurisprudencial do Supremo Tribunal Federal, pela Lei Geral de Proteção de Dados e por normativos voltados à responsabilização de plataformas digitais. As demandas judiciais ligadas ao universo on-line tendem a aumentar, e a preparação adequada coloca o advogado em posição privilegiada para atuar tanto de forma independente quanto em estruturas maiores que buscam especialistas.

Como vantagem adicional, o acesso integralmente digital desses cursos permite que profissionais em qualquer região participem sem deslocamentos, conciliando estudo com a rotina do escritório. Linguagem clara, foco em resultados e aplicação prática garantem que o aprendizado se converta rapidamente em valor para o cliente—e, por consequência, em crescimento sustentável para a carreira jurídica.

Publicado em

DESAFIOS DO BRASIL DIANTE DOS CRIMES DIGITAIS E DA SEGURANÇA CIBERNÉTICA

O Brasil permanece entre os países mais atingidos por ameaças virtuais em escala global. Dados recentes revelam mais de 700 milhões de ataques cibernéticos ao longo de 2023, o equivalente a quase 1.400 por minuto. Uma dessas ofensivas resultou no vazamento de mais de 16 bilhões de senhas e credenciais de acesso, conforme levantamento internacional. Paralelamente, a realidade nas ruas também expõe outro risco: mais de 100 celulares são furtados ou roubados a cada hora no país, o que abre caminho para acessos indevidos a contas bancárias e outros serviços digitais.

A vulnerabilidade estrutural do Brasil diante dos crimes digitais envolve todas as esferas do poder público. A União, responsável pela condução de políticas de proteção de dados e defesa cibernética, ainda encontra dificuldades para estabelecer alianças robustas, tanto em âmbito nacional quanto internacional. Faltam ações articuladas e investimentos capazes de fortalecer a segurança das redes governamentais, militares, financeiras e de serviços essenciais.

No âmbito legislativo, a lentidão em atualizar a regulação do espaço digital compromete a resposta institucional. A legislação que rege a internet no Brasil, embora pioneira à época de sua aprovação, já se mostra desatualizada diante dos novos métodos de ataque e manipulação digital. Propostas para criminalizar práticas modernas como o uso malicioso de inteligência artificial – casos de deep fake e deep nude – ainda tramitam sem definição. A ausência de uma legislação consolidada sobre o Direito Digital afeta diretamente a atuação dos demais poderes.

O Judiciário, por sua vez, atua de forma reativa, e encontra barreiras na aplicação de normas antigas a crimes modernos. A jurisprudência relacionada a delitos virtuais ainda é limitada, o que dificulta o enfrentamento jurídico adequado a condutas que envolvem redes de cibercriminosos, fraudes internacionais e cooperação transnacional. Os tribunais, especialmente os superiores, têm enfrentado dificuldades para consolidar entendimentos uniformes em temas que envolvem tecnologias emergentes.

Essa defasagem institucional se reflete na posição do Brasil nos rankings mundiais de ataques digitais. A cada ano, o país figura entre os principais alvos da criminalidade eletrônica, uma posição que expõe a fragilidade de suas defesas virtuais.

Empresas privadas, órgãos públicos, instituições financeiras e operadoras de infraestrutura crítica são alvos preferenciais de grupos criminosos organizados que operam por meio da exploração de vulnerabilidades humanas e técnicas. Muitos ataques ocorrem através da engenharia social, uma estratégia que visa manipular o comportamento de colaboradores despreparados ou desatentos.

Os impactos são diversos: interrupções em sistemas, exclusão de dados, prejuízos financeiros e até mesmo o comprometimento de processos judiciais e administrativos. A perda de informações essenciais ou a adulteração de documentos eletrônicos pode gerar efeitos devastadores para a administração da justiça e para a confiança nas instituições.

Embora algumas iniciativas tenham sido adotadas, como a criação de comitês de segurança da informação no âmbito do Poder Judiciário, a resposta institucional ainda é insuficiente. A velocidade com que ocorrem os ataques exige uma resposta coordenada e imediata.

Há uma lacuna educacional relevante. A ausência de uma política pública de educação digital consistente impede que a população reconheça os riscos e saiba como se proteger. É necessário investir em programas permanentes de conscientização em escolas, empresas e repartições públicas. A proteção contra o crime cibernético começa pela informação e passa pela capacitação contínua dos profissionais que atuam em setores estratégicos.

É indispensável avançar em formação técnica, auditoria constante dos sistemas, testes de intrusão controlados e melhorias na arquitetura de segurança das redes. O país precisa fortalecer suas defesas institucionais para que não continue exposto e vulnerável a ofensivas que, além de prejudicarem a vida das pessoas, abalam a estrutura e a confiabilidade do Estado brasileiro.

Publicado em

USO DA IMAGEM DE EX-EMPREGADO APÓS RESCISÃO GERA DEVER DE INDENIZAR, DECIDE TRT-MG

A Justiça do Trabalho de Minas Gerais reafirmou a proteção à imagem do trabalhador ao condenar uma empresa ao pagamento de R$ 10 mil por danos morais, em razão da continuidade do uso da imagem de um ex-empregado em materiais promocionais mesmo após o término do vínculo empregatício.

A decisão foi proferida pelos julgadores da 11ª Turma do Tribunal Regional do Trabalho da 3ª Região, que mantiveram a sentença de primeira instância, proferida pela 2ª Vara do Trabalho de Pedro Leopoldo. O caso envolveu uma empresa do setor madeireiro sediada em Belo Horizonte, que veiculava vídeos e imagens do ex-colaborador em conteúdos institucionais e publicitários mesmo depois da rescisão contratual.

No processo, a empregadora alegou possuir autorização do trabalhador para uso da imagem, voz e textos, sem limite temporal ou geográfico, por quaisquer meios. A existência desse documento não foi contestada pelo autor da ação, que admitiu sua validade, mas sustentou que o consentimento estaria limitado à vigência do contrato de trabalho.

A decisão judicial se fundamentou na natureza personalíssima do direito à imagem, protegido constitucionalmente pelo artigo 5º, inciso X, da Constituição Federal, e, no plano infraconstitucional, pelos artigos 11 e 20 do Código Civil, além do artigo 2º da Lei Geral de Proteção de Dados Pessoais (Lei 13.709/2018).

A interpretação adotada considerou que os direitos da personalidade, por serem intransmissíveis e irrenunciáveis, não admitem utilização por tempo indeterminado sem autorização expressa e atual do titular. Ainda que o termo de cessão não estabelecesse prazo, entendeu-se que sua eficácia deveria estar limitada ao período de vigência do vínculo trabalhista, sobretudo diante da gratuidade da cessão e da relação de subordinação presente no contrato de trabalho.

A decisão reforça a importância de um tratamento cauteloso quanto à utilização de imagens e dados pessoais de colaboradores. Especialmente em contextos de encerramento de contrato, é recomendável revisar autorizações pré-existentes, considerando que o consentimento dado durante a vigência da relação empregatícia pode não se estender automaticamente para além dela.

A abordagem do tribunal também chama atenção para o desequilíbrio nas relações contratuais trabalhistas, nas quais o trabalhador nem sempre possui condições reais de recusar ou limitar o uso de seus direitos de personalidade.

O entendimento, que não é isolado na jurisprudência trabalhista, orienta empresas a adotarem práticas mais responsáveis na gestão da imagem de seus colaboradores, atentas à legislação civil, constitucional e às diretrizes da LGPD.

Publicado em

VÍRUS STILLER: O QUE VOCÊ PRECISA SABER SOBRE O VAZAMENTO DE DADOS DE GRANDES PLATAFORMAS

Mais de 16 bilhões de dados foram expostos em um vazamento que envolveu informações de plataformas como Google, Meta e Apple. A origem desse vazamento está ligada a um vírus chamado Stiller.

Esse malware funciona de forma silenciosa. Ao ser instalado no dispositivo, ele coleta dados como cookies e credenciais de acesso. Se você costuma manter suas contas logadas no navegador, como e-mail e redes sociais, essas informações ficam vulneráveis. Quem tiver acesso aos arquivos roubados consegue simular um login como se fosse você.

O que torna o Stiller ainda mais perigoso é a forma como age. Ele não altera arquivos nem causa lentidão perceptível. Usa recursos normais do sistema operacional, o que faz com que passe despercebido por boa parte dos antivírus.

A infecção costuma ocorrer por meio de programas piratas ou aplicativos que não vêm das lojas oficiais. Nesses casos, a única forma segura de remover o vírus é formatar o sistema do dispositivo.

Mas existem atitudes que ajudam a proteger seus dados. A primeira é apagar todas as senhas salvas no navegador. Depois disso, troque as senhas de e-mail, redes sociais e outros serviços importantes. E, daqui para frente, evite deixar contas logadas e nunca salve senhas automaticamente.

É importante destacar que serviços bancários costumam ter mais barreiras de proteção. Mesmo que a conta fique aberta no navegador, ela expira em poucos minutos e exige nova autenticação.

A melhor forma de evitar riscos é repensar os hábitos digitais. Deixar de instalar programas fora das lojas oficiais já reduz bastante a exposição a esse tipo de ameaça.

Publicado em

ARMAZENAMENTO PERMANENTE DE CONVERSAS: ATÉ ONDE A TECNOLOGIA PODE IR COM SEUS DADOS?

Uma decisão judicial proferida nos Estados Unidos reacendeu discussões importantes sobre a forma como plataformas de inteligência artificial tratam as interações com seus usuários. Ao determinar que uma popular ferramenta de IA poderá manter registros indefinidos das conversas realizadas, o tribunal lança luz sobre um tema que já preocupa profissionais do Direito, da tecnologia e da proteção de dados: a guarda permanente de informações pessoais em ambientes digitais.

Essa mudança de postura na retenção de dados exige atenção não apenas dos usuários, mas também das autoridades reguladoras e das empresas que operam sistemas baseados em inteligência artificial. A partir do momento em que essas interações deixam de ser transitórias e passam a integrar bancos de dados permanentes, surgem questionamentos legítimos sobre os limites éticos e legais para o uso, a reutilização e até mesmo a análise desses conteúdos.

Ainda que alguns entendam essa medida como um avanço no sentido da transparência e da melhoria de serviços, é preciso considerar os riscos envolvidos. A depender da forma como esses dados forem utilizados, armazenados e compartilhados, pode-se comprometer não apenas a privacidade dos indivíduos, mas também a confiança no uso da tecnologia.

No Brasil, a Lei Geral de Proteção de Dados Pessoais (LGPD) já prevê diretrizes claras quanto à necessidade de informar os titulares sobre o tratamento de seus dados, além de garantir direitos como acesso, retificação e exclusão. A decisão norte-americana levanta, portanto, a reflexão sobre como essas garantias se mantêm válidas quando o processamento de informações ocorre fora do território nacional, por plataformas com alcance global.

De forma semelhante, o Regulamento Geral sobre a Proteção de Dados (GDPR), vigente na União Europeia, reforça o direito do cidadão à autodeterminação informativa. A diferença de posturas entre jurisdições, no entanto, pode provocar um descompasso no grau de proteção efetiva assegurado aos usuários.

Outro ponto delicado está no impacto dessa decisão sobre a relação entre o usuário e a plataforma. Em um contexto onde a segurança das informações se tornou um ativo tão valioso quanto os próprios dados, a ausência de clareza sobre os critérios de retenção e uso pode afastar o público da tecnologia — justamente no momento em que ela se insere com mais intensidade no cotidiano.

Cabe, portanto, às empresas e aos legisladores ampliarem o debate sobre governança algorítmica, transparência e proteção de dados. A evolução tecnológica não pode se dar de forma dissociada da responsabilidade jurídica e ética no trato das informações que pertencem, em última instância, aos próprios cidadãos.

Este momento exige reflexão, responsabilidade e, sobretudo, um esforço conjunto para que o progresso da inteligência artificial se dê com respeito à privacidade, à liberdade e aos direitos fundamentais. Não se trata de frear a inovação, mas de garantir que ela sirva às pessoas, e não o contrário.

Publicado em

O DESAFIO DA PROTEÇÃO DIGITAL NO BRASIL: O QUE OS ATAQUES CIBERNÉTICOS DIZEM SOBRE A NOSSA ESTRUTURA DE SEGURANÇA

Na última sexta-feira, 20 de junho de 2025, veio à tona a descoberta de um dos maiores vazamentos de credenciais da história da internet: mais de 16 bilhões de logins e senhas expostos, com 3,5 bilhões deles associados a usuários de língua portuguesa. O episódio, revelado por pesquisadores independentes, não se resume a números impressionantes — ele aponta diretamente para as limitações estruturais da segurança digital no país e levanta preocupações sobre nossa capacidade de resposta diante de ameaças dessa natureza.

O que mais chama atenção é o padrão técnico das informações vazadas: dados dispostos de forma organizada, no tradicional modelo URL-login-senha, que favorece ataques automatizados. Essas credenciais foram obtidas, em grande parte, por meio de métodos já conhecidos — como o uso de malwares e exploração de bases antigas — o que indica não só uma continuidade de práticas criminosas, mas também a sofisticação de ferramentas capazes de operar em múltiplas frentes simultaneamente.

Esse tipo de exposição não é uma novidade para o Brasil. Nosso país já ocupa posição de destaque negativo quando se trata de dados vazados, registrando mais de 7 bilhões de ocorrências. Ao mesmo tempo, os ataques cibernéticos têm se multiplicado rapidamente, com mais de 60 bilhões de tentativas detectadas somente no último ano. A combinação entre alta exposição e falta de barreiras eficazes cria um ambiente propício à ação de grupos mal-intencionados.

Parte relevante dessas ações é atribuída aos chamados infostealers — programas maliciosos voltados à captura silenciosa de dados sensíveis. Muitos deles têm origem em códigos de malware já conhecidos há mais de uma década, que passaram por mutações ao longo dos anos, ganhando novas funcionalidades. No Brasil, esse tipo de ataque responde por uma parcela expressiva dos incidentes registrados, afetando principalmente setores estratégicos como órgãos públicos, instituições financeiras e empresas de tecnologia.

Do ponto de vista jurídico, o país já possui arcabouço normativo relevante, com destaque para a Lei Geral de Proteção de Dados Pessoais. No entanto, a aplicação prática ainda enfrenta obstáculos. A limitação de valores para sanções administrativas, a baixa frequência de fiscalizações e o número reduzido de casos judicializados reduzem a efetividade das regras já estabelecidas. Mesmo decisões recentes que reconhecem a responsabilidade objetiva de empresas por vazamentos ainda precisam ser acompanhadas de medidas mais robustas de supervisão.

O impacto econômico dessas falhas de segurança também não pode ser ignorado. Relatórios recentes mostram que criminosos digitais movimentaram bilhões de dólares explorando vulnerabilidades em sistemas ao redor do mundo. No Brasil, a maturidade digital das empresas ainda é limitada: boa parte delas não possui equipes ou políticas específicas voltadas à proteção de dados. Isso amplia os riscos e abre espaço para prejuízos financeiros e institucionais.

Além disso, um estudo com abrangência nacional revelou que menos de um quarto das administrações públicas estaduais contam com profissionais capacitados para responder a incidentes de segurança em larga escala. Essa carência de preparo contribui para a propagação de ataques e dificulta respostas coordenadas que poderiam conter ou mitigar os danos.

Mais do que um evento isolado, o vazamento recentemente divulgado é reflexo de uma estrutura frágil, que exige revisão urgente. O Brasil tem a chance de transformar esse episódio em um ponto de virada — um momento para investir em proteção, ampliar a fiscalização e integrar esforços entre governo, empresas e sociedade. A legislação já avançou. A jurisprudência aponta caminhos promissores. Falta agora compromisso prático com a execução e a fiscalização de medidas que protejam a integridade digital dos brasileiros.

Publicado em

LGPD NO DIA A DIA: O QUE AINDA NÃO ENTENDEMOS SOBRE DADOS PESSOAIS

Vivemos tempos em que a coleta de dados se tornou parte do cotidiano – tão natural quanto abrir um aplicativo ou fazer uma compra online. Nesse contexto, a Lei Geral de Proteção de Dados (LGPD) aparece como uma resposta importante para a proteção da intimidade e da autonomia dos cidadãos. Ainda assim, é comum perceber que muitas pessoas não compreendem exatamente o que essa legislação propõe nem como ela se aplica às situações do dia a dia.

Não é raro que pedidos de informações pessoais aconteçam sob o pretexto de cuidado ou atenção, mas que na verdade escondem um impulso por dados que nem sempre têm justificativa legítima. Em certos casos, o que parece apenas uma pergunta corriqueira pode se transformar em um desrespeito à privacidade alheia. E o mais preocupante: nem sempre quem faz a pergunta tem consciência de que está ultrapassando um limite legal e ético.

A cultura da coleta excessiva se consolidou com base na ideia de que “quanto mais informação, melhor”, sem considerar os impactos dessa prática. Isso leva empresas e até pessoas físicas a pedirem, armazenarem ou repassarem dados sem critério. No entanto, a LGPD não foi criada apenas para punir: ela busca educar, orientar e provocar reflexão. Mais do que um manual de condutas obrigatórias, a lei convida todos a repensar como tratamos as informações dos outros.

O respeito aos dados pessoais não se limita ao ambiente corporativo. Está presente em situações simples do cotidiano, como no ato de preencher um formulário escolar ou responder a uma mensagem com perguntas sensíveis. Quando há hesitação ou receio em compartilhar uma informação, isso já é um sinal claro de que algo precisa ser revisto. É nesse ponto que a confiança e a transparência devem prevalecer.

A desconfiança em torno do uso de dados, especialmente em ambientes que deveriam ser de proteção, como escolas ou clínicas, é um reflexo da falta de clareza sobre quem acessa essas informações e com qual propósito. O medo de que dados sejam compartilhados com terceiros, sem consentimento, mostra que ainda há um longo caminho a percorrer para que a proteção de dados seja respeitada como um direito básico.

Por isso, a LGPD deve ser vista como um compromisso coletivo. A lei por si só não transforma comportamentos, mas pode orientar uma mudança de mentalidade – mais consciente, mais ética e mais responsável. É preciso reforçar a ideia de que privacidade não é um luxo, e sim uma condição para relações saudáveis em qualquer ambiente: profissional, educacional ou pessoal.

Não se trata de criar barreiras, mas de estabelecer limites. Saber o que pode ou não ser solicitado, armazenado ou compartilhado é uma forma de garantir respeito mútuo. A privacidade deve ser tratada com o mesmo cuidado que dedicamos às informações que consideramos importantes na nossa vida. Afinal, proteger dados é proteger pessoas. E isso deve ser feito com conhecimento, responsabilidade e, sobretudo, com empatia.

Publicado em

A TRANSFORMAÇÃO DIGITAL NOS CONTRATOS E O CAMINHO PARA A SEGURANÇA JURÍDICA

A transformação digital está impactando profundamente as relações comerciais e jurídicas. Uma das inovações mais promissoras que surge nesse contexto são os contratos inteligentes. Esses contratos, baseados em blockchain, são códigos autoexecutáveis que automatizam a execução das cláusulas acordadas, proporcionando maior segurança jurídica, redução de custos e agilidade nos processos.

O mercado global de contratos inteligentes era avaliado em US$ 2,14 bilhões em 2024, com expectativa de crescer significativamente nos próximos anos, atingindo US$ 2,69 bilhões em 2025 e chegando a US$ 12,07 bilhões até 2032, o que demonstra o grande potencial dessa tecnologia.

Embora a adoção ainda esteja no começo no Brasil, estudos de 2022 indicam que o interesse por contratos inteligentes está aumentando, embora a implementação prática esbarre em desafios como falta de conhecimento técnico e questões relacionadas à segurança jurídica. Isso mostra que, apesar da empolgação, ainda há um longo caminho a ser percorrido até a adoção generalizada dessa tecnologia no país.

Um exemplo interessante vem de fora. Em um projeto desenvolvido em parceria com uma grande empresa de tecnologia, o Centro de Operações do Rio de Janeiro integrou dados de diversas agências municipais, utilizando análise preditiva e comunicação em tempo real para melhorar a resposta a emergências. Esse sistema inovador é um reflexo de como a automação e a tecnologia podem tornar processos mais eficientes e seguros.

Outro exemplo prático vem da China, com o projeto City Brain da Alibaba, que inicialmente foi implementado em Hangzhou. A plataforma utiliza inteligência artificial para gerenciar o tráfego urbano, resultando em uma melhoria de 15% na velocidade do tráfego e reduzindo o tempo de resposta a acidentes.

Apesar de avanços significativos, a falta de uma legislação internacional consolidada para regulamentar os contratos inteligentes ainda é um obstáculo. A Comissão das Nações Unidas para o Direito Comercial Internacional (UNCITRAL) está trabalhando na criação de uma Lei Modelo sobre Contratos Automatizados, que tem como objetivo ajudar os países a regulamentar essa tecnologia de forma clara e eficiente.

Essa Lei Modelo irá abordar questões como o reconhecimento jurídico dos contratos, requisitos de forma e consentimento, interoperabilidade com sistemas legais existentes, responsabilidade por falhas e meios alternativos de resolução de disputas. A contribuição de países como o Brasil é essencial para garantir que a legislação contemple as particularidades dos sistemas jurídicos baseados no civil law.

Os contratos inteligentes têm o potencial de transformar a maneira como os negócios são realizados, mas para que seu uso seja realmente eficiente, é fundamental que existam marcos legais claros, tanto no nível nacional quanto internacional. O desenvolvimento de uma legislação global para regulamentar essa tecnologia será um passo importante para garantir que ela seja utilizada de forma responsável, impulsionando a inovação de maneira alinhada com os interesses da sociedade.