Publicado em

RELATÓRIO DA UNIÃO EUROPEIA QUESTIONA A PRECISÃO DOS DADOS DO CHATGPT

A equipe de defesa da privacidade da União Europeia (UE) avaliou que os esforços da OpenAI para reduzir o número de informações falsas geradas pelo ChatGPT ainda não são suficientes para cumprir as rigorosas políticas de dados da UE.

Conforme detalhado em um relatório publicado no site da equipe, as medidas adotadas para aumentar a transparência, apesar de úteis para evitar interpretações errôneas dos resultados do ChatGPT, ainda não atendem plenamente ao critério de precisão de dados exigido pela legislação europeia.

No ano passado, conforme noticiado pela Reuters, autoridades europeias de proteção de dados formaram uma equipe especializada para abordar questões específicas relacionadas ao ChatGPT. Essa ação foi motivada por preocupações levantadas por reguladores nacionais sobre o uso crescente deste serviço de inteligência artificial.

O relatório aponta que algumas investigações conduzidas por organizações nacionais de proteção de dados em vários Estados-Membros ainda estão em andamento. Portanto, os resultados apresentados devem ser entendidos como observações preliminares comuns a essas autoridades. A exatidão dos dados é uma das principais diretrizes da regulamentação de proteção de dados da UE.

“Devido à natureza probabilística do sistema, a metodologia atual de treinamento pode gerar informações tendenciosas ou fictícias,” destaca o relatório. “Além disso, os usuários finais podem interpretar os resultados gerados pelo ChatGPT como fatos precisos, especialmente quando se referem a dados sobre indivíduos, sem verificar a veracidade dessas informações.”

Esse levantamento sublinha a importância de medidas adicionais para garantir que as saídas do ChatGPT não apenas evitem erros interpretativos, mas também cumpram os elevados padrões de precisão de dados exigidos pela UE.

Publicado em

ANPD ABRE CONSULTA SOBRE TRATAMENTO DE DADOS DE CRIANÇAS E ADOLESCENTES

A Autoridade Nacional de Proteção de Dados (ANPD) iniciou uma Tomada de Subsídios referente ao Tratamento de Dados de Crianças e Adolescentes, com o propósito de fundamentar a criação de um projeto regulatório específico para essa faixa etária. A iniciativa está aberta por 30 dias na Plataforma Participa+Brasil, permitindo contribuições de indivíduos, órgãos públicos e organizações da sociedade civil.

Ao término do período de consulta, a Coordenação-Geral de Normatização (CGN) da ANPD analisará as sugestões recebidas e conduzirá uma Análise de Impacto Regulatório (AIR), que servirá de base para a formulação da solução regulatória mais apropriada.

A abrangência da Tomada de Subsídios é significativa, abordando temas como o melhor interesse do menor, consentimento fornecido por pais e responsáveis, coleta de dados por meio de jogos e aplicações de internet, e a transparência nas operações de tratamento de dados.

O tratamento de dados de crianças e adolescentes é uma questão central tanto para o Poder Público quanto para diversas organizações defensoras de direitos. Embora a Lei Geral de Proteção de Dados (LGPD) trate do assunto, há necessidade de análises regulatórias adicionais. É essencial considerar o desenvolvimento infantil e os riscos associados ao ambiente digital.

Em iniciativas anteriores, a ANPD já explorou o tema, como na Consulta Pública de setembro de 2022, que resultou no Enunciado CD/ANPD nº 01/2023, uniformizando a interpretação das hipóteses legais aplicáveis ao tratamento de dados de menores. Além disso, a Autoridade publicou um guia orientativo sobre o legítimo interesse, esclarecendo sua aplicação no contexto de dados de crianças e adolescentes.

Vale destacar que a proteção de dados pessoais de menores é uma prioridade contínua para a ANPD, sendo uma preocupação transversal que permeia todas as suas ações regulatórias. A Tomada de Subsídios é apenas um passo nesse processo abrangente de proteção e garantia de direitos.

Publicado em

RELATÓRIO DA UNIÃO EUROPEIA APONTA INSUFICIÊNCIAS NA TRANSPARÊNCIA DO CHATGPT

Uma equipe do órgão de defesa da privacidade da União Europeia (UE) divulgou um relatório indicando que os esforços da OpenAI para diminuir o número de resultados factualmente incorretos do ChatGPT ainda não são suficientes para atender às rigorosas políticas de dados da UE.

O relatório aponta que, embora as iniciativas para aumentar a transparência sejam positivas para evitar interpretações errôneas dos resultados do ChatGPT, essas medidas não bastam para garantir a precisão dos dados, conforme exigido pelas normas da UE.

No ano passado, as autoridades europeias de proteção de dados formaram uma equipe especializada para abordar questões relacionadas ao ChatGPT, após preocupações levantadas por reguladores nacionais sobre o serviço de inteligência artificial amplamente utilizado. Segundo o relatório, investigações conduzidas por organizações nacionais de proteção de dados em vários Estados-Membro ainda estão em andamento, e, portanto, os resultados completos não podem ser divulgados. Assim, os pontos destacados no relatório devem ser vistos como observações comuns entre as autoridades nacionais.

Uma regra fundamental de proteção de dados na UE é a exatidão. No entanto, o relatório enfatiza que, devido à natureza probabilística do ChatGPT, o modelo pode gerar informações tendenciosas ou fabricadas. Além disso, os resultados fornecidos pelo ChatGPT podem ser interpretados pelos usuários como fatos precisos, sem considerar a veracidade das informações.

É importante ressaltar a necessidade contínua de melhorar os mecanismos de precisão no ChatGPT para que se alinhem plenamente com os rigorosos padrões de proteção de dados da UE, destacando os desafios e a complexidade envolvidas na gestão da precisão em sistemas de inteligência artificial.

Publicado em

DESAFIOS DE COMPLIANCE NO SETOR DE TECNOLOGIA E TELECOMUNICAÇÕES

As empresas de tecnologia e telecomunicações estão na linha de frente dos desafios de compliance, devido à natureza altamente regulada de suas operações e ao vasto volume de dados pessoais que tratam diariamente. A gestão desses dados acarreta não apenas riscos regulatórios, mas também a possibilidade de incidentes de segurança que podem ter consequências significativas.

Para garantir maior eficiência e otimização, muitas empresas terceirizam parte de suas operações. Contudo, essa prática exige uma avaliação criteriosa dos terceiros contratados para assegurar que fornecedores e parceiros também estejam alinhados com as melhores práticas de compliance. Além disso, a natureza transfronteiriça das operações dessas empresas demanda a observância das regulamentações de diversos países, elevando o nível de complexidade e a necessidade de um programa de compliance robusto e integrado.

Consequências da Não Conformidade

A não conformidade com as regras de compliance no ambiente digital pode resultar em severas sanções e ações judiciais. Empresas que falham em proteger os dados pessoais podem enfrentar multas expressivas, proibições operacionais e outras penalidades administrativas. Além dos impactos financeiros, as empresas também podem sofrer danos irreparáveis à sua reputação e marca.

Desenvolvimento de Programas de Compliance

Desenvolver e implementar programas de compliance eficazes em um ambiente digital em constante evolução é crucial. O comprometimento da liderança é o primeiro passo fundamental para o sucesso de qualquer programa de compliance. A liderança deve compreender a importância do tema e alocar recursos adequados para manter um programa robusto e eficaz.

A criação de políticas e procedimentos de governança é essencial. Esses documentos devem ser amplamente divulgados e implementados de forma precisa no dia a dia das atividades empresariais.

Educação Digital e Governança Corporativa

A educação digital é outra peça-chave para a conformidade em um ambiente digital. Empresas têm a obrigação de educar os usuários sobre seus direitos e práticas de segurança para proteger dados pessoais. Esse esforço deve ser transparente e fornecer orientações claras sobre como os usuários podem proteger suas informações enquanto utilizam os serviços da empresa.

Avaliação de Riscos e Medidas Técnicas

As empresas devem estar constantemente atentas aos riscos de violação da privacidade dos dados. Avaliações periódicas dos riscos e impactos são essenciais para identificar vulnerabilidades. Medidas técnicas e organizacionais, como controles de acesso, autenticação multifatorial, gerenciamento de privilégios, monitoramento de atividades, criptografia e sistemas de detecção de ameaças, são cruciais para garantir a segurança dos dados.

Transferências Internacionais de Dados

Para transferências internacionais de dados, é necessário garantir que os dados sejam protegidos conforme os padrões regulatórios de cada localidade. Cláusulas contratuais robustas devem ser implementadas para assegurar o tratamento adequado dos dados e permitir auditorias regulares das práticas de segurança e conformidade.

Inovação e Tecnologia no Compliance

As novas tecnologias são ferramentas fundamentais para a inovação nos processos de compliance. Análises preditivas podem examinar grandes conjuntos de dados para identificar padrões e possíveis violações de compliance. Tecnologias avançadas também facilitam auditorias digitais, permitindo uma coleta e análise mais eficiente de evidências em casos de incidentes de segurança. Isso não apenas mitiga danos aos titulares de dados, mas também assegura a conformidade regulatória, atendendo princípios como o da responsabilização e prestação de contas previstos na Lei Geral de Proteção de Dados (LGPD).

A complexidade do ambiente digital e as crescentes exigências regulatórias impõem um desafio significativo às empresas de tecnologia e telecomunicações. No entanto, com um compromisso firme da liderança, políticas bem estruturadas, educação contínua e uso de tecnologias avançadas, é possível desenvolver um programa de compliance eficaz que proteja dados pessoais e sustente a confiança e a integridade da empresa.

Publicado em

BIOMETRIA E A REVOLUÇÃO DA SEGURANÇA DE DADOS

Imagine um futuro onde esquecer senhas e perder crachás se torne obsoleto. Em vez de enfrentar o tedioso processo de preencher formulários, um novo funcionário poderia simplesmente fornecer algumas informações biométricas. O rosto seria escaneado, o modo de caminhar analisado, uma frase gravada, e pronto: o próprio corpo se tornaria a chave para acessar todas as áreas da empresa.

Este é o cenário que especialistas em biometria preveem. De acordo com uma recente reportagem do The Wall Street Journal, a integração dessas tecnologias promete transformar a experiência de segurança e acesso nas empresas. Um diretor de tecnologia de uma empresa de segurança descreve uma experiência perfeitamente integrada: ao chegar ao estacionamento, sua localização seria detectada pelo sistema do celular. Entrando pela porta principal, o reconhecimento facial abriria a porta e desbloquearia seu computador automaticamente.

Além de eliminar a inconveniência das senhas esquecidas, essa tecnologia poderia fortalecer significativamente a proteção contra ataques cibernéticos. No entanto, isso levanta importantes questões sobre a privacidade e o uso de dados biométricos pelos empregadores.

Hoje, já vemos scanners de palma em consultórios médicos e o desbloqueio de smartphones por impressão digital. O reconhecimento facial é comum em aeroportos e estádios. Mas, com o avanço contínuo da inteligência artificial e da tecnologia de sensores, podemos esperar uma integração ainda mais sofisticada de dados biométricos nos próximos anos.

Mesmo com os benefícios evidentes, como maior proteção contra invasões, há preocupações legítimas sobre a privacidade e a segurança dos dados. A chave para equilibrar esses benefícios e riscos está na combinação de criptografia robusta e regulamentações governamentais rigorosas sobre a coleta, uso e armazenamento de informações biométricas.

Embora substituir senhas por biometria possa parecer algo futurista, a indústria de tecnologia está cada vez mais focada nesse objetivo. Grandes empresas de tecnologia estão na vanguarda dessa mudança, promovendo métodos de autenticação baseados em biometria em vez de senhas tradicionais. Contudo, como especialistas em segurança digital alertam, mesmo a melhor tecnologia pode falhar. E quando se trata de dados biométricos, os riscos de vazamento ou roubo são particularmente preocupantes, já que não podemos simplesmente substituir nossas características físicas.

Assim, enquanto avançamos em direção a um futuro onde a biometria possa proporcionar segurança e conveniência sem precedentes, é importante continuar discutindo e desenvolvendo medidas para proteger nossa privacidade e segurança de dados.

Publicado em

ENTENDA AS NOVAS DIRETRIZES E DESAFIOS COM O GUIA DA ANPD

Recentemente, a Autoridade Nacional de Proteção de Dados (ANPD) lançou o “Guia Orientativo – Hipóteses legais de tratamento de dados pessoais – Legítimo Interesse”, que aprofunda o entendimento sobre a aplicação da Lei Geral de Proteção de Dados Pessoais (LGPD). Este guia detalha o legítimo interesse (LI), uma base legal que autoriza o tratamento de dados pessoais (não sensíveis) para atender interesses legítimos do controlador ou de terceiros, desde que esses interesses não violem os direitos e liberdades fundamentais dos titulares dos dados.

O guia apresenta interpretações da ANPD sobre o uso do LI, incluindo exemplos práticos e um modelo de teste de balanceamento. Este teste é crucial para que as empresas possam demonstrar um equilíbrio adequado entre os interesses envolvidos, garantindo que o tratamento dos dados seja proporcional e seguro.

A adoção da base do legítimo interesse representa um desafio para as empresas, que precisam realizar o teste de balanceamento para assegurar a proporcionalidade e a segurança no tratamento dos dados pessoais. Apesar de a minuta inicial do documento sugerir a obrigatoriedade do registro do teste, a versão final do guia não confirma essa exigência, mas indica que o registro contribui para a transparência e a prestação de contas, além de permitir a avaliação da conformidade pela ANPD.

O guia ressalta que os controladores devem avaliar os riscos e a necessidade de registrar o teste de balanceamento caso a caso, sendo obrigatório apenas no tratamento de dados de crianças e adolescentes baseado no legítimo interesse.

O documento também detalha os passos que o agente de tratamento deve seguir, desde a identificação da natureza dos dados até a avaliação dos interesses do controlador ou de terceiros. A ANPD considera a coletividade como um terceiro relevante, permitindo a aplicação do conceito de legítimo interesse em situações que beneficiem a sociedade como um todo, desde que respeitados os preceitos legais.

Para que o legítimo interesse seja válido, o controlador deve identificar e justificar o interesse, garantindo sua compatibilidade com as regras jurídicas, evitando situações especulativas ou futuras, e vinculando-o a finalidades legítimas e explícitas. O guia exemplifica a aplicação do legítimo interesse, permitindo que instituições de ensino enviem promoções aos seus alunos e professores, desde que observadas as disposições legais.

Apesar da clareza do guia, a aplicação do legítimo interesse é passível de questionamento, tanto pela ANPD quanto pelos titulares dos dados. Portanto, é essencial que os controladores sigam rigorosamente as orientações do guia, assegurando transparência e mecanismos que permitam aos titulares exercerem seus direitos.

O “Guia Orientativo – Hipóteses legais de tratamento de dados pessoais – Legítimo Interesse” da ANPD é um marco importante na regulamentação do tratamento de dados pessoais no Brasil, trazendo clareza e novos desafios para as empresas na implementação da LGPD.

Publicado em

NOVA RESOLUÇÃO DO TSE IMPÕE REGRAS PARA USO DE IA NA PROPAGANDA ELEITORAL

Recentemente, o Tribunal Superior Eleitoral (TSE) aprovou uma nova resolução que impactará a propaganda eleitoral para as eleições municipais de 2024, especificamente abordando o uso de inteligência artificial (IA), proteção de dados e fake news. A Resolução Nº 23.732/24 altera a Resolução nº 23.610/19 e traz à tona questões cruciais sobre a identificação e rotulagem de conteúdo sintético multimídia em peças publicitárias.

Uma das mudanças mais notáveis é a exigência de rotulagem de qualquer peça publicitária que utilize IA. Esta determinação visa informar o público sobre o uso de tecnologia avançada na criação de imagens, textos ou vídeos. No entanto, a aplicação prática dessa exigência gera dúvidas, pois a IA pode ser utilizada em várias fases do desenvolvimento publicitário, desde a pesquisa até a produção final. A resolução esclarece que o rótulo deve ser aplicado ao conteúdo final veiculado ao público, garantindo transparência sobre o uso de IA no material divulgado.

Além disso, o uso de chatbots e avatares foi restringido, proibindo qualquer simulação de conversas com candidatos ou pessoas reais, com o objetivo de evitar a disseminação de informações falsas ou enganosas. A vedação ao uso de deepfakes também é destacada, proibindo a utilização de qualquer conteúdo artificialmente gerado ou modificado que possa influenciar negativamente o processo eleitoral.

A resolução também aborda a proteção de dados, classificando campanhas em cidades com menos de 200.000 eleitores como agentes de tratamento de pequeno porte, aplicando-se as disposições da Resolução CD/ANPD nº 2 de 2022. Há uma exigência de registro detalhado das operações de tratamento de dados, incluindo informações sobre o tipo de dado, sua origem, categorias de titulares, finalidade e medidas de segurança adotadas.

Outra medida significativa é a exigência de um relatório de impacto à proteção de dados (RIPD) para campanhas que realizem tratamento de dados de alto risco, especialmente aquelas que envolvem tecnologias inovadoras ou dados sensíveis. Esse relatório deve ser elaborado pela candidata ou candidato e pelo partido político, detalhando os tipos de dados coletados, os riscos identificados, as metodologias de tratamento e as medidas de mitigação de riscos.

Essas regulamentações são essenciais para garantir que a IA e outras tecnologias emergentes sejam usadas de maneira responsável no contexto eleitoral, preservando a integridade do processo democrático e protegendo os direitos dos eleitores. Em um cenário global onde o uso irresponsável da IA em campanhas eleitorais tem sido reportado, como em casos nos EUA onde telefonemas automatizados enganam eleitores, a iniciativa do TSE representa um avanço significativo na busca por um processo eleitoral mais justo e transparente.

Publicado em

ESTRATÉGIAS PARA COMBATER OS DEEPFAKES NA ERA DIGITAL

Deepfakes, uma forma avançada de inteligência artificial que pode criar mídias sintéticas convincentes, representam uma ameaça crescente à segurança e à privacidade em todo o mundo. Recentemente, o Brasil foi palco de um episódio alarmante: um vídeo manipulado de um programa de notícias circulou nas redes sociais, exibindo um apresentador anunciando falsamente uma decisão governamental sobre uma indenização.

Este incidente é apenas um exemplo do uso malicioso dos Deepfakes, que estão sendo empregados em diversos golpes, desde ataques de phishing até a propagação de notícias falsas. Diante desse cenário, espera-se um aumento significativo nos investimentos destinados à detecção de imagens falsas.

Os gastos com ferramentas de segurança para combater os Deepfakes devem aumentar consideravelmente nos próximos anos. Esse crescimento é impulsionado pela preocupação com os riscos reputacionais e legais associados ao uso indevido de dados, bem como pela sofisticação crescente das técnicas de manipulação de mídia.

Uma das ferramentas mais eficazes na defesa contra os Deepfakes é um mecanismo de mapeamento facial alimentado por inteligência artificial. Essa tecnologia pode determinar se uma imagem de rosto corresponde a uma pessoa real ou se é uma representação sintética, como uma foto estática ou uma máscara.

Profissionais do setor destacam a importância desse tipo de tecnologia na identificação de fraudes que utilizam inteligência artificial para substituir rostos. Ressaltam que, com a crescente regulamentação e os riscos operacionais cada vez maiores, a adoção de ferramentas como essa se tornará essencial para organizações que lidam com grandes volumes de dados.

As principais soluções anti-Deepfakes do mercado empregam algoritmos de machine learning para analisar imagens em busca de sinais de manipulação. Essa abordagem é fundamental para mitigar os riscos associados aos Deepfakes e garantir a integridade da informação em um ambiente cada vez mais digitalizado.

Publicado em

FALHA DE SEGURANÇA EM HOSPITAL BRITÂNICO EXPÕE DADOS DA PRINCESA KATE MIDDLETON

O recente incidente no The London Clinic envolvendo a possível exposição de informações médicas privadas da Princesa Kate Middleton ressalta um desafio crítico no manejo de dados sensíveis. Relatos indicam que o hospital, onde a princesa foi recentemente tratada, teria demorado uma semana para informar as autoridades sobre uma suspeita de violação de dados. Isso está em desacordo com a legislação do Reino Unido, que exige a notificação de tais incidentes em até 72 horas após sua detecção.

O episódio destaca questões mais amplas sobre a segurança da informação e a privacidade do paciente em instituições médicas renomadas. Ainda que a investigação esteja em curso, já se sabe que três funcionários da clínica estão sendo investigados por supostamente acessar indevidamente o prontuário da princesa. Essas ações podem levar a sérias repercussões profissionais e disciplinares para os envolvidos.

A possível multa de até £18 milhões imposta ao hospital reitera a gravidade do descumprimento das normas de proteção de dados. Este caso serve como um lembrete potente para todas as instituições de saúde sobre a importância de aderir rigorosamente às leis de proteção de dados, não apenas para evitar penalidades financeiras, mas para manter a confiança do público e garantir a privacidade dos pacientes.

Publicado em

UNIÃO EUROPEIA INICIA INVESTIGAÇÃO CONTRA PRINCIPAIS EMPRESAS DE TECNOLOGIA

Recentemente, a União Europeia iniciou um procedimento investigativo contra algumas das maiores empresas de tecnologia do mundo, marcando um passo significativo na aplicação de uma legislação inovadora voltada para a promoção de um mercado digital mais justo e aberto. A legislação em questão, que entrou em vigor no início de março deste ano, visa regular as operações dessas corporações para garantir que não dominem o mercado de maneira injusta, afetando a livre concorrência e a escolha do consumidor.

Uma autoridade regulatória de alto escalão expressou preocupações com as soluções propostas por essas empresas, sugerindo que elas podem não estar totalmente alinhadas com os objetivos da nova lei. Essa posição destaca a importância de práticas empresariais que promovam um ambiente digital equitativo, enfatizando a necessidade de inovação e diversidade no ecossistema tecnológico.

Em resposta às exigências regulatórias, uma dessas empresas implementou mudanças significativas em seus sistemas operacionais e plataformas de distribuição de aplicativos, incluindo medidas para permitir a instalação de aplicativos fora de sua loja oficial e reforçar a proteção à privacidade dos usuários. Apesar dessas adaptações, as autoridades reguladoras continuam céticas quanto à sua eficácia em cumprir integralmente com as obrigações estabelecidas pela legislação.

A investigação não se limita a práticas de distribuição de aplicativos, estendendo-se também a como uma determinada empresa trata o consentimento dos usuários e o compartilhamento de dados entre suas várias plataformas. Este aspecto da investigação destaca questões críticas sobre privacidade e o direito dos usuários de controlar como suas informações pessoais são utilizadas.

Com um prazo de 12 meses para concluir essa investigação, as autoridades têm a tarefa de avaliar se as práticas dessas empresas estão em conformidade com a legislação. Caso sejam encontradas infrações, as consequências podem ser severas, incluindo multas substanciais que refletem a gravidade do descumprimento. Este cenário sublinha a seriedade com que a União Europeia está abordando a regulamentação do espaço digital, visando estabelecer um precedente para um ambiente digital mais aberto e equitativo.

Essa iniciativa representa um momento importante para o futuro do espaço digital, testando tanto a determinação das autoridades reguladoras em impor a nova legislação quanto a vontade das empresas de tecnologia em adaptar suas operações a um quadro mais estrito, que prioriza a equidade e a concorrência leal.

Publicado em

DESAFIOS E ESTRATÉGIAS SOB A LGPD

A transformação digital tem redefinido o ambiente de negócios, trazendo inovações tecnológicas que facilitam o crescimento empresarial enquanto apresentam desafios inéditos, particularmente na gestão de informações. A vanguarda representada pela inteligência artificial ilustra essa mudança, democratizando a inovação para entidades de todos os tamanhos e sublinhando o valor dos dados como ativos que necessitam de uma proteção cuidadosa e atualizada.

Diante desse panorama, a Lei Geral de Proteção de Dados Pessoais (LGPD), com inspiração na General Data Protection Regulation (GDPR) europeia, surge como um pilar regulatório fundamental. Essa legislação destaca a urgência de proteger a privacidade e a liberdade individual, estabelecendo princípios claros para o processamento de dados pessoais por organizações diversas.

A ideia de que “dados são o novo petróleo”, sugerindo seu valor inestimável na era digital, ressalta a necessidade de proteger informações sensíveis que circulam no ambiente digital, desde transações online até interações em redes sociais e sistemas bancários. Estes dados, vulneráveis a riscos como fraudes e invasões digitais, demandam salvaguardas eficazes.

Neste contexto, a LGPD visa criar um ambiente de segurança jurídica, unificando normas para proteger as informações pessoais dos cidadãos. Esta lei não somente estabelece limites e direitos mas também reforça a confiança mútua através da transparência e da privacidade no manejo de dados.

Para atender às demandas da LGPD, as organizações precisam adotar uma política de transparência no tratamento de dados. Isso envolve assegurar a obtenção do consentimento dos usuários de maneira explícita, definir claramente os propósitos da coleta de dados, facilitar o acesso dos indivíduos às suas informações e nomear um responsável para facilitar a comunicação com a Autoridade Nacional de Proteção de Dados (ANPD).

Além das tecnologias envolvidas, o suporte jurídico se torna essencial. As empresas devem, portanto, examinar e atualizar suas políticas, procedimentos e ferramentas relacionadas ao tratamento de dados, implementando medidas de segurança avançadas e promovendo entre seus colaboradores a conscientização sobre a importância de aderir à LGPD.

A implementação da LGPD inaugura, assim, uma nova era na administração corporativa de informações, demandando a revisão de práticas vigentes e a adoção de estratégias que honrem tanto a legislação quanto a privacidade dos indivíduos. Em tal cenário, a proteção de dados transcende a obrigatoriedade legal, constituindo-se como um atributo valorizado que pode ampliar a confiança dos clientes e a solidez da marca.

Publicado em

OPERAÇÃO DESMANTELA ESQUEMA DE RIFAS ILEGAIS POR INFLUENCIADORES EM SÃO PAULO

Na última quinta-feira, uma operação da Polícia Civil de São Paulo trouxe à tona um esquema de rifas ilegais conduzido por um casal de influenciadores digitais. A ação, que ocorreu em diversos endereços ligados ao casal, revelou uma realidade surpreendente: além de carros de luxo, que seriam objetos dos sorteios, as autoridades encontraram malas cheias de dinheiro cenográfico, indicativo de um esquema mais complexo envolvendo lavagem de dinheiro e operações de sorteio fora das normativas legais.

O casal em questão promovia sorteios de bens de alto valor, incluindo carros e motocicletas de luxo, sem seguir os procedimentos legais exigidos, o que caracteriza não apenas a ilegalidade das rifas mas também aponta para atividades suspeitas quanto à origem dos bens sorteados. A descoberta veio como resultado de uma investigação detalhada sobre as atividades do casal, conduzida pela 3ª Delegacia de Investigações sobre Violação de Dispositivos Eletrônicos e Rede de Dados, do Departamento Estadual de Investigações Criminais (DEIC).

Os mandados judiciais executados nas cidades de São Bernardo do Campo e São Paulo resultaram na apreensão de diversos veículos de alto padrão, incluindo modelos de marcas renomadas avaliados em mais de um milhão de reais, e ao menos 15 motocicletas de luxo, todos preparados para sorteio.

Este episódio lança luz sobre a urgência de maior fiscalização e regulamentação dos sorteios e rifas nas redes sociais, um ambiente que ainda carece de uma regulamentação clara e efetiva. Diante da crescente influência digital, a distinção entre práticas legais e ilegais torna-se cada vez mais difusa, requerendo ação constante das autoridades para garantir que a lei seja respeitada.

Para conduzir um sorteio dentro da legalidade, é necessário seguir uma série de regras e regulamentações estipuladas pelo governo federal. Isso inclui a arrecadação de impostos, a designação de uma instituição de caridade beneficiária, e a coordenação por uma capitalizadora. Além disso, é preciso obter uma autorização da Superintendência de Seguros Privados (Susep), incluindo o número da campanha.

Diversos influenciadores já adotaram práticas legais para a realização de sorteios, buscando não apenas a conformidade com a lei, mas também a proteção de sua imagem e credibilidade. Com a recente operação em São Paulo, espera-se que haja um alerta para todos que consideram promover atividades semelhantes, destacando a importância de seguir as diretrizes legais para evitar consequências jurídicas.

Empresas especializadas estão disponíveis para orientar e gerenciar todo o processo de realização de sorteios legais, oferecendo suporte desde a consultoria jurídica até a produção de conteúdo, garantindo que todas as etapas sejam realizadas conforme as normas estabelecidas, evitando assim problemas legais e assegurando a integridade das promoções.