Publicado em

LGPD NO BRASIL: DESAFIOS E REFLEXÕES CINCO ANOS APÓS SUA IMPLEMENTAÇÃO

Cinco anos após a implementação da Lei Geral de Proteção de Dados (LGPD) no Brasil, a situação da segurança da informação nas empresas ainda deixa muito a desejar. A adesão à LGPD por parte das empresas brasileiras é uma incógnita, com números divergentes entre 20% e 50%. Isso revela que a segurança da informação continua sendo um ponto fraco para a maioria das organizações no país.

Com base em um estudo do Centro Regional de Estudos para o Desenvolvimento da Sociedade da Informação no Brasil (Cetic.br) publicado em agosto de 2022, apenas 32% das empresas têm uma política de privacidade que esclarece como é feito o tratamento dos dados. Apenas 30% realizam testes de segurança contra vazamentos de dados, e míseros 17% designaram um encarregado de dados, mesmo sendo uma obrigação dispensada para empresas menores.

A LGPD foi criada para garantir o direito dos cidadãos à privacidade e proteção de seus dados pessoais, evitando o uso indevido dessas informações pelas empresas. No entanto, para proteger os dados, as empresas precisam também proteger o ambiente tecnológico e físico onde essas informações são armazenadas.

Considerando uma mediana entre 20% e 50%, podemos concluir que apenas cerca de 35% das empresas contam com sistemas para proteção de dados. Nesse aspecto, a segurança da informação mostrou pouca evolução em cinco anos.

A teoria da segurança da informação nas organizações contrasta com a prática. Embora as empresas apresentem um discurso inovador e correto sobre segurança da informação, a realidade não reflete esse discurso. A segurança da informação ainda é afetada pela volatilidade econômica e pelo uso de soluções inadequadas para combater as ameaças atuais.

Os números de ataques a empresas no Brasil continuam crescendo. Um relatório da Check Point Research referente ao primeiro semestre de 2023 revelou um aumento de 8% nas atividades criminosas. A inteligência artificial e a engenharia social estão sendo cada vez mais utilizadas para realizar ataques complexos, como phishing e ransomware.

Além disso, o uso indevido da inteligência artificial está em ascensão, com ferramentas de IA generativa sendo empregadas para criar e-mails de phishing, malwares e códigos de ransomware.

Embora o cenário macroeconômico do Brasil possa contribuir para essa realidade, é fundamental reconhecer que a segurança da informação não é uma prioridade para a maioria das empresas, como evidenciado pela baixa adesão à LGPD.

Adotar a LGPD vai além de cumprir formalidades, como ter um link para a Política de Privacidade no site. Requer controles de acesso eficazes, visibilidade e proteção de dados físicos e digitais, além do investimento em tecnologias baseadas em inteligência artificial e aprendizado de máquina para combater um cenário de ameaças em constante evolução.

No primeiro semestre de 2023, o Brasil enfrentou cerca de 23 bilhões de tentativas de ataques. É fundamental que, nos próximos cinco anos, haja um aumento significativo no número de empresas que adotaram a regulamentação, em paralelo à redução dos ataques cibernéticos.

Publicado em

INOVAÇÃO JURÍDICA: INTELIGÊNCIA ARTIFICIAL NO JUDICIÁRIO BRASILEIRO

Nos meandros do Judiciário brasileiro, uma nova força está emergindo, personificada por nomes como Victor, Expedito, Rafa, Poti, Athos, Clara, Bem-Te-Vi e VictorIA. Estes são os modelos de Inteligência Artificial concebidos para acelerar a tramitação de processos, cortar custos e encurtar prazos. Atualmente, mais de uma centena desses “robôs” trabalham na Justiça brasileira.

Os números apresentam o tamanho do desafio: em 2022, o Judiciário brasileiro enfrentava cem milhões de processos com apenas 17 mil juízes. Isso implicaria em uma análise de seis mil demandas por juiz ao longo de um ano, segundo dados do Conselho Nacional de Justiça (CNJ). Ademais, muitos processos, ao atingirem instâncias superiores, poderiam facilmente ultrapassar mil páginas. Portanto, a integração de máquinas se mostra como uma solução importante para mitigar essa lentidão.

Nos tribunais, esses robôs já desempenham tarefas rotineiras, conseguindo identificar e agrupar temas em processos, executar atividades cartorárias corriqueiras, além de sugerir andamentos e próximos passos para acelerar as ações. A IA identifica e gerencia demandas padronizadas, como a revisão ágil de pedidos de alvarás de soltura.

Esses modelos também são treinados para comparar processos com outras ações que já tiveram decisões ou desfechos em outros Tribunais, auxiliando os magistrados a fundamentarem suas decisões em precedentes relevantes. Um levantamento do CNJ revelou que, em 2022, existiam 111 projetos de Inteligência Artificial em desenvolvimento em 53 Tribunais em todo o país.

A IA no Judiciário deve ser encarada como uma tecnologia de apoio, uma extensão da inteligência humana, e não como uma substituição. Ele ressalta a importância de que todo processo de tomada de decisão esteja sob o controle do usuário.

Para os pesquisadores, além de conferir agilidade, a IA pode elevar a qualidade da Justiça e uniformizar as decisões dos Tribunais.

Os robôs são fundamentais nas análises de documentos jurídicos, triagem de processos e petições, especialmente diante do elevado volume de ações. No âmbito das decisões judiciais, podem auxiliar na identificação de precedentes e comparação de decisões semelhantes. Essa abordagem promete reduzir o tempo gasto em tarefas administrativas e aprimorar a qualidade das decisões judiciais, ancoradas em pesquisas mais robustas.

Apesar dos avanços, surgem preocupações sobre o uso, as aplicações e os limites da Inteligência Artificial no âmbito judicial. O CNJ tem estabelecido resoluções para impor limites e garantir transparência. Por exemplo, máquinas não podem emitir decisões em processos judiciais ou sugerir a dosimetria de penas em casos criminais. Áreas mais sensíveis do Direito, como processos criminais, direito de família e proteção à criança e ao adolescente, demandam cuidado especial na aplicação da Inteligência Artificial. O equilíbrio entre a tecnologia e a sensibilidade do Direito é um desafio que requer contínua reflexão e aprimoramento.

Publicado em

ALERTA DE SEGURANÇA: INIMIGOS DO REINO UNIDO INTENSIFICAM ATAQUES CIBERNÉTICOS

Os ataques cibernéticos contra alvos sensíveis do Reino Unido estão crescendo em intensidade, marcando uma nova fase de conflitos globais, de acordo com especialistas em segurança.

Isso vem à tona após hackers russos supostamente terem obtido informações altamente confidenciais sobre alguns dos locais militares mais sensíveis do país, incluindo a base do submarino nuclear HMNB Clyde, na costa oeste da Escócia, e o laboratório de armas químicas de Porton Down.

No mês passado, um ataque “potencialmente altamente prejudicial” conduzido pelo grupo de hackers LockBit, com conhecidos vínculos russos, resultou no vazamento de milhares de páginas de dados na dark web depois de um ataque à empresa de segurança privada Zaun, que fornece cercas de segurança para instalações ligadas ao Ministério da Defesa, descrevendo o incidente como um “ataque cibernético sofisticado”.

Especialistas em segurança cibernética alertam que os inimigos do Reino Unido estão adotando abordagens cada vez mais agressivas nesse âmbito. Eles destacam a necessidade de regulamentação mais eficaz das empresas terceirizadas que possuem dados críticos sobre infraestrutura militar.

A preocupação é que a segurança cibernética insuficiente represente um ponto de vulnerabilidade significativo, especialmente em um contexto global tenso. A proteção eficaz contra ataques cibernéticos é vista como vital para a segurança nacional. Esse incidente também levanta questões sobre a segurança dos sistemas de computadores e dados em locais sensíveis do país.

No entanto, é importante destacar que o governo ainda não forneceu comentários detalhados sobre a situação, mantendo sua postura de não discutir questões de segurança. As empresas afetadas estão colaborando com as investigações e adotando medidas para reforçar suas defesas contra futuros ataques.

Publicado em

INOVAÇÃO RESPONSÁVEL EM IA: ANPD CONVIDA A SOCIEDADE PARA CONSULTA SOBRE SANDBOX REGULATÓRIO

A Autoridade Nacional de Proteção de Dados (ANPD) iniciou uma consulta pública sobre seu programa piloto de sandbox regulatório, um ambiente controlado para testar tecnologias relacionadas à inteligência artificial (IA). A intenção é que, através das inovações testadas nesse ambiente, boas práticas possam ser implementadas para garantir conformidade com as normas de proteção de dados pessoais.

O programa piloto é parte de uma iniciativa mais ampla para lidar com as implicações da inteligência artificial e a proteção de dados. A ANPD busca promover a inovação responsável em IA e aumentar a transparência algorítmica.

Este projeto é baseado em um estudo técnico da ANPD, chamado “Sandbox regulatório de inteligência artificial e proteção de dados no Brasil”, que apresenta como os sandboxes regulatórios podem ser efetivamente utilizados por Autoridades de Proteção de Dados para regular tecnologias emergentes. A ANPD está colaborando com o Banco de Desenvolvimento da América Latina e do Caribe (CAF) nesse processo, compartilhando conhecimentos para o desenvolvimento desses ambientes regulatórios.

A consulta à sociedade, que está aberta até 1º de novembro de 2023, tem como objetivo coletar informações e dados relevantes para moldar o sandbox regulatório. Essa é uma maneira de incluir uma variedade de perspectivas e entender como a regulamentação futura pode afetar diferentes partes interessadas no contexto da inteligência artificial e proteção de dados. A transparência e a inclusão estão no centro deste processo, com todas as contribuições disponíveis para consulta.

Publicado em

IA NO INSTAGRAM: META PLANEJA NOVIDADES COM FOCO NA TRANSPARÊNCIA E CRIATIVIDADE

A Meta está se preparando para uma potencial revolução nos seus aplicativos, incluindo Facebook, Instagram e WhatsApp, com o lançamento de uma ferramenta de Inteligência Artificial generativa. Embora a novidade ainda esteja nos bastidores, a empresa já está trabalhando em possíveis ajustes e melhorias.

Uma das principais mudanças pode ser a introdução de um selo distintivo no Instagram, sinalizando quando uma imagem foi gerada por meio de Inteligência Artificial. Esta informação foi encontrada no código Beta do Instagram, indicando um esforço para promover a transparência e conscientização sobre o uso da IA generativa. Isso é importante para combater a disseminação de conteúdos enganosos e identificar criações baseadas em geração de imagens por texto.

A IA para os produtos da Meta já havia dado indícios de sua chegada, com menções iniciais em junho deste ano. A empresa revelou, em uma reunião interna, planos para recursos de edição de fotos no Instagram, utilizando prompts de texto, em um formato semelhante ao DALL-E e MidJourney, além de um chat ao estilo ChatGPT. Outras possíveis adições incluem um recurso de criação de stickers impulsionado por IA, que geraria novas figurinhas a partir de texto.

Embora nenhum anúncio oficial tenha sido feito até o momento, especula-se que a Meta possa basear sua IA generativa no modelo de linguagem Llama 2, desenvolvido em colaboração com a Microsoft. Este Large Language Model (LLM) foi treinado com 40% mais dados do que seu predecessor, Llama 1, e está disponível como código aberto, sinalizando um passo significativo em direção a avanços promissores na integração de IA nas plataformas da Meta.

Publicado em

LIMITES DIGITAIS: A DECISÃO DO STF E A GARANTIA DA PRIVACIDADE ONLINE

Uma recente decisão da Ministra Rosa Weber, presidente do Supremo Tribunal Federal, trouxe à tona um debate importante sobre a proteção de dados e a privacidade dos usuários na era digital. O caso em destaque trata do acesso do Ministério Público do Rio de Janeiro a dados relacionados a pesquisas na internet sobre a vereadora Marielle Franco, assassinada em 2018.

A discussão se baseia na possibilidade de quebra de sigilo de dados telemáticos de um grupo não identificado de pessoas em procedimentos penais. O recurso, intermediado pelo Google contra decisão do Superior Tribunal de Justiça, destaca a intrusão no direito à privacidade sem relação com o crime investigado, levantando preocupações sobre a legalidade e a proteção de dados.

A Ministra Rosa Weber posicionou-se a favor da proteção da privacidade e da observância rigorosa dos limites formais e materiais dos direitos fundamentais à privacidade, à proteção de dados pessoais e ao devido processo legal. Destacou a desproporcionalidade da medida, afirmando que uma quantidade significativa de usuários poderia ter seus sigilos afetados de forma indevida, evidenciando a necessidade de equilibrar o acesso à informação com a garantia dos direitos individuais.

Este caso sublinha a importância de um debate amplo e aprofundado sobre a privacidade e a proteção de dados no contexto digital, respeitando os princípios legais e os direitos fundamentais dos cidadãos.

Publicado em

INOVAÇÃO MÉDICA: HOSPITAL MÃE DE DEUS APRIMORA EXAMES COM INTELIGÊNCIA ARTIFICIAL

O Hospital Mãe de Deus passou por uma significativa renovação em seu Centro de Diagnóstico por Imagem (CDI), com investimentos em tecnologia de ponta para oferecer melhores serviços aos pacientes. Um dos destaques é a incorporação de uma ressonância magnética avançada, que não apenas proporciona maior conforto aos pacientes, mas também utiliza inteligência artificial para aumentar a precisão e a rapidez dos resultados dos exames.

O novo equipamento, um modelo Signa Pioneer da GE Healthcare, possui uma força magnética de 3.0 Tesla, o que representa o dobro da capacidade do equipamento anterior (1,5 Tesla). Isso resulta em imagens com maior definição, sendo particularmente importante para a detecção precoce de pequenas alterações cerebrais, como tumores. No Brasil, esse equipamento da GE é raro, com apenas três unidades, todas em São Paulo.

Além de suas capacidades técnicas avançadas, essa ressonância magnética inova no conforto do paciente. Com um túnel mais curto e mais amplo, medindo 70cm, ela oferece uma experiência mais confortável, especialmente para pacientes claustrofóbicos. A mesa de exame mais baixa facilita o posicionamento e o acesso do paciente, e o equipamento opera com consideravelmente menos ruído em comparação com modelos anteriores, reduzindo significativamente a ansiedade durante o exame.

A incorporação de aplicativos de aprendizado profundo (deep learning) melhora ainda mais a qualidade das imagens e reduz o tempo necessário para a realização dos exames.

De acordo com o coordenador médico do Serviço de Radiologia do Hospital Mãe de Deus, Dr. Marcelo Abreu, essa nova ressonância oferece uma ampla gama de avaliações em diversas áreas médicas, incluindo neurologia, oncologia, cardiologia e sistema vascular, nervos periféricos de alta resolução e neurografia. Essa tecnologia avançada representa um grande avanço para o diagnóstico médico e a saúde dos pacientes.

Além disso, o Hospital Mãe de Deus investiu em outros avanços tecnológicos, como um tomógrafo espectral de dupla energia GE Revolution CT, o primeiro do estado e o único no país com reconstrução de imagem por Deep Learning (DLIR). Essa funcionalidade melhora a precisão do diagnóstico e reduz significativamente a dose de radiação emitida pelo aparelho, tornando os exames mais seguros para os pacientes.

O compromisso do hospital com a inovação tecnológica é parte fundamental de sua busca por excelência na medicina diagnóstica e seu papel como referência no Rio Grande do Sul.

Publicado em

CONSTRUINDO DEFESAS DIGITAIS: LGPD E INVESTIMENTO EM SEGURANÇA CIBERNÉTICA

Em meio a um cenário digital turbulento, a segurança cibernética é uma necessidade universal, independentemente do porte ou segmento da empresa. A LGPD, mais do que um requisito legal, é uma bússola para as empresas no tratamento responsável dos dados.

Afinal, as penalidades por vazamentos ou descumprimento das regras podem ser severas. Mas como esses elementos se entrelaçam? Especialistas discutem como investir em segurança cibernética é uma medida preventiva contra ataques, como as mais de 100 bilhões de tentativas no Brasil em 2022.

O investimento, porém, não se limita a tecnologia. Hardware e software são peças do quebra-cabeça, mas a conscientização da equipe é o alicerce. Diretrizes claras sobre o que é permitido e treinamentos são essenciais no ambiente corporativo.

Um ponto chave é a diferenciação entre dados e informações. Enquanto os primeiros são matéria-prima, as informações extraídas têm relevância. A Inteligência Artificial desempenha um papel vital nesse contexto.

O caminho trilhado por empresas como o Licks Attorneys, referência em Propriedade Intelectual, revela como a segurança cibernética se entrelaça com cada camada organizacional. A conquista do certificado ISO 27001 após meses de preparação evidencia a seriedade da abordagem.

Aproveite a oportunidade para considerar uma abordagem semelhante em seu negócio. Afinal, a preparação é a melhor defesa no mundo digital. Com a LGPD, a investigação da segurança cibernética ganha destaque em caso de ataques. Como está a sua empresa?

Promovendo cooperação entre economias, a sigla estimula investimentos, comércio e serviços, fortalecendo parcerias regionais e globais.

Publicado em

FRAUDES COM VOZES CLONADAS: CRIMINOSOS UTILIZAM INTELIGÊNCIA ARTIFICIAL PARA ENGANAR VÍTIMAS NA AMÉRICA LATINA

A partir de julho de 2023, uma tendência tem se espalhado por diversos países da América Latina. Criminosos têm adotado o uso de sistemas de Inteligência Artificial para clonar vozes de familiares, a fim de executar extorsões, fraudes e golpes cada vez mais sofisticados.

De acordo com informações do Publimetro México, esse novo método de abordagem representa uma evolução das artimanhas utilizadas em golpes anteriores, nos quais os criminosos se passavam por familiares ou conhecidos. Contudo, esse novo cenário é marcado por uma abordagem ainda mais engenhosa.

Nos casos mais extremos, os criminosos fazem referência a laços familiares próximos e até mesmo incorporam terceiros que fingem ser filhos, filhas, mães ou outros entes queridos, a fim de convencer as vítimas de que estão lidando com uma situação real, como um sequestro.

No passado, era relativamente simples evitar essas armadilhas. A presença física da pessoa ou até mesmo a discrepância na voz eram indicadores claros de fraude. No entanto, com a emergência dos sistemas de Inteligência Artificial Gerativa, a complexidade desse cenário aumentou consideravelmente, uma vez que essas plataformas são capazes de imitar vozes de maneira praticamente perfeita.

É importante notar que a tecnologia atual ainda não permite uma replicação precisa da voz em tempo real absoluto. Isso resulta em atrasos ou pausas entre diálogos, a menos que as respostas sejam predefinidas e gravadas, o que limita a flexibilidade do diálogo durante a chamada de extorsão.

Diante disso, a melhor abordagem é estar atento a possíveis atrasos ou interrupções no fluxo da conversa. Recomenda-se também alterar a sequência natural do diálogo, visando interromper o fluxo premeditado pela chamada. Outras dicas incluem observar se a voz soa mecânica e se há presença de eco na chamada, o que pode indicar manipulação por Inteligência Artificial.

Quando o tom e o ritmo da chamada parecerem estranhos, é fundamental atentar-se à possível falta de naturalidade nas respostas ou ausência de variações típicas na articulação das palavras para o contexto apresentado. Em todas as situações, é essencial manter a cautela ao receber ligações de números desconhecidos ou identificados como “Desconhecido”.

Jamais se deve fornecer informações financeiras durante essas chamadas, e a atitude mais segura é encerrar a ligação e entrar em contato com o suposto familiar sem ceder ao desespero. Em alguns casos, pode levar algum tempo para confirmar a veracidade da situação, e é preferível aguardar algumas horas para garantir que tudo esteja realmente bem e que se tratou de um mal-entendido.

Publicado em

LGPD NO BRASIL: AVANÇOS E DESAFIOS APÓS CINCO ANOS DE IMPLEMENTAÇÃO

Em 14 de agosto, a Lei Geral de Proteção de Dados (LGPD) completou cinco anos desde sua promulgação no Brasil. No entanto, especialistas apontam que, apesar da ampla abertura de horizontes regulatórios em relação às mais novas tecnologias, ainda persistem dúvidas quanto ao impacto prático das normas no cotidiano de empresas e cidadãos.

Desde sua implementação, a LGPD enfrentou um caminho burocrático e gradual, com partes da legislação entrando em vigor apenas anos após sua aprovação. A Autoridade Nacional de Proteção de Dados (ANPD), responsável por fiscalizar o cumprimento da LGPD, só foi efetivamente estruturada em 2020, dois anos após sua criação.

A LGPD trouxe consigo uma mudança cultural necessária, mas a compreensão completa dos conceitos e mecanismos ainda é limitada, principalmente devido à falta de conscientização sobre o valor dos dados pessoais. Muitos ainda não percebem que informações como o CPF, fornecidas para obter descontos, contêm preciosas informações sobre hábitos e preferências pessoais.

A aplicação de sanções também enfrentou atrasos, o que levanta preocupações sobre a efetividade da lei. A necessidade de uma educação digital e uma mudança cultural em relação à propriedade dos dados pessoais é crucial para construir uma base sólida de proteção de dados.

Apesar das incertezas e desafios, especialistas concordam que a LGPD já deixou marcas significativas. Houve uma mudança cultural nos processos de coleta, uso e armazenamento de dados em todas as esferas da sociedade, o que resultou em relações mais transparentes e duradouras entre as partes envolvidas.

Alguns destacam que a lei já gerou impactos positivos, estimulando empresas a repensarem suas práticas e a investirem em conformidade. A implementação da LGPD também serve como um prelúdio para a regulamentação de outras tecnologias emergentes, como inteligência artificial e segurança da informação.

À medida que o Brasil enfrenta novos desafios regulatórios associados às tecnologias, a experiência adquirida com a LGPD pode servir como base para um debate cuidadoso e equilibrado sobre questões como a inteligência artificial. O futuro da proteção de dados no país dependerá da capacidade de responder a esses desafios sem comprometer os princípios fundamentais da privacidade e inovação.

Em resumo, os cinco anos de vigência da LGPD no Brasil têm sido marcados por avanços, desafios e uma mudança cultural essencial. A construção de uma cultura de proteção de dados e a garantia de conformidade devem continuar sendo prioridades, à medida que o país enfrenta os próximos capítulos na evolução tecnológica e regulatória.

Publicado em

CERTIFICAÇÃO LGPD IMPULSIONA COMPRAS DE TECNOLOGIA EM ENTIDADES ESTADUAIS DE TIC

O atributo alt desta imagem está vazio. O nome do arquivo é image.png

O cenário de compras públicas de Tecnologia da Informação e Comunicação (TIC) está experimentando um período de intensa atividade, impulsionado pela crescente demanda por digitalização. Flávio Rodrigues, presidente da Associação Brasileira de Entidades Estaduais de TIC (ABEP TIC), ressalta que a transformação digital está revitalizando as iniciativas das entidades estaduais, que outrora foram prejudicadas por restrições de recursos e pela pandemia.

Em palavras de Rodrigues, “Apenas no Rio de Janeiro, o investimento em tecnologia já ultrapassou a marca de R$ 1 bilhão este ano. Isso inclui R$ 150 milhões destinados à Proderj e R$ 750 milhões direcionados às áreas de educação, fazenda e saúde. Um movimento semelhante se observa em outras entidades estaduais. A modernização da infraestrutura tecnológica está no centro desse processo”.

Durante o SECOP 2023, realizado em Brasília, Flávio Rodrigues compartilhou com a CDTV, do Convergência Digital, detalhes sobre a aquisição pioneira do Rio de Janeiro relacionada à Lei Geral de Proteção de Dados (LGPD) em nível estadual. Rodrigues enfatizou a crescente influência da LGPD nas aquisições de TICs. Ele mencionou um exemplo concreto: “Estou lidando com uma concorrência para aquisição de câmeras com reconhecimento facial e tivemos que abordar explicitamente a questão da proteção e armazenamento dos dados. Nossa ata de registro para contratações relacionadas à LGPD será compartilhada com outros estados”, revelou.

O impulso proporcionado pela transformação digital e a conscientização sobre a LGPD estão moldando significativamente o panorama das compras públicas de TICs. Esse avanço ressalta a importância das entidades estaduais se adaptarem rapidamente às mudanças tecnológicas e regulatórias, promovendo tanto a modernização quanto a segurança dos serviços públicos por meio da inovação.

Publicado em

POLÍCIA DETÉM INDIVÍDUOS QUE NEGOCIAVAM INFORMAÇÕES DE MINISTROS DO STF, GOVERNADORES E DEPUTADOS NO MERCADO ILEGAL

O atributo alt desta imagem está vazio. O nome do arquivo é image.png

Governador do DF, Ibaneis Rocha, teve dados vazados; além de autoridades, 200 milhões de brasileiros foram expostos

A Polícia Civil do Distrito Federal (PCDF) realizou no dia 20/06 a prisão de dois criminosos virtuais responsáveis pela venda de pacotes contendo informações confidenciais de mais de 200 milhões de cidadãos brasileiros.

Entre as vítimas estão ministros do Supremo Tribunal Federal (STF), governadores e deputados tanto do Distrito Federal como a nível federal. A perícia conduzida pelo Instituto de Criminalística da PCDF confirmou o vazamento de dados do governador do DF, Ibaneis Rocha (MDB).

A investigação teve início na delegacia do Lago Norte, bairro nobre de Brasília, após a análise de 100 inquéritos de pessoas que foram vítimas de golpes ao longo de um ano. Segundo informações fornecidas pelos policiais, o vazamento de informações pessoais facilitou as ações dos golpistas.

Entre as informações ilegalmente compartilhadas encontram-se números de telefone celular, endereços residenciais e de e-mail, fotos e até mesmo assinaturas digitalizadas. Além disso, os grupos obtinham dados de empresas e veículos registrados em nome das vítimas, bem como informações sobre seus parentes e vizinhos.

A PCDF afirma que os criminosos também tinham acesso às câmeras de OCR (leitura de placas), o que lhes permitia rastrear os últimos deslocamentos das vítimas nas estradas de todo o país, possibilitando o monitoramento de suas rotinas.

Com a prisão de diversos golpistas, a PCDF descobriu que esses dados estavam sendo comercializados na darknet (a parte oculta da internet) por meio da aquisição de acesso a “painéis de consulta”.

Os valores pagos variavam de R$ 7 a R$ 350, dependendo da duração do acesso (7, 15 ou 30 dias). A investigação revelou que 1.453 usuários adquiriram esse tipo de pacote.

“A investigação comprovou que esses painéis são a fonte de informação para os criminosos, que selecionam as vítimas e elaboram estratégias para enganá-las”, explicou o delegado responsável pelo caso, Erick Sallum.

Agora, os investigadores buscarão determinar a origem do que consideram ser um dos maiores vazamentos de dados na história do país e como os autores obtinham acesso a informações confidenciais da população brasileira, em especial o hackeamento das câmeras de reconhecimento de placas.

“Encontramos fortes indícios de que grande parte dessas informações é proveniente de invasões a órgãos públicos. No entanto, também detectamos uma atividade ilegal por parte de empresas fictícias de proteção de crédito. Contrariando a Lei Geral de Proteção de Dados (LGPD), dados pessoais da população brasileira estão sendo vendidos em larga escala clandestinamente, sem critérios para sua destinação”, afirmou o delegado à CNN.

É importante ressaltar que o armazenamento de dados pessoais em massa sem razões, é contra os princípios da LGPD. Muitos cibercriminosos obtém tais fontes de dados devido à vazamentos aos quais ocorreram em 2021: https://www.cnnbrasil.com.br/economia/fotos-e-ate-salarios-estao-entre-os-dados-vazados-de-223-milhoes-de-brasileiros/