Publicado em

SEU DNA ESTÁ SEGURO? COMO O VAZAMENTO DA 23ANDME AFETA VOCÊ

A recente invasão cibernética enfrentada pela empresa de testes genéticos 23andMe gerou grande preocupação devido ao comprometimento dos dados de aproximadamente 14 mil clientes. Este incidente destaca os riscos associados à segurança de informações pessoais, especialmente considerando a natureza delicada dos dados envolvidos.

A companhia informou que os cibercriminosos acessaram não apenas dados básicos, mas também detalhes mais específicos, como informações sobre a ascendência dos usuários. Katie Watson, porta-voz da 23andMe, revelou que cerca de 5,5 milhões de pessoas que usavam o recurso DNA Relatives foram afetadas. Este recurso permite que os clientes compartilhem alguns de seus dados genéticos com outros, geralmente membros da família.

Adicionalmente, informações de perfil genealógico de aproximadamente 1,4 milhão de usuários que optaram pelo DNA Relatives foram expostas. Este vazamento afetou, assim, quase metade dos sete milhões de clientes da empresa.

A brecha de segurança começou a ser notada em outubro, quando um hacker alegou ter acessado informações genéticas de clientes da 23andMe e tentou vendê-las. Como prova, dados de um milhão de usuários de ascendência judaica Ashkenazi e 100 mil usuários chineses foram publicados.

A vulnerabilidade explorada pelos hackers estava ligada à reutilização de senhas pelos clientes, o que facilitou ataques de força bruta. O DNA Relatives, ao conectar usuários com parentes, exacerbou o impacto da invasão, pois permitiu que os cibercriminosos acessassem informações não apenas do titular da conta, mas também de seus familiares.

Atualmente, a 23andMe concentra esforços na resolução das consequências dessa invasão e no fortalecimento de seus protocolos de segurança. A empresa busca, assim, prevenir futuros incidentes e restaurar a confiança de seus clientes, vital para a continuidade de seus serviços de testes genéticos.

Publicado em

DIREITO BRASILEIRO: SENADO APROVA PROJETO QUE IGUALA ASSINATURAS DIGITAIS COM FIRMA RECONHECIDA

A recente deliberação da Comissão de Comunicação e Direito Digital do Senado Brasileiro marca um avanço significativo na legislação digital do país. Nesta semana, foi aprovado um importante Projeto de Lei, identificado como PL 4187/2023, que estabelece a equivalência entre assinaturas digitais e o tradicional reconhecimento de firma por cartórios.

Este projeto, impulsionado majoritariamente por membros de um proeminente partido político, propõe que as assinaturas eletrônicas realizadas com certificados digitais validados pela Infraestrutura de Chaves Públicas Brasileira (ICP-Brasil) sejam equiparadas em termos de importância jurídica e confiabilidade ao reconhecimento de firma. O autor da proposta argumenta que as assinaturas eletrônicas certificadas pela ICP-Brasil já possuem um alto grau de reconhecimento jurídico e confiabilidade.

O relator do projeto, também pertencente ao mesmo partido, reforçou a necessidade dessa medida, destacando a inexistência de uma legislação que confira à assinatura digital a mesma validade jurídica que o reconhecimento de firma realizado em cartórios. Ele ressaltou que a aprovação do PL 4187/2023 vem para preencher essa lacuna legal, alinhando a legislação brasileira às necessidades da era digital.

Publicado em

A NOVA FRONTEIRA DA SEGURANÇA CIBERNÉTICA NO BRASIL

Durante 2023, o panorama de segurança cibernética foi marcado por uma ameaça persistente e evolutiva: o ransomware. O Brasil se destacou infelizmente nesse contexto, posicionando-se como um dos principais alvos globais desses ataques. Atrás apenas de três grandes nações, o país se tornou um foco significativo para esses cibercriminosos.

Inicialmente, os ataques de ransomware eram caracterizados pela criptografia de dados e a exigência de um resgate para a liberação. No entanto, essa tática evoluiu para o que é conhecido como “dupla extorsão”, onde os dados não são apenas criptografados, mas também há a ameaça de sua exposição pública ou venda na dark web. Essa abordagem foi seguida pela ainda mais complexa “tripla extorsão”, que expande o alcance da chantagem para incluir informações sensíveis de clientes e outros indivíduos ligados à entidade atacada.

Recentemente, um novo método emergiu: ataques de ransomware sem o uso de criptografia. Essa técnica foca na obtenção de acesso a dados confidenciais, com a ameaça de divulgá-los ou vendê-los, em vez de criptografá-los. Esse método introduz uma dinâmica mais rápida e potencialmente mais danosa, dada a sua simplicidade e a pressão psicológica imposta às vítimas.

Um grupo cibercriminoso notório adaptou-se a essa nova abordagem, migrando de um modelo de dupla extorsão para a extorsão baseada puramente em exfiltração de dados. Esse grupo foi responsável por ataques significativos a infraestruturas críticas e organizações em diversas regiões, incluindo um ataque a uma grande organização sem fins lucrativos, alegando ter roubado uma quantidade considerável de dados sensíveis.

Diante desse cenário, a abordagem de segurança “Zero Trust” tornou-se uma estratégia vital. Baseando-se no princípio de “nunca confiar, sempre verificar”, essa estratégia enfatiza a importância da criptografia e de outras medidas de segurança robustas. A utilização de tecnologias como inteligência artificial e aprendizado de máquina para a orquestração da criptografia em ambientes multinuvem é uma tendência emergente, permitindo proteger dados sem comprometer a performance ou a experiência do usuário.

Em conclusão, a paisagem de ransomware está em constante transformação, exigindo das empresas uma resposta igualmente dinâmica e sofisticada. A segurança de confiança zero, aliada a soluções avançadas de criptografia e análise de dados baseada em IA e ML, representa um caminho promissor para enfrentar as ameaças que continuam a desafiar a segurança digital no mundo todo.

Publicado em

ANPD LANÇA MAPA DE TEMAS PRIORITÁRIOS PARA MOLDAR O FUTURO DA PROTEÇÃO DE DADOS NO BRASIL

A Autoridade Nacional de Proteção de Dados (ANPD) do Brasil anunciou um marco importante na quarta-feira, 13 de dezembro, com a divulgação da primeira edição do Mapa de Temas Prioritários (MTP). Este documento estratégico delineia áreas focais para futuras atividades de estudo e fiscalização ao longo dos próximos dois anos. Este desenvolvimento representa um avanço significativo, prometendo benefícios tangíveis para a sociedade, incluindo o aprimoramento da governança, maior transparência e previsibilidade nas decisões e ações da ANPD.

O MTP se concentra em quatro eixos de ação essenciais: a proteção dos direitos dos titulares de dados, o tratamento de dados pessoais de crianças e adolescentes no ambiente digital, a aplicação de inteligência artificial em reconhecimento facial e tratamento de dados pessoais, e, finalmente, a questões em torno da raspagem de dados e agregadores de dados.

Esses temas foram selecionados após um processo de análise meticuloso realizado pela Coordenação-Geral de Fiscalização (CGF) da ANPD, em colaboração com diversas áreas técnicas. Este processo incluiu a identificação de áreas críticas em proteção de dados para foco de estudo ou fiscalização, seguido de uma avaliação de demandas anteriores e a consideração de como esses temas se alinham aos objetivos institucionais da ANPD.

Além de estabelecer áreas de foco, o MTP também esclarece o processo decisório da ANPD, os objetivos específicos de cada eixo de ação e as atividades prioritárias. Ele inclui ainda um cronograma detalhado para implementação e destaca a importância da interação com outras entidades da Administração Pública e, quando necessário, com autoridades de proteção de dados de outros países.

Camila Falchetto Romero, a Coordenadora-Geral de Fiscalização Substituta da ANPD, enfatiza a importância do MTP como um complemento vital aos outros instrumentos de governança da ANPD. Segundo ela, a ferramenta é essencial para orientar a direção do órgão nos próximos dois anos, definindo prioridades em estudos e atividades de fiscalização em todas as suas dimensões. Isso visa garantir uma congruência efetiva entre o tratamento de dados pessoais e os mandatos estabelecidos pela Lei Geral de Proteção de Dados Pessoais (LGPD) do Brasil.

Publicado em

COMO A BIOMETRIA FACIAL ESTÁ TRANSFORMANDO O COTIDIANO E A ECONOMIA BRASILEIRA

A biometria facial no Brasil tem se tornado um elemento essencial na vida cotidiana, com uma crescente adesão em várias aplicações, desde abertura de contas bancárias até matrículas escolares. Esta tecnologia tem sido fundamental para reforçar a segurança e a confiança no meio digital, contribuindo significativamente para a redução de fraudes e golpes.

Para ilustrar a sua expansão, dados recentes da Unico, uma empresa brasileira líder em identidade digital, revelam um aumento significativo no número de transações autenticadas por biometria facial, de 64 milhões em 2020 para 226 milhões no último ano.

A importância dessa tecnologia pode ser ainda mais evidente ao considerarmos um cenário hipotético em que ela deixasse de funcionar por um dia. Estudos da Fundação Getúlio Vargas (FGV) sugerem que um único dia sem biometria facial resultaria em uma perda de aproximadamente R$ 4,7 milhões no PIB brasileiro e R$ 550 mil em rendimentos dos trabalhadores. Estendendo essa situação para um ano, o impacto seria ainda mais drástico, com uma redução de R$ 1,6 bilhão no PIB.

Além de seu papel direto na segurança e autenticação, a biometria facial tem um papel multiplicador na economia. No setor de desenvolvimento de software, por exemplo, cada real investido gera um impacto de R$ 3,88 no PIB, um fenômeno conhecido como efeito multiplicador. Esse efeito engloba tanto os ganhos diretos das empresas quanto os indiretos, como o impacto em fornecedores e setores correlatos.

A biometria facial também tem um papel significativo na criação de empregos e geração de renda. De acordo com estudos da FGV, para cada dez empregos criados pela Unico, surgem outros 17 em diferentes setores. Isso reflete não apenas em mais empregos, mas também em um aumento da renda circulante na economia.

A substituição de métodos tradicionais de identificação por sistemas baseados em biometria facial não beneficia apenas a economia, mas também reduz significativamente a burocracia e os custos associados. Esse avanço tecnológico é particularmente relevante em um país como o Brasil, onde processos burocráticos e analógicos podem representar entre 1,2% e 2% do PIB, segundo análises da FGV.

O crescimento da biometria facial é impulsionado não apenas pela sua eficiência, mas também pela crescente digitalização e adoção de tecnologias inovadoras pelo público brasileiro. Projeções da consultoria Mordor Intelligence indicam que o mercado de autenticação facial por biometria crescerá cerca de 22% ao ano nos próximos cinco anos.

Contudo, com o avanço da identidade digital, surgem desafios significativos relacionados à segurança e privacidade dos dados. No Brasil, a Lei Geral de Proteção de Dados Pessoais (LGPD), estabelecida em 2018, impõe diretrizes rigorosas para o tratamento de dados sensíveis, incluindo os provenientes da biometria facial. As empresas devem assegurar que os usuários estejam cientes e no controle de como seus dados são utilizados.

A Unico, sendo a maior empresa brasileira no segmento de identidade digital, destaca a importância de sistemas robustos para garantir a integridade e segurança dos dados. É essencial que as inovações tecnológicas sejam acompanhadas de medidas efetivas para proteger a privacidade dos usuários e prevenir vazamentos de dados.

A biometria facial no Brasil representa um avanço notável em termos de segurança, economia e eficiência. No entanto, para que seu potencial seja totalmente realizado, é fundamental que sejam adotadas práticas rigorosas de segurança e privacidade, assegurando que a tecnologia sirva ao melhor interesse dos usuários e da sociedade como um todo.

Publicado em

COMO DEVERÍAMOS REGULAR A INTELIGÊNCIA ARTIFICIAL EM NOSSA SOCIEDADE?

Atualmente, estamos vivendo uma era onde a inteligência artificial (IA) se tornou um pilar central nas relações econômicas e sociais, operando predominantemente através de plataformas tecnológicas avançadas. Este cenário tem suscitado debates em nível global sobre a necessidade de estabelecer regulamentações para a IA, buscando assim um uso mais ético e responsável dessa tecnologia, de modo a proteger os direitos dos indivíduos.

A União Europeia (UE) está na vanguarda deste movimento com sua proposta conhecida como AI Act. Esta iniciativa tem como objetivo principal assegurar a segurança, respeitar os direitos humanos, incrementar a confiança e a transparência no uso da IA, além de fomentar a inovação no mercado digital unificado. A proposta da UE busca prevenir preconceitos e discriminações e estabelecer diretrizes claras para sistemas de IA de alto e baixo risco. Em contraste, França, Alemanha e Itália recentemente adotaram uma abordagem de autorregulação obrigatória, que envolve códigos de conduta para os principais modelos de IA, uma estratégia que tende a ser menos restritiva do que as regulações governamentais e que pode preservar a competitividade no mercado global.

Nos Estados Unidos, uma ordem executiva assinada pelo presidente Joe Biden em outubro deste ano reflete preocupações similares. Esta ordem exige que desenvolvedores de sistemas de IA compartilhem resultados de testes e segurança com o governo, e estabelece a adoção de padrões pelo Instituto Nacional de Padrões e Tecnologia (NIST). Além disso, impõe a utilização de marca d’água para ajudar a identificar conteúdos criados por IA, uma medida para combater fraudes e desinformação.

No Brasil, inspirado pelo movimento da UE, o Projeto de Lei nº 2.338/2023 está em discussão, visando regulamentar o uso de sistemas baseados em IA. Atualmente, apenas a Lei Geral de Proteção de Dados (Lei 13.709/2018) oferece algum nível de proteção contra riscos relacionados ao uso de IA, principalmente no que tange à revisão de decisões automatizadas que afetam direitos individuais.

Este cenário emergente sinaliza algumas tendências claras em relação à autorregulação na IA. Um dos aspectos centrais é a importância da governança como um elemento chave no uso ético da IA. Existe um consenso crescente em torno de quatro pilares éticos fundamentais para a IA: o respeito à autonomia individual, o princípio da precaução, a equidade e a transparência.

No contexto da autorregulação, os programas de governança em IA são importantes para assegurar o uso ético da tecnologia, a transparência, a responsabilidade corporativa, a segurança e privacidade dos dados, a justiça social, a conformidade legal e regulatória, e a gestão de riscos. É importante notar que, apesar de um consenso teórico sobre estes temas, na prática, muitas empresas de tecnologia enfrentam críticas em relação à eficácia e transparência de seus comitês de ética, alguns dos quais foram até mesmo desmantelados.

Em resumo, a evolução e adaptação das regulamentações em torno da IA são essenciais para garantir seu uso ético e responsável. A definição de um “mínimo ético” com diretrizes universais é fundamental para assegurar princípios inegociáveis na ética da IA, como respeito à autonomia individual, precaução, equidade e transparência. A tendência de autorregulação e os programas de governança em IA tornam-se essenciais para garantir a conformidade legal, a responsabilidade corporativa, a justiça social e a gestão eficiente de riscos. O futuro da IA, portanto, dependerá da capacidade das organizações de integrar esses princípios éticos no desenvolvimento e na implementação de seus sistemas, promovendo um uso da IA que seja benéfico e sustentável para toda a sociedade.

Publicado em

VOCÊ CONHECE OS LIMITES DA IA? DESCUBRA OS DIREITOS E RISCOS DOS INFLUENCIADORES DIGITAIS

A discussão sobre a substituição de humanos por máquinas, que ganhou força durante a Revolução Industrial, voltou à tona com a crescente digitalização e o avanço acelerado da tecnologia. Um exemplo marcante é o sucesso do ChatGPT, um reflexo da maior acessibilidade da Inteligência Artificial (IA) ao público em geral.

É importante notar que a IA, embora avançada, ainda depende da inteligência humana para sua alimentação e controle. Sem supervisão, as máquinas podem absorver e replicar comportamentos indesejáveis do mundo virtual, como discriminação ou agressividade.

Um caso recente ilustra esse ponto. Uma agência de modelos em Barcelona criou “Aitana”, uma influenciadora digital gerada totalmente por IA. Esta influenciadora virtual, com 148 mil seguidores e um perfil voltado para games, fitness e cosplay, levanta questões intrigantes. Alguns seguidores acreditam que ela é real, mesmo com outros tentando alertar sobre sua natureza artificial.

Esta situação reflete um preocupante desinteresse, especialmente entre os jovens, em discernir o real do artificial. O crescente envolvimento com a vida virtual exige uma adaptação às novas tecnologias e comportamentos geracionais, para evitar mais prejuízos do que benefícios com a IA.

Do ponto de vista legal, a existência de influenciadores virtuais como “Aitana” não enfrenta obstáculos, a menos que cometam atos ilícitos. Qualquer dano causado deve ser atribuído aos humanos que operam a IA. Porém, a legislação enfrenta desafios maiores quando os desenvolvedores desses personagens são desconhecidos, especialmente se estes personagens causam danos reais, como na venda de drogas a adolescentes.

No Brasil, ainda não temos uma legislação específica para IA, mas há um projeto de lei em estudo. Grupos de juristas e profissionais, como os da OAB do Rio Grande do Sul, estão acompanhando de perto o desenvolvimento desse projeto e as tendências globais relacionadas à IA.

A complexidade e a importância do tema são inegáveis. Prever todos os desdobramentos é impossível, mas com estudo, dedicação e observação do Direito comparado, podemos ter uma visão mais clara dos riscos e benefícios. Enquanto isso, a sociedade deve ser cautelosa, especialmente com crianças e adolescentes nas redes sociais, e consciente no uso da IA. Eventualmente, a IA se tornará uma parte mais natural de nossas vidas, com implicações jurídicas mais bem regulamentadas. Até lá, é fundamental usar essa tecnologia com responsabilidade e consciência.

Publicado em

ENTENDA O EFEITO DO VAZAMENTO DAS METAS DA MOVIDA NO MERCADO FINANCEIRO

Na recente temporada de eventos corporativos, um incidente envolvendo a Movida, uma conhecida empresa de locação de veículos, gerou grande repercussão. Uma funcionária postou nas redes sociais uma foto que incluía um “troféu” com metas financeiras da empresa para o ano seguinte: uma receita projetada de R$ 12,4 bilhões, EBITDA de R$ 4,3 bilhões e um lucro líquido estimado em R$ 210 milhões.

O cerne da controvérsia reside no fato de a Movida habitualmente não fornecer guidances financeiras ao mercado. Além disso, a meta de lucro líquido revelada, que foi apresentada durante uma convenção interna de vendas, situou-se significativamente abaixo da expectativa de mercado de R$ 400 milhões, conforme dados compilados pela Bloomberg.

A divulgação não oficial dessas cifras provocou uma reação adversa no mercado de ações. As ações da Movida, já marcadas por um alto volume de posições vendidas, sofreram uma queda acentuada de mais de 11% durante o pregão, acompanhada de um volume de negociação elevado. Isso levou a empresa a emitir um comunicado oficial.

Neste comunicado, a Movida esclareceu que os números divulgados na fotografia eram meramente gerenciais e simplificados, não representando uma orientação formal para o mercado. A empresa destacou que as projeções não incluíam aspectos importantes como operações com instrumentos derivativos financeiros, a curva de depreciação de ativos – um fator crucial na indústria de locação de veículos – e variações na curva Selic, além de movimentos em certos créditos e provisões fiscais.

Apesar da tentativa de esclarecimento, o impacto no valor das ações foi significativo, com uma queda de 4% registrada próximo ao fechamento do pregão.

Este episódio levantou dúvidas sobre as expectativas de desempenho da Movida para o próximo ano, focando a atenção do mercado nas políticas de juros e depreciação adotadas pela empresa. Analistas do BTG Pactual, parte do mesmo grupo que controla a Exame, apontaram que estas são as variáveis mais críticas que influenciam os resultados da Movida. Vale ressaltar que as metas de receita e EBITDA vazadas estavam alinhadas com as expectativas de mercado.

Publicado em

GOOGLE LANÇA GEMINI, O MODELO MULTIMODAL MAIS AVANÇADO

O Google, um gigante no campo da inteligência artificial, recentemente introduziu o Gemini, seu mais recente avanço na área. Este modelo de IA, desenvolvido pelo renomado laboratório de inteligência artificial DeepMind, é considerado um marco na história da tecnologia. O Gemini se destaca por ser um modelo multimodal, integrando habilidades em texto, imagem, áudio, vídeo e programação, um feito notável no campo da IA.

O modelo representa um salto significativo na forma como as máquinas compreendem e interagem com o mundo ao nosso redor, superando outros modelos existentes.

O Google já integrou o Gemini ao Bard, seu chatbot, ampliando assim as capacidades deste último e reforçando a competição com a OpenAI e seu produto, o ChatGPT. Comentários da empresa sugerem que essa integração marca a maior melhoria do Bard desde seu lançamento.

O Gemini será gradualmente implementado em outros produtos e serviços do Google, como Ads, Chrome e Duet AI, em três variantes: Gemini Ultra, para tarefas de alta complexidade; Gemini Pro, para uma gama mais ampla de tarefas; e Gemini Nano, otimizado para eficiência em dispositivos menores.

Uma característica notável do Gemini é seu poder computacional, que é cinco vezes maior que o do GPT-4. Ele é o primeiro modelo a superar especialistas humanos em Massive Multitask Language Understanding, um benchmark chave para avaliar a capacidade de resolução de problemas de modelos de IA. O Gemini Ultra, por exemplo, alcançou 30 de 32 pontos em testes acadêmicos.

A inovação fundamental do Gemini reside em sua abordagem nativa multimodal. Diferente de modelos anteriores que eram treinados separadamente em diferentes modalidades antes de serem combinados, o Gemini foi concebido desde o início para lidar com múltiplas formas de informação simultaneamente, permitindo-lhe compreender e raciocinar com mais eficácia.

Além disso, a Google utilizou chips personalizados para desenvolver o Gemini, o que traz vantagens únicas em termos de desempenho.

Para desenvolvedores e clientes corporativos, o Gemini Pro estará disponível via API no Google AI Studio ou Vertex AI a partir de 13 de dezembro. O Google AI Studio é uma ferramenta gratuita para desenvolvimento e prototipagem de aplicativos, enquanto o Vertex AI oferece personalização do Gemini com controle total sobre os dados.

Finalmente, o Google anunciou o lançamento do Bard Advanced, uma nova experiência de IA avançada, para o início de 2024. Este anúncio reitera o compromisso da empresa em liderar a vanguarda da inovação em IA.

Publicado em

UM ALERTA SOBRE A SEGURANÇA DE INFORMAÇÕES GENÉTICAS

A recente violação de segurança na empresa de testes genéticos 23andMe representa um marco preocupante na proteção de dados pessoais. O ataque cibernético, que comprometeu informações sensíveis de aproximadamente 14 mil clientes, destaca a vulnerabilidade dos dados pessoais no ambiente digital, especialmente quando se trata de informações genéticas.

A 23andMe, conhecida por seus serviços de análise de DNA, enfrentou uma invasão significativa em seu banco de dados. Os invasores conseguiram não apenas acessar dados básicos dos clientes, mas também detalhes mais profundos sobre sua ascendência. Esta violação impactou um número substancial de usuários, com a porta-voz da empresa, Katie Watson, confirmando que cerca de 5,5 milhões de pessoas vinculadas ao recurso DNA Relatives foram afetadas. Este recurso permite que os clientes compartilhem seus dados genéticos com outros, muitas vezes membros da família, aumentando a gravidade do incidente.

Os dados comprometidos incluem nomes, anos de nascimento, status de relacionamento, percentuais de DNA compartilhado, relatórios de ancestralidade e localizações autodeclaradas. Adicionalmente, informações de perfil genealógico de aproximadamente 1,4 milhão de outros usuários que optaram pelo DNA Relatives também foram expostas. Este incidente afeta quase a metade dos sete milhões de clientes da 23andMe, ressaltando a escala do vazamento.

O ataque começou a ganhar atenção em outubro, quando um hacker alegou ter adquirido informações genéticas de clientes da 23andMe e tentou vendê-las online. A empresa atribuiu a vulnerabilidade à prática comum de reutilização de senhas pelos clientes, que facilitou ataques de força bruta nas contas. O recurso DNA Relatives, ao conectar usuários com seus parentes, exacerbou o impacto da invasão, permitindo que os hackers acessassem dados não apenas do titular da conta, mas também de seus parentes.

No momento, a 23andMe está concentrada em mitigar as consequências desta brecha de segurança e em fortalecer seus protocolos para prevenir futuras violações. Este incidente serve como um lembrete crítico sobre a importância da segurança cibernética, especialmente em um campo tão delicado quanto o dos testes genéticos, e coloca em cheque a confiança dos clientes nestes serviços.

Publicado em

ANPD DIVULGA RELATÓRIO COM AUMENTO NOS INCIDENTES DE SEGURANÇA DE DADOS E ESFORÇOS DE FISCALIZAÇÃO

A Autoridade Nacional de Proteção de Dados (ANPD) revelou em seu mais recente Relatório de Ciclo de Monitoramento (RCM), emitido nesta sexta-feira (8), uma análise detalhada das operações de fiscalização realizadas no primeiro semestre de 2023. Este relatório, elaborado pela Coordenação-Geral de Fiscalização (CGF), não só avalia as atividades passadas, mas também estabelece diretrizes para abordagens futuras, tanto preventivas quanto punitivas, no âmbito da proteção de dados. A transparência é um aspecto central deste documento, destacando o compromisso da ANPD com a sociedade.

Durante o período de janeiro a junho de 2023, a CGF registrou 496 Requerimentos, incluindo denúncias de violações à Lei Geral de Proteção de Dados Pessoais (LGPD) e pedidos de titulares de dados para exercerem seus direitos em relação ao tratamento de suas informações pessoais. Os setores mais afetados foram administração pública, telecomunicações, plataformas digitais, bancos, financeiras, administradoras de cartão e agregadores de dados.

Houve também um aumento significativo nas Comunicações de Incidentes de Segurança (CIS), com 163 registros no primeiro semestre de 2023, um salto de 15,6% em comparação com o mesmo período do ano anterior. Estas comunicações são mandatórias por parte dos agentes de tratamento e se referem a eventos adversos confirmados que possam comprometer a confidencialidade, integridade ou disponibilidade de dados pessoais, com os ataques de ransomware continuando a ser a causa principal.

Além disso, a CGF iniciou dois processos de fiscalização e um processo administrativo sancionador no período, mostrando um esforço contínuo na regulação e supervisão do tratamento de dados pessoais. Do total de 11 processos de fiscalização iniciados em anos anteriores, quatro já foram concluídos.

Camila Romero, Chefe da Divisão de Monitoramento, enfatiza que o relatório é um reflexo do trabalho realizado pela ANPD, oferecendo uma visão abrangente das atividades de fiscalização. Ela destaca que as informações coletadas a partir de requerimentos, CIS e outras fontes são fundamentais para traçar estratégias futuras, em consonância com o Mapa de Temas Prioritários, orientando assim as ações de fiscalização nos próximos ciclos.

Publicado em

VOCÊ ESTÁ SEGURO? APRENDA A IDENTIFICAR GOLPES FINANCEIROS NO BRASIL

A preocupação com fraudes financeiras é uma realidade crescente no Brasil, onde estima-se que cerca de 36% da população já foi vítima de algum tipo de golpe, um dado alarmante revelado por uma pesquisa do Instituto Real Time Big Data para o programa Fala Brasil, da RecordTV. Essa estatística representa quase quatro em cada dez brasileiros afetados por fraudes, evidenciando um problema sério e generalizado no país.

A distribuição geográfica das vítimas de fraudes varia no Brasil, com a região Norte liderando em termos de percentual de população afetada, com cerca de 36%, enquanto a região Centro-Oeste apresenta o menor índice, com 32%. Um aspecto notável é que a maior parte das vítimas tem mais de 60 anos, o que aponta para uma vulnerabilidade particular desse grupo etário em relação a golpes, especialmente os que envolvem tecnologia.

O volume e a variedade de golpes aplicados são surpreendentes. Em 2022, foram registrados mais de 1,8 milhão de casos de estelionato, correspondendo a um aumento de 326% em comparação com 2018. Os golpes vão desde a restituição do Imposto de Renda e pagamento de impostos, até a renegociação de dívidas e ofertas de emprego, além de fraudes envolvendo aplicativos de mensagens, o sistema de pagamentos PIX e a clonagem de cartões.

Entre os golpes mais comuns está o furto de identidade, onde o criminoso se passa por outra pessoa para obter vantagens ilícitas. As consequências para a vítima podem incluir perda de dinheiro, crédito e danos à reputação. Especialistas como Anderson Cruz, advogado com especialização em direito empresarial, enfatizam a importância de proteger dados pessoais e informações de contas de usuário para prevenir tais golpes.

Outra modalidade de golpe que tem se destacado envolve compras e vendas online, especialmente em datas comemorativas. Somente neste ano, pelo menos 80 mil pessoas foram vítimas desse tipo de fraude. O Superior Tribunal de Justiça (STJ) classifica a venda fraudulenta pela internet como crime de fraude, enquanto operações de compra e venda com intenção de enganar configuram estelionato.

Não há um perfil único para vítimas potenciais de golpes, mas algumas tendências são notáveis. Homens, especialmente os mais jovens (até 31 anos), são frequentemente alvos em fraudes de compra e venda, enquanto idosos são mais suscetíveis a golpes tecnológicos devido a um maior distanciamento da tecnologia.

Para combater essa onda de fraudes, é essencial a atuação das autoridades de segurança na identificação e punição dos criminosos, bem como a colaboração entre empresas do setor financeiro para compartilhar informações sobre contas envolvidas em fraudes. Investir em educação digital, especialmente para os mais vulneráveis, é crucial para aumentar a conscientização sobre os golpes mais comuns.

Além disso, recomenda-se que as vítimas registrem um boletim de ocorrência, notifiquem empresas envolvidas (especialmente bancos), troquem senhas e alertem amigos e parentes sobre os golpes. Para prevenção, algumas dicas incluem proteger dados pessoais, usar senhas diferentes para sites e cadastros, verificar regularmente contas bancárias e faturas de cartão de crédito, e desconfiar de promessas milagrosas e informações distorcidas.