Publicado em

COMO ALINHAR PRÁTICAS DO SETOR FARMACÊUTICO À LGPD

A Lei Geral de Proteção de Dados (LGPD) consolidou princípios que buscam garantir o tratamento responsável e transparente de dados pessoais. No setor farmacêutico, que lida com informações de saúde de alta sensibilidade, a conformidade com essas diretrizes é não apenas uma exigência legal, mas também um fator de confiança para o consumidor.

A Autoridade Nacional de Proteção de Dados (ANPD) tem reforçado sua atuação fiscalizatória, ampliando a exigência de ajustes internos e impondo medidas corretivas em empresas que não observam os requisitos da lei. Esse movimento reflete a necessidade de se adotar processos claros, políticas consistentes e práticas proporcionais no tratamento de dados pessoais.

Irregularidades identificadas

Em 2025, a ANPD concluiu investigações no setor farmacêutico envolvendo redes de farmácias, federações e programas de fidelidade. A apuração revelou falhas estruturais significativas, como políticas de privacidade desatualizadas ou inexistentes, práticas pouco transparentes e ausência de informações claras ao consumidor. Em termos simples, os clientes eram convidados a fornecer dados sem compreender plenamente como seriam utilizados.

A exigência de CPF para liberação de descontos foi um dos pontos de destaque. Essa prática impede que o consumidor exerça liberdade real de escolha quanto ao compartilhamento de suas informações. Do mesmo modo, a coleta de dados biométricos para autenticação foi considerada desproporcional quando outros mecanismos, menos invasivos, poderiam ser adotados.

Impactos para o setor

A análise da Autoridade mostrou que programas de fidelização, quando mal estruturados, podem gerar inferências sobre o estado de saúde do consumidor. Além da ANPD, o Ministério Público também instaurou procedimentos para apurar os riscos relacionados ao tratamento de dados nessa área, demonstrando que a fiscalização não se limita a um único órgão. Esse alinhamento entre autoridades reforça a necessidade de adequação imediata.

A não conformidade traz riscos concretos: desde sanções administrativas e multas até danos reputacionais de difícil reparação. O comprometimento da imagem e a perda de confiança podem, em alguns casos, ser mais impactantes do que a própria penalidade financeira.

Caminhos para adequação

Para o setor farmacêutico, o desafio é transformar exigências legais em práticas efetivas. Isso exige auditorias internas capazes de mapear fluxos de dados, revisão periódica das políticas de privacidade e adoção de controles técnicos que assegurem integridade, confidencialidade e disponibilidade das informações.

O investimento em treinamento das equipes e em soluções tecnológicas de proteção de dados deve ser contínuo. O monitoramento permanente das operações e a melhoria constante dos processos são medidas que fortalecem a governança e reduzem o risco de novas desconformidades.

Publicado em

BIOMETRIA E LGPD: DESAFIOS REGULATÓRIOS E RESPONSABILIDADES NO USO DE DADOS SENSÍVEIS

O tratamento de dados biométricos — que envolve impressões digitais, reconhecimento facial e de íris, geometrias corporais, padrões de voz e até traços comportamentais como a forma de digitar ou caminhar — está no centro do debate regulatório brasileiro. A discussão é indispensável para apoiar futuras normas da Autoridade Nacional de Proteção de Dados (ANPD), especialmente diante da digitalização acelerada e do avanço de práticas de fraude cada vez mais sofisticadas.

Um dos pontos sensíveis está na autenticação segura. Com o vazamento massivo de dados cadastrais e a utilização de inteligência artificial por grupos criminosos, a possibilidade de simulação de identidade tornou-se mais concreta. Surge, então, a questão: como assegurar que a pessoa, no ambiente digital, é de fato quem afirma ser?

Funções da biometria no ecossistema digital

A biometria já desempenha papel central em diferentes áreas:

  • Autenticação em serviços digitais;
  • Controle de acesso físico e lógico em empresas e sistemas críticos;
  • Prevenção e detecção de fraudes, principalmente em abertura de contas, concessão de crédito, validação de identidade e transações eletrônicas.

Ainda assim, não se trata de uma solução isenta de riscos. Enquanto senhas podem ser alteradas, dados como rosto, íris e impressões digitais não podem ser substituídos. Isso amplia a responsabilidade das organizações que utilizam tais recursos.

Pontos que devem orientar a futura regulação

A atuação normativa da ANPD deverá enfrentar questões relevantes, entre elas:

  1. Segurança e prevenção a fraudes: reforçar a proteção sem criar vulnerabilidades adicionais ou discriminações sistêmicas.
  2. Biometria comportamental e tradicional: delimitar critérios distintos entre dados físicos (digital, íris, face) e dados de comportamento (voz, digitação, postura).
  3. Hipóteses legais de tratamento: analisar contextos em que o consentimento não seja adequado como base jurídica.
  4. LGPD e prevenção à fraude: estabelecer parâmetros claros para a aplicação do art. 11, II, “g”.
  5. Reconhecimento facial: projetar mecanismos confiáveis, reduzindo falsos positivos e negativos.
  6. Riscos de violação: definir requisitos técnicos e organizacionais obrigatórios para mitigar vazamentos e fraudes de identidade.
  7. Negativa do titular: determinar em que situações a recusa em fornecer biometria pode resultar em limitações proporcionais e transparentes.

Biometria e setores regulados

Alguns segmentos já exigem identificação biométrica, como o de apostas. A Lei Geral de Proteção de Dados reconhece tais dados como sensíveis, mas admite seu uso para prevenção à fraude e proteção dos próprios titulares.

Diante disso, a biometria pode ser aliada da segurança digital, desde que empregada com rigor técnico, transparência e respeito aos direitos fundamentais. Cabe às empresas adotar práticas sólidas de governança e proteção da informação, não apenas para resguardar as pessoas, mas também para reduzir seus riscos jurídicos.

Publicado em

MODERNIZAÇÃO ADMINISTRATIVA E LGPD: O PAPEL DOS DECRETOS FEDERAIS NA ESTRUTURAÇÃO DO ESTADO DIGITAL

A digitalização do Estado brasileiro alcançou um novo patamar com a publicação dos Decretos Federais nº 12.561 e nº 12.564, ambos de julho de 2025. Mais do que acelerar o uso de meios eletrônicos na administração pública, essas normas consolidam um modelo de governança digital ancorado na biometria — classificada pela Lei Geral de Proteção de Dados (LGPD) como dado pessoal sensível —, estabelecendo diretrizes que conciliam eficiência, segurança jurídica e proteção de direitos fundamentais.

Na prática, os decretos estruturam medidas para modernizar processos relacionados a benefícios previdenciários e operações de crédito consignado, ao mesmo tempo em que delimitam salvaguardas robustas contra riscos como fraudes, vazamentos e práticas discriminatórias, sempre com a atuação supervisora da Autoridade Nacional de Proteção de Dados (ANPD).

Bases interoperáveis e transição gradual

O Decreto nº 12.561/2025 instituiu a verificação biométrica como requisito para concessão de benefícios previdenciários, adotando a Carteira de Identidade Nacional (CIN) como referência principal para a identificação dos cidadãos. Em lugar de uma transição abrupta, a norma previu uma arquitetura de interoperabilidade regulada, coordenada pela Secretaria de Governo Digital, capaz de assegurar padronização e rastreabilidade no tratamento de dados sensíveis.

Reconhecendo os limites de cobertura da CIN no momento atual, o decreto autorizou o uso de registros transitórios — como CNH, dados da Polícia Federal e do TSE —, de forma a evitar exclusão de cidadãos e descontinuidades no acesso aos serviços. Essa abordagem evidencia um olhar pragmático, ao permitir que cada órgão implemente fluxos próprios de coleta e validação biométrica conforme sua realidade operacional.

Formalização digital com consentimento qualificado

Já o Decreto nº 12.564/2025 regulamenta a formalização digital do crédito consignado, estabelecendo como requisito a realização de prova de vida biométrica e o registro de consentimento explícito e auditável do trabalhador. O objetivo é garantir que o titular detenha o controle efetivo sobre seus dados, protegendo-o contra fraudes e operações não autorizadas.

Embora a norma se baseie na exigência de consentimento, é juridicamente viável considerar, em determinados contextos, o uso das hipóteses legais do art. 11, II, “a” ou “g” da LGPD, que dispensam o consentimento quando o tratamento for necessário ao cumprimento de obrigação legal ou à prevenção de fraudes. A adoção dessas bases depende, contudo, de uma análise criteriosa que respeite os direitos previstos no art. 9º da lei e leve em conta eventuais riscos à liberdade individual do titular.

A norma também exige a produção de evidências técnicas que comprovem autoria e integridade do ato, como gravações em vídeo com movimentos específicos para atestar a vitalidade do cidadão. Esse tipo de comprovação já é utilizado em plataformas públicas, como o sistema Gov.br, e reforça a confiabilidade dos serviços digitais voltados a populações mais vulneráveis, como aposentados e pensionistas.

Supervisão regulatória e proteção preventiva

A atuação da ANPD está posicionada como elemento estruturante desse processo. Com base na LGPD, a autoridade dispõe de instrumentos para acompanhar, orientar e intervir sempre que houver indícios de riscos aos direitos dos titulares. Seu Radar Tecnológico, publicado em 2024, identificou pontos críticos no uso da biometria, como a possibilidade de desvio de finalidade e os impactos da irrevogabilidade dos dados em caso de vazamento ou erro.

A previsão de relatórios de impacto, recomendações técnicas e auditoria contínua, conforme os artigos 4º, §3º, 38 e 55-J, XIII da LGPD, permite à ANPD exercer um papel de vigilância ativa. Com isso, promove-se uma cultura de responsabilização no uso de tecnologias de identificação, reduzindo assimetrias entre o Estado e o cidadão.

Tecnologia a serviço da inclusão e da cidadania

A digitalização biométrica não está imune a desafios sociais. Grupos como idosos, moradores de áreas remotas e pessoas com restrições de acesso à tecnologia podem encontrar barreiras no uso de sistemas digitais de identificação. Por essa razão, os decretos incorporaram mecanismos de inclusão, com a manutenção de alternativas técnicas e fluxos híbridos enquanto a CIN ainda não se torna universal.

Essa escolha não é apenas operacional, mas ética: o acesso a direitos não pode depender exclusivamente da adequação tecnológica do indivíduo. Ao permitir caminhos alternativos e preservar o consentimento como elemento documentado, o modelo adotado assegura protagonismo ao cidadão no processo de autenticação, tornando-o parte ativa na proteção de seus dados.

Transparência e confiabilidade como pilares da transformação

A confiança nos serviços públicos digitais exige mais do que usabilidade: depende de infraestrutura segura, processos auditáveis e transparência institucional. Os decretos exigem a geração de logs, autenticação multifatorial e confirmação humana para decisões críticas, mitigando erros e responsabilizando eventuais falhas de sistemas automatizados.

Casos anteriores, como o de uma identificação incorreta por reconhecimento facial em 2019 no estado do Rio de Janeiro, servem como referência para a construção de um modelo que privilegia a rastreabilidade e a governança técnica. Aprender com erros passados é um passo essencial para consolidar a confiança pública nas ferramentas do Estado Digital.

Os marcos normativos de 2025 mostram que a digitalização da máquina pública pode ser conduzida de forma equilibrada, aliando inovação tecnológica à responsabilidade institucional. Ao estruturar a interoperabilidade biométrica em bases legais, auditáveis e inclusivas, o país dá um passo importante rumo à consolidação de um modelo de Estado digital centrado no cidadão, tecnicamente consistente e atento aos limites da proteção de dados.

Ainda existem pontos de atenção, como o reforço da cibersegurança e o combate a eventuais distorções de acesso. Mas o caminho regulatório agora delineado oferece parâmetros claros para o desenvolvimento de soluções digitais legítimas, seguras e socialmente responsáveis.

Publicado em

LGPD COMPLETA SETE ANOS: UM MARCO LEGAL AINDA EM CONSTRUÇÃO DIANTE DOS RISCOS DIGITAIS NO BRASIL

Completando sete anos desde sua sanção, a Lei Geral de Proteção de Dados Pessoais (Lei nº 13.709/2018) representa uma das iniciativas mais relevantes no campo dos direitos fundamentais no Brasil contemporâneo. Inspirada em modelos internacionais, como o regulamento europeu, a LGPD foi concebida para garantir transparência, privacidade e segurança no tratamento de dados pessoais. No entanto, a realidade brasileira evidencia a persistência de desafios substanciais para sua consolidação como instrumento eficaz de proteção.

Entre os principais entraves está a frequência com que dados pessoais vêm sendo expostos. De janeiro a julho de 2024, o número de vazamentos registrados por órgãos federais superou o acumulado dos três anos anteriores. O volume impressiona e revela um ambiente onde estruturas públicas e privadas ainda operam com fragilidades técnicas e gerenciais graves. No mesmo período, registros de fraudes eletrônicas demonstram que o cidadão segue desprotegido diante de esquemas cada vez mais sofisticados de engenharia social.

Os dados, no entanto, não se limitam a números frios. Eles expressam o cotidiano de milhões de pessoas que veem suas informações trafegarem sem consentimento, muitas vezes sem saber como ou por quem estão sendo utilizadas. Isso reforça a necessidade de que a aplicação da LGPD ultrapasse o campo normativo e alcance efetividade prática, o que pressupõe uma atuação mais estruturada do órgão regulador e um compromisso político com a proteção de dados como direito fundamental.

Outro ponto que merece atenção é o avanço das tecnologias de vigilância em espaços públicos, especialmente aquelas baseadas em reconhecimento facial. A ausência de regulamentação específica para o uso dessas ferramentas, associada à baixa transparência sobre seus critérios de funcionamento, tem gerado preocupação. Há evidências de que determinados grupos populacionais são impactados de forma desproporcional por essas tecnologias, o que exige não apenas controle técnico, mas também reflexões éticas e sociais mais profundas.

Ao mesmo tempo, tramitam no Congresso propostas legislativas que visam disciplinar o uso de dados em investigações criminais. Uma delas, de ampla repercussão, abre a possibilidade de acesso a bases privadas sem salvaguardas mínimas de proteção, o que suscita dúvidas sobre sua compatibilidade com princípios constitucionais. A ausência de debate público qualificado sobre esses projetos também indica uma lacuna preocupante entre o avanço tecnológico e a deliberação democrática.

Apesar das dificuldades, é possível identificar esforços importantes. A publicação de resoluções normativas pela autoridade nacional, exigindo a comunicação de incidentes em prazo definido, fortalece a cultura de responsabilidade. Estudos técnicos sobre biometria, inteligência artificial e proteção de dados de crianças e adolescentes apontam para uma agenda regulatória que se alinha a práticas internacionais. Ao mesmo tempo, iniciativas de organizações sociais contribuem para ampliar o debate e fomentar a educação digital.

Mas os progressos institucionais só se sustentam quando acompanhados pela participação ativa da sociedade. O domínio técnico da lei precisa ser traduzido em consciência popular. O Brasil exige não apenas normas, mas também uma cultura de proteção de dados que permita ao cidadão exercer seu direito à privacidade de forma plena, segura e informada.

Ao completar sete anos, a LGPD exige mais do que celebração. Requer vigilância crítica, investimento em estruturas de fiscalização, compromisso público com os direitos informacionais e, sobretudo, educação digital como política de Estado. O respeito aos dados pessoais é uma extensão da dignidade humana, e o caminho para sua efetiva proteção ainda está em construção.

Publicado em

WORLDCOIN SOB ANÁLISE: ANPD INVESTIGA PROJETO DE IDENTIDADE DIGITAL BASEADA EM BIOMETRIA

O projeto Worldcoin, que busca criar uma identidade digital global por meio de tecnologia de reconhecimento de íris, está sendo analisado pela Autoridade Nacional de Proteção de Dados (ANPD) no Brasil. A iniciativa utiliza um dispositivo conhecido como “Orb” para capturar imagens da íris e gerar um código único para cada indivíduo. De acordo com os desenvolvedores, essas imagens não são armazenadas, sendo utilizadas apenas para a verificação. Como incentivo, os participantes recebem um pagamento em criptomoeda equivalente a aproximadamente R$ 320.

O objetivo principal do projeto, segundo seus idealizadores, é promover uma forma de comprovação de identidade em um mundo cada vez mais digital, dominado por sistemas de inteligência artificial e robôs. A tecnologia também é apresentada como uma solução para prevenir fraudes e facilitar a distribuição de recursos, incluindo propostas como uma renda básica universal.

Apesar das promessas, o projeto enfrenta resistências globais. Em alguns países, como Quênia e Alemanha, as operações foram suspensas devido a preocupações relacionadas à privacidade e segurança dos dados. No Brasil, a ANPD busca garantir que o uso de informações biométricas esteja em conformidade com a Lei Geral de Proteção de Dados (LGPD). A autoridade já realizou uma reunião virtual com representantes da empresa responsável e solicitou informações complementares sobre os procedimentos adotados.

Caso a ANPD identifique riscos significativos aos direitos dos titulares de dados, medidas restritivas podem ser aplicadas. O caso reflete as tensões globais entre inovações tecnológicas e a proteção da privacidade, um debate que só tende a se intensificar no contexto do avanço digital.

Publicado em

COMO EMPRESAS E BANCOS ENFRENTAM A EVOLUÇÃO DO CIBERCRIME

A inovação no campo da segurança digital é um fator essencial para empresas, especialmente em tempos de crescimento de golpes sofisticados. A fraude com uso de reconhecimento facial e biometria — como o “golpe das flores” — evidencia que criminosos não dependem exclusivamente de tecnologias avançadas, mas sim da combinação de táticas de engenharia social e abordagens digitais e presenciais. Neste golpe, indivíduos são manipulados a fornecer fotos como “comprovantes de recebimento” de presentes, sem perceber que essas imagens serão usadas como prova de vida para, sem consentimento, solicitar financiamentos ou abrir créditos.

Esse exemplo alerta para a necessidade de aprimorar práticas de segurança além das medidas tecnológicas já estabelecidas. Em algumas situações, mesmo com mecanismos de validação e biometria, os bancos têm enfrentado desafios. A evolução, neste caso, está na análise contínua de dados e na conscientização dos clientes sobre abordagens suspeitas, como as ligações falsas em nome de centrais de atendimento. Para reforçar a proteção, bancos e empresas de tecnologia já implementam alertas em aplicativos e outras ferramentas para notificar sobre possíveis fraudes em tempo real.

No entanto, a segurança digital no Brasil ainda apresenta lacunas importantes. Embora a Lei Geral de Proteção de Dados (LGPD) esteja em vigor desde 2020, a adequação de pequenas e médias empresas permanece limitada. Muitos negócios de menor porte ainda precisam avançar em governança de dados, muitas vezes por conta de orçamentos restritos e pela priorização de outras áreas que trazem retornos diretos. A conscientização sobre segurança da informação, contudo, continua essencial, e não somente no nível da própria organização, mas também entre os fornecedores. Pequenas falhas de segurança em empresas terceirizadas podem colocar em risco empresas maiores, que buscam estratégias para proteger não só suas próprias operações, mas as dos parceiros e fornecedores.

O setor financeiro, devido ao seu alto valor para criminosos, tende a investir pesado em medidas de proteção, aplicando camadas de segurança em várias etapas de seus sistemas. Uma abordagem comum é a estratégia de “zero trust”, onde cada ação interna é tratada como suspeita até que seja verificada, empregando técnicas como a autenticação multifatorial e o monitoramento em tempo real de transações para detecção de anomalias. O uso de inteligência artificial e machine learning, aliado a biometria e sistemas de comportamento do usuário, é cada vez mais comum para identificar padrões incomuns e possíveis fraudes.

Para empresas que buscam melhorar suas práticas de segurança, é fundamental investir em tecnologia e capacitação interna e desenvolver uma cultura de segurança. Isso inclui o uso de dados de maneira responsável e estratégica para evitar vazamentos e abusos. O conceito de “confiança zero” ajuda a criar uma barreira sólida, dificultando tentativas de ataque. No setor financeiro, a segurança não é tratada como uma despesa, mas como um investimento crucial para a preservação da confiança dos clientes e para a reputação da instituição.

É preciso observar que o campo da segurança digital nunca é estático. As ameaças evoluem rapidamente, exigindo que a proteção também seja dinâmica e capaz de enfrentar novos desafios. Empresas devem continuar aprimorando sua capacidade de resposta e prevenção, garantindo uma segurança robusta não apenas em seu ambiente, mas também nos laços que mantêm com o ecossistema empresarial mais amplo.

Publicado em

COMO O RECONHECIMENTO FACIAL ENFRENTA A SOFISTICAÇÃO DAS FRAUDES DIGITAIS

O reconhecimento facial, uma tecnologia amplamente utilizada para autenticação em diversas áreas, tem enfrentado um aumento significativo nas tentativas de fraude, destacando as vulnerabilidades inerentes aos sistemas de segurança que dependem dessa biometria. Criminosos estão utilizando técnicas avançadas de spoofing, como a utilização de fotos, vídeos ou máscaras 3D, para burlar sistemas que, até então, eram considerados seguros.

Estima-se que o mercado global de reconhecimento facial alcance US$ 13,87 bilhões até 2028, um crescimento que reflete a confiança crescente na tecnologia. No entanto, essa confiança está sendo colocada em xeque à medida que hackers exploram falhas nos algoritmos de reconhecimento, mostrando que o rosto, apesar de ser uma característica única e imutável, também é uma informação pública e, portanto, vulnerável.

A segurança dos sistemas de reconhecimento facial depende diretamente da qualidade dos dispositivos e algoritmos utilizados. As redes sociais, por exemplo, acabam fornecendo uma base de dados acessível para aqueles que buscam explorar essas vulnerabilidades, permitindo que criminosos tenham tempo suficiente para desenvolver técnicas sofisticadas de invasão, algo que a tradicional troca de senhas não permitia.

Com a previsão de que os crimes cibernéticos possam custar ao mundo cerca de US$ 10,5 trilhões anualmente até 2025, a necessidade de identificar e mitigar fraudes em sistemas de reconhecimento facial se torna cada vez mais importante. A solução passa por treinamentos contínuos dos modelos de IA e pelo investimento em produtos de biometria de alta qualidade. O lançamento apressado de novos produtos no mercado, sem testes adequados, pode resultar em sistemas com falhas ou vieses incorporados, comprometendo a eficácia e a segurança.

Um estudo realizado em 2020 mostrou que os sistemas de reconhecimento facial ainda apresentam taxas de erro preocupantes, especialmente na identificação de pessoas de diferentes etnias. Em particular, mulheres de pele escura experimentaram taxas de erro de até 35%, em comparação com menos de 1% para homens de pele clara. Este dado evidencia a importância de uma pesquisa contínua e o aprimoramento dos modelos de reconhecimento facial para garantir que sejam inclusivos e seguros.

O reconhecimento facial, embora promissor, ainda enfrenta desafios significativos em termos de segurança. A necessidade de investir em soluções robustas e pesquisas contínuas é imperativa para garantir a proteção de dados e a integridade dos sistemas que dependem dessa tecnologia.

Publicado em

RECONHECIMENTO FACIAL: COMBATE ÀS FRAUDES E A NECESSIDADE DE SOLUÇÕES MAIS SEGURAS

O reconhecimento facial, uma tecnologia amplamente utilizada para autenticação em diversos setores, está sob crescente ameaça devido ao aumento das fraudes por técnicas de spoofing. Criminosos têm demonstrado habilidades cada vez mais sofisticadas para enganar sistemas que, até recentemente, eram considerados altamente seguros. Estima-se que o mercado global de reconhecimento facial atinja US$ 13,87 bilhões até 2028, mas o crescimento dessa indústria traz consigo desafios significativos, especialmente no que diz respeito à segurança e confiabilidade dos sistemas.

As fraudes em reconhecimento facial são facilitadas por técnicas avançadas de spoofing, que manipulam sistemas por meio de fotos, vídeos ou até máscaras 3D. A atratividade de usar o próprio rosto como uma senha, embora conveniente, apresenta riscos consideráveis. Isso ocorre porque o rosto é uma característica invariável e, muitas vezes, pública, o que facilita a coleta de dados pelos fraudadores. A segurança dos sistemas de reconhecimento facial depende, portanto, tanto da robustez do dispositivo utilizado quanto da qualidade do algoritmo implementado.

Nesse contexto, a cibersegurança se torna um tema central. Com os crimes cibernéticos projetados para custar ao mundo cerca de US$ 10,5 trilhões por ano até 2025, a necessidade de identificar e mitigar fraudes em sistemas de reconhecimento facial é mais urgente do que nunca. As soluções para combater essas fraudes incluem treinamentos contínuos dos modelos de IA e investimentos em produtos de biometria de alta qualidade. No entanto, a pressa em lançar novos produtos pode levar a falhas, resultando em sistemas que não são suficientemente testados ou que possuem vieses prejudiciais.

Pesquisas, como a realizada pelo MIT em 2020, destacam a importância de um desenvolvimento cuidadoso e inclusivo desses sistemas. A pesquisa mostrou que sistemas de reconhecimento facial apresentavam taxas de erro significativamente mais altas ao identificar pessoas de diferentes etnias, com uma discrepância alarmante: taxas de erro de até 35% para mulheres de pele escura, em comparação com menos de 1% para homens de pele clara. Isso evidencia a necessidade de mais pesquisas e investimentos em soluções robustas para garantir a proteção de dados e a integridade dos sistemas.

Em um ambiente digital cada vez mais interconectado, a segurança de dados e a confiança nas tecnologias emergentes são prioridades que exigem atenção contínua. A evolução dos métodos de autenticação e a melhoria dos algoritmos são essenciais para enfrentar os desafios impostos pelas fraudes e garantir a segurança dos usuários.

Publicado em

ANPD LANÇA SEGUNDA EDIÇÃO DO “RADAR TECNOLÓGICO” FOCADA EM BIOMETRIA E RECONHECIMENTO FACIAL

Em 24 de junho de 2024, a Autoridade Nacional de Proteção de Dados (ANPD) divulgou o segundo volume do “Radar Tecnológico”, uma publicação dedicada ao tema “Biometria e Reconhecimento Facial”. Este estudo examina as aplicações e impactos dessa tecnologia, destacando os riscos e desafios para a proteção de dados pessoais sob a Lei Geral de Proteção de Dados Pessoais (LGPD).

Definindo o Reconhecimento Biométrico

O reconhecimento biométrico é descrito como uma análise técnica automatizada que identifica características fisiológicas (como impressões digitais e reconhecimento facial) ou comportamentais (como voz e expressão facial). O estudo também aborda o conceito de “template biométrico”, utilizado como base para verificação de identidade. Esses templates, armazenados em formato hash, são essenciais para o reconhecimento facial.

Aplicações e Propósitos do Reconhecimento Facial

O reconhecimento facial, uma das modalidades de reconhecimento biométrico, tem três principais objetivos:

  1. Detectar a presença de pessoas.
  2. Identificar um indivíduo de forma única.
  3. Classificar indivíduos com base em seus comportamentos.

Além disso, o estudo menciona o uso de reconhecimento facial na neurotecnologia, com técnicas de interface cérebro-computador (BCI), especialmente na área médica, que têm avançado significativamente nos últimos anos.

Inteligência Artificial e a Proteção de Dados

A ANPD destaca a importância da inteligência artificial (IA) na melhoria da precisão dos sistemas de reconhecimento biométrico, graças ao treinamento com grandes volumes de dados. No entanto, o uso de IA também traz desafios regulatórios. O Regulamento de Inteligência Artificial da União Europeia (EU AI Act) proíbe a utilização de sistemas biométricos de IA para inferir emoções no ambiente de trabalho ou em instituições de ensino e bane a categorização de indivíduos por raça.

No Brasil, o Projeto de Lei 2.338/2023 (Lei de Inteligência Artificial) classifica os sistemas de identificação biométrica para reconhecimento de emoções como de alto risco, mas não os proíbe.

Dados Biométricos e Riscos Legais

Dados biométricos são considerados sensíveis pela LGPD, o que aumenta os riscos associados ao seu tratamento. A ANPD aponta preocupações com vieses nos dados de treinamento, que podem levar à discriminação, e com a possibilidade de vazamentos de templates biométricos, que poderiam facilitar roubos de identidade e fraudes financeiras.

Vigilância e Segurança Pública

A publicação da ANPD foca nos usos do reconhecimento facial para segurança pública, incluindo controle de fronteiras, prevenção de fraudes e vigilância em massa. O EU AI Act proíbe o uso de IA para identificação biométrica em tempo real em espaços públicos, salvo em investigações criminais. No Brasil, a Lei de Inteligência Artificial também restringe o uso de sistemas de identificação biométrica à distância, com exceções para situações de busca por vítimas de crimes ou pessoas desaparecidas.

Controvérsias e Pedidos de Banimento

O uso de tecnologia de vigilância baseada em biometria facial é amplamente controverso. Organizações como a Anistia Internacional e a Human Rights Watch pedem o banimento dessas tecnologias. A Federal Trade Commission (FTC) dos EUA já proibiu uma rede de farmácias de usar reconhecimento facial por cinco anos, devido à discriminação resultante de falsos-positivos.

Embora a publicação da ANPD não forneça diretrizes específicas para empresas que utilizam reconhecimento facial, a expectativa é que futuros estudos da autoridade ofereçam orientações mais detalhadas. Este relatório inicial é um ponto de partida crucial para o aprofundamento do tema pela ANPD.

Publicado em

BIOMETRIA E A REVOLUÇÃO DA SEGURANÇA DE DADOS

Imagine um futuro onde esquecer senhas e perder crachás se torne obsoleto. Em vez de enfrentar o tedioso processo de preencher formulários, um novo funcionário poderia simplesmente fornecer algumas informações biométricas. O rosto seria escaneado, o modo de caminhar analisado, uma frase gravada, e pronto: o próprio corpo se tornaria a chave para acessar todas as áreas da empresa.

Este é o cenário que especialistas em biometria preveem. De acordo com uma recente reportagem do The Wall Street Journal, a integração dessas tecnologias promete transformar a experiência de segurança e acesso nas empresas. Um diretor de tecnologia de uma empresa de segurança descreve uma experiência perfeitamente integrada: ao chegar ao estacionamento, sua localização seria detectada pelo sistema do celular. Entrando pela porta principal, o reconhecimento facial abriria a porta e desbloquearia seu computador automaticamente.

Além de eliminar a inconveniência das senhas esquecidas, essa tecnologia poderia fortalecer significativamente a proteção contra ataques cibernéticos. No entanto, isso levanta importantes questões sobre a privacidade e o uso de dados biométricos pelos empregadores.

Hoje, já vemos scanners de palma em consultórios médicos e o desbloqueio de smartphones por impressão digital. O reconhecimento facial é comum em aeroportos e estádios. Mas, com o avanço contínuo da inteligência artificial e da tecnologia de sensores, podemos esperar uma integração ainda mais sofisticada de dados biométricos nos próximos anos.

Mesmo com os benefícios evidentes, como maior proteção contra invasões, há preocupações legítimas sobre a privacidade e a segurança dos dados. A chave para equilibrar esses benefícios e riscos está na combinação de criptografia robusta e regulamentações governamentais rigorosas sobre a coleta, uso e armazenamento de informações biométricas.

Embora substituir senhas por biometria possa parecer algo futurista, a indústria de tecnologia está cada vez mais focada nesse objetivo. Grandes empresas de tecnologia estão na vanguarda dessa mudança, promovendo métodos de autenticação baseados em biometria em vez de senhas tradicionais. Contudo, como especialistas em segurança digital alertam, mesmo a melhor tecnologia pode falhar. E quando se trata de dados biométricos, os riscos de vazamento ou roubo são particularmente preocupantes, já que não podemos simplesmente substituir nossas características físicas.

Assim, enquanto avançamos em direção a um futuro onde a biometria possa proporcionar segurança e conveniência sem precedentes, é importante continuar discutindo e desenvolvendo medidas para proteger nossa privacidade e segurança de dados.

Publicado em

TWITTER/X E A ERA DA BIOMETRIA: QUESTÕES DE INOVAÇÃO E PRIVACIDADE

Recentemente, o Twitter/X revelou atualizações em sua política de privacidade, previstas para entrar em vigor no final deste mês. As novas diretrizes incluem a coleta de dados biométricos, informações educacionais e profissionais de seus usuários. Estas mudanças, embora indicativas de uma tendência mais ampla na indústria da tecnologia, trazem à tona questões importantes sobre privacidade e consentimento.

O uso de dados biométricos, como impressões digitais e características faciais, não é novo. Muitas plataformas já integram esses recursos como uma forma de melhorar a segurança e a experiência do usuário. No caso do Twitter/X, o objetivo expresso é minimizar a presença de contas falsas e bots. No entanto, dados biométricos são únicos e imutáveis, o que levanta preocupações sobre como são armazenados e protegidos.

Por outro lado, a coleta de informações educacionais e profissionais sugere uma expansão do escopo do Twitter/X. Com a aquisição da startup Laskie e a introdução da conta @XHiring, fica evidente que a plataforma deseja se posicionar também como um canal de recrutamento e oportunidades profissionais. Esta iniciativa pode, potencialmente, proporcionar valor adicional para usuários e empregadores, mas também amplia a gama de dados pessoais que a empresa terá acesso.

Sob a liderança de Elon Musk, o Twitter/X parece estar se transformando em algo mais do que apenas uma rede social. A ideia de consolidá-lo como um “Super App” abrangendo pagamentos, chamadas de vídeo e áudio, bem como outros serviços, indica uma visão ambiciosa.

É essencial que, à medida que o Twitter/X evolui, a privacidade dos usuários não seja comprometida. A empresa garante que a coleta de dados será realizada com consentimento, e esperamos que haja transparência e clareza neste processo. A medida que empresas buscam inovar, é importante equilibrar avanços tecnológicos com o respeito à privacidade e segurança dos usuários.