Publicado em Deixe um comentário

ANPD LANÇA SEGUNDA EDIÇÃO DO “RADAR TECNOLÓGICO” FOCADA EM BIOMETRIA E RECONHECIMENTO FACIAL

Em 24 de junho de 2024, a Autoridade Nacional de Proteção de Dados (ANPD) divulgou o segundo volume do “Radar Tecnológico”, uma publicação dedicada ao tema “Biometria e Reconhecimento Facial”. Este estudo examina as aplicações e impactos dessa tecnologia, destacando os riscos e desafios para a proteção de dados pessoais sob a Lei Geral de Proteção de Dados Pessoais (LGPD).

Definindo o Reconhecimento Biométrico

O reconhecimento biométrico é descrito como uma análise técnica automatizada que identifica características fisiológicas (como impressões digitais e reconhecimento facial) ou comportamentais (como voz e expressão facial). O estudo também aborda o conceito de “template biométrico”, utilizado como base para verificação de identidade. Esses templates, armazenados em formato hash, são essenciais para o reconhecimento facial.

Aplicações e Propósitos do Reconhecimento Facial

O reconhecimento facial, uma das modalidades de reconhecimento biométrico, tem três principais objetivos:

  1. Detectar a presença de pessoas.
  2. Identificar um indivíduo de forma única.
  3. Classificar indivíduos com base em seus comportamentos.

Além disso, o estudo menciona o uso de reconhecimento facial na neurotecnologia, com técnicas de interface cérebro-computador (BCI), especialmente na área médica, que têm avançado significativamente nos últimos anos.

Inteligência Artificial e a Proteção de Dados

A ANPD destaca a importância da inteligência artificial (IA) na melhoria da precisão dos sistemas de reconhecimento biométrico, graças ao treinamento com grandes volumes de dados. No entanto, o uso de IA também traz desafios regulatórios. O Regulamento de Inteligência Artificial da União Europeia (EU AI Act) proíbe a utilização de sistemas biométricos de IA para inferir emoções no ambiente de trabalho ou em instituições de ensino e bane a categorização de indivíduos por raça.

No Brasil, o Projeto de Lei 2.338/2023 (Lei de Inteligência Artificial) classifica os sistemas de identificação biométrica para reconhecimento de emoções como de alto risco, mas não os proíbe.

Dados Biométricos e Riscos Legais

Dados biométricos são considerados sensíveis pela LGPD, o que aumenta os riscos associados ao seu tratamento. A ANPD aponta preocupações com vieses nos dados de treinamento, que podem levar à discriminação, e com a possibilidade de vazamentos de templates biométricos, que poderiam facilitar roubos de identidade e fraudes financeiras.

Vigilância e Segurança Pública

A publicação da ANPD foca nos usos do reconhecimento facial para segurança pública, incluindo controle de fronteiras, prevenção de fraudes e vigilância em massa. O EU AI Act proíbe o uso de IA para identificação biométrica em tempo real em espaços públicos, salvo em investigações criminais. No Brasil, a Lei de Inteligência Artificial também restringe o uso de sistemas de identificação biométrica à distância, com exceções para situações de busca por vítimas de crimes ou pessoas desaparecidas.

Controvérsias e Pedidos de Banimento

O uso de tecnologia de vigilância baseada em biometria facial é amplamente controverso. Organizações como a Anistia Internacional e a Human Rights Watch pedem o banimento dessas tecnologias. A Federal Trade Commission (FTC) dos EUA já proibiu uma rede de farmácias de usar reconhecimento facial por cinco anos, devido à discriminação resultante de falsos-positivos.

Embora a publicação da ANPD não forneça diretrizes específicas para empresas que utilizam reconhecimento facial, a expectativa é que futuros estudos da autoridade ofereçam orientações mais detalhadas. Este relatório inicial é um ponto de partida crucial para o aprofundamento do tema pela ANPD.

Publicado em Deixe um comentário

TECNOLOGIA E O DIREITO: MULHER ENFRENTA ABORDAGENS POLICIAIS INJUSTAS EM SERGIPE

Em um incidente ocorrido em Aracaju, Sergipe, em novembro de 2023, uma auxiliar administrativa foi abordada duas vezes por policiais durante uma festa, devido a um erro em um sistema de reconhecimento facial. Inicialmente, a mulher foi erroneamente identificada como uma fugitiva da justiça por câmeras de reconhecimento facial. Durante a primeira abordagem por policiais civis à paisana, foi rapidamente esclarecido que ela não era a pessoa procurada. No entanto, poucas horas depois, ela enfrentou uma segunda abordagem mais agressiva por policiais militares, que a detiveram e questionaram sem qualquer formalidade ou explicação.

O equívoco só foi totalmente esclarecido após ela ser levada para uma central de comando policial, onde sua identidade foi finalmente confirmada. Apesar do reconhecimento do erro, em nenhum momento os oficiais envolvidos ofereceram um pedido formal de desculpas. O incidente ganhou atenção pública e resultou em promessas de revisão do sistema de reconhecimento facial e na implementação de métodos mais humanizados de abordagem policial.

O trauma vivenciado pela mulher foi significativo, deixando-a apreensiva e com medo de futuras identificações errôneas. Esse medo a levou a evitar eventos públicos e a buscar apoio psicológico. O caso ressalta as preocupações com a precisão e o uso ético de tecnologias de reconhecimento facial e sublinha a necessidade urgente de procedimentos policiais mais sensíveis e respeitosos.