Publicado em

A INFORMALIDADE NO TRATAMENTO DE DADOS FACIAIS EM CONDOMÍNIOS

O uso de reconhecimento facial para controle de acesso em condomínios residenciais tem se tornado uma prática amplamente adotada no Brasil, mas sua implementação tem ocorrido sem o devido cuidado com os direitos dos titulares e com pouca ou nenhuma transparência no tratamento dos dados coletados. Estimativas apontam para a existência de aproximadamente um milhão de condomínios utilizando essa tecnologia, abrangendo inclusive dados de crianças, sem garantias adequadas de segurança, controle e fiscalização.

A coleta de dados como imagem do rosto, CPF, unidade residencial e registros de acesso diário configura um tratamento de dados pessoais sensíveis, conforme definido pela Lei Geral de Proteção de Dados Pessoais (LGPD). Apesar disso, o que se observa é uma informalidade generalizada: em muitos casos, o envio das imagens ocorre por aplicativos de mensagens, sem qualquer protocolo seguro, e os pedidos de exclusão de dados são tratados de forma verbal ou por simples mensagens eletrônicas, sem registros formais que comprovem o cumprimento da solicitação.

A responsabilidade legal sobre esse tratamento recai sobre os próprios condomínios, na figura do síndico, que, por vezes, delega à empresa fornecedora do sistema a guarda e o controle das informações sem qualquer supervisão adequada. Não é raro que as empresas mantenham os dados mesmo após a saída do morador, em desconformidade com os princípios da finalidade, necessidade e segurança previstos na LGPD.

A ausência de regulamentação específica por parte da Autoridade Nacional de Proteção de Dados (ANPD) agrava a situação. Ainda que o órgão reconheça os desafios desse tipo de uso, não há até o momento regras claras sobre tempo de armazenamento, exigências técnicas de segurança ou medidas mínimas de transparência que os condomínios e prestadoras devam seguir. A fiscalização, por ora, depende exclusivamente de denúncias formais, sem atuação proativa por parte da Autoridade.

Essa lacuna regulatória se reflete diretamente no risco de exposição de dados pessoais. Há registros de vazamentos que envolvem dados completos de moradores, incluindo suas imagens faciais, divulgados em fóruns clandestinos da internet. Há também relatos de fraudes envolvendo o uso indevido de biometrias faciais para acesso a sistemas governamentais e obtenção de crédito fraudulento.

O reconhecimento facial, ao transformar o rosto em uma “chave” biométrica, exige um nível elevado de segurança, pois, diferentemente de uma senha, essa informação não pode ser modificada em caso de violação. Mesmo assim, muitos sistemas instalados em condomínios operam com o nível de segurança mais básico, propensos a falsos positivos e vulnerabilidades, o que compromete não apenas a eficácia do controle de acesso, mas também a integridade do tratamento dos dados.

A cadeia de responsabilidades entre o condomínio, as empresas que fornecem os equipamentos e aquelas que armazenam os dados é, em geral, mal definida. Em muitos contratos, não há exigência de relatórios técnicos, protocolos de exclusão de dados ou auditorias regulares. Esse vazio contratual e técnico abre espaço para práticas arriscadas e, muitas vezes, contrárias à lei.

Diante disso, algumas associações têm orientado síndicos a incluir nos contratos cláusulas que obriguem a apresentação periódica de relatórios sobre a gestão dos dados, contendo o fluxo de tratamento, medidas de segurança, histórico de acessos e incidentes, além de delimitar o tempo de guarda das informações. Essa prática, aprovada em assembleia, pode ser um primeiro passo em direção a uma governança mais responsável.

A situação atual exige que os condomínios e os profissionais envolvidos comecem a tratar a biometria facial com a seriedade que o tema exige. A proteção da identidade biométrica não pode ser baseada apenas na confiança informal entre síndico e prestadora de serviço, mas em protocolos claros, medidas de segurança auditáveis e, sobretudo, no respeito à legislação vigente.

Publicado em

COMO FRAUDES DIGITAIS ESTÃO TESTANDO OS LIMITES DA BIOMETRIA FACIAL

Diversos golpes vêm expondo fragilidades nos sistemas de autenticação por reconhecimento facial, utilizados tanto em plataformas públicas quanto privadas. Um exemplo disso foi a prisão de pessoas acusadas de burlar a verificação de identidade facial no acesso ao portal gov.br. Segundo as investigações, os fraudadores modificavam a própria aparência ou usavam artifícios digitais para simular rostos reais, conseguindo invadir contas de usuários e movimentar valores ligados ao Banco Central e ao INSS. Estima-se que milhares de acessos indevidos tenham ocorrido dessa forma.

A biometria facial, apesar de prática e amplamente adotada, exige camadas adicionais de proteção para ser segura. Esse tipo de identificação não se baseia em fotos simples, mas sim em padrões matemáticos extraídos de características do rosto – como distância entre os olhos, formato da mandíbula, entre outros pontos. Mesmo assim, quando implementada de forma simplificada, pode ser enganada por técnicas de manipulação visual, gravações em vídeo ou mesmo imagens geradas por inteligência artificial.

Por isso, sistemas que dependem apenas do rosto do usuário para liberar acesso a dados ou dinheiro precisam ser revistos com urgência. Não basta ser rápido ou conveniente; é necessário garantir que o processo seja confiável. O ideal é que a autenticação não dependa apenas da biometria, mas combine ao menos dois métodos diferentes – por exemplo, um código secreto e um dispositivo físico como o celular, além do reconhecimento facial.

Outro ponto que merece atenção é a responsabilidade das empresas e órgãos que utilizam esses sistemas. A legislação brasileira já trata dados biométricos como informações sensíveis, protegidas pela Lei Geral de Proteção de Dados (LGPD). Quando uma tecnologia falha e permite acessos indevidos, é justo esperar que a organização que a implementou arque com as consequências. Não se pode repassar ao usuário o custo de uma escolha mal feita na segurança digital.

Para operações que envolvem movimentações financeiras ou acesso a informações confidenciais, é possível ainda adicionar camadas robustas de autenticação, como o uso de Certificado Digital, que exige não apenas um dispositivo, mas também uma senha. Essa solução oferece segurança elevada e ainda possui validade jurídica reconhecida.

Por fim, vale lembrar que nenhum sistema será totalmente eficiente sem a colaboração das pessoas. A proteção de dados também passa por atitudes simples, como não enviar documentos ou selfies por redes sociais, desconfiar de mensagens de origem duvidosa e ter atenção redobrada com chamadas de vídeo não solicitadas. Muitos golpes exploram justamente a confiança e a distração do usuário para obter imagens do rosto ou outras informações valiosas.

A segurança digital começa com boas práticas tecnológicas, mas depende igualmente da postura de quem está do outro lado da tela.

Publicado em

RECONHECIMENTO FACIAL NOS ESTÁDIOS: COMO FUNCIONA O USO DA BIOMETRIA FACIAL EM EVENTOS ESPORTIVOS

A exigência de sistemas de reconhecimento facial em estádios com capacidade superior a 20 mil pessoas já é uma realidade no Brasil, conforme previsto na Lei Geral do Esporte. Essa exigência tem como principal objetivo o controle de acesso e o reforço da segurança nas arenas esportivas. Os torcedores que se dirigem a esses espaços devem compreender como esse tipo de tecnologia atua e como seus dados pessoais serão tratados pelas organizações responsáveis.

A norma impõe que as arenas instalem uma estrutura de monitoramento eficiente, incluindo uma central de controle equipada para processar imagens e informações coletadas por câmeras instaladas em locais estratégicos. A ideia é evitar episódios de violência, identificar possíveis foragidos ou pessoas com restrições judiciais e garantir que apenas quem estiver autorizado possa ingressar no local.

Além do aspecto preventivo, essa tecnologia contribui para a gestão do evento esportivo, proporcionando mais fluidez na entrada dos torcedores e otimizando o tempo de deslocamento interno, sem contato físico excessivo.

Como a tecnologia de reconhecimento facial opera

A base do sistema consiste na captação da imagem facial de cada indivíduo por meio de câmeras. Essa imagem é processada por um software que identifica padrões específicos, como distância entre olhos, contornos da face e outras características únicas. Com base nessas informações, o sistema compara os dados com registros armazenados em bancos de dados previamente alimentados com fotos de pessoas com restrições de acesso ou envolvidas em ocorrências anteriores.

A tecnologia pode ser utilizada não apenas nos acessos principais, mas também nas arquibancadas, pontos de circulação e setores internos, a fim de manter o controle sobre comportamentos suspeitos ou situações de risco. Caso uma imagem coletada corresponda a um registro de bloqueio, a equipe de segurança é imediatamente notificada para intervir.

Responsabilidade no uso da imagem dos torcedores

A Lei Geral de Proteção de Dados Pessoais (LGPD) estabelece que a imagem facial coletada nesses processos é considerada dado sensível, ou seja, demanda um cuidado redobrado por parte dos responsáveis pelo tratamento da informação.

O uso dessa imagem deve estar restrito a finalidades bem delimitadas, como segurança, controle de entrada e cumprimento de determinações legais. Não é permitido utilizar os dados para campanhas de marketing, envio de publicidade, nem tampouco repassar as informações a terceiros, salvo por força de lei ou ordem judicial.

É essencial, também, que os registros sejam mantidos apenas pelo período necessário para atingir o propósito justificado. Qualquer armazenamento sem justificativa válida poderá ser considerado tratamento indevido.

Como garantir que o torcedor se sinta protegido

Para que o público confie no uso da tecnologia, é indispensável que os estádios adotem práticas transparentes. Isso inclui fornecer informações claras sobre como o sistema funciona, para que serve, quem terá acesso às imagens, e por quanto tempo os dados serão mantidos. Essas informações devem estar disponíveis nos sites oficiais dos eventos ou das arenas e também de forma visível nos acessos ao estádio.

É recomendável que exista uma política de privacidade bem estruturada, indicando como os dados são armazenados, protegidos e eventualmente descartados. Além disso, medidas como autenticação por senha, sistemas criptografados e capacitação das equipes responsáveis pelo manuseio das imagens são essenciais para evitar usos indevidos.

Caso ocorra algum incidente envolvendo vazamento ou acesso não autorizado, o responsável pelo tratamento das informações deverá notificar a Autoridade Nacional de Proteção de Dados e os titulares impactados, conforme prevê a legislação.

O que pode mudar no futuro

À medida que essas tecnologias se desenvolvem, é provável que o seu uso vá além da simples identificação de indivíduos. Ferramentas baseadas em imagens faciais podem, por exemplo, ser programadas para detectar padrões de comportamento, reações emocionais e outras características complexas do público. Isso exige um compromisso ainda maior com a governança e a responsabilidade na coleta e uso dessas informações.

Quando aplicadas com respeito à privacidade, essas ferramentas podem transformar a experiência nos estádios, oferecendo mais tranquilidade, acessos fluidos e eventos organizados. O sucesso dessa estratégia, no entanto, depende de uma implementação ética, transparente e em conformidade com a legislação vigente sobre proteção de dados.

Publicado em

COMO EMPRESAS E BANCOS ENFRENTAM A EVOLUÇÃO DO CIBERCRIME

A inovação no campo da segurança digital é um fator essencial para empresas, especialmente em tempos de crescimento de golpes sofisticados. A fraude com uso de reconhecimento facial e biometria — como o “golpe das flores” — evidencia que criminosos não dependem exclusivamente de tecnologias avançadas, mas sim da combinação de táticas de engenharia social e abordagens digitais e presenciais. Neste golpe, indivíduos são manipulados a fornecer fotos como “comprovantes de recebimento” de presentes, sem perceber que essas imagens serão usadas como prova de vida para, sem consentimento, solicitar financiamentos ou abrir créditos.

Esse exemplo alerta para a necessidade de aprimorar práticas de segurança além das medidas tecnológicas já estabelecidas. Em algumas situações, mesmo com mecanismos de validação e biometria, os bancos têm enfrentado desafios. A evolução, neste caso, está na análise contínua de dados e na conscientização dos clientes sobre abordagens suspeitas, como as ligações falsas em nome de centrais de atendimento. Para reforçar a proteção, bancos e empresas de tecnologia já implementam alertas em aplicativos e outras ferramentas para notificar sobre possíveis fraudes em tempo real.

No entanto, a segurança digital no Brasil ainda apresenta lacunas importantes. Embora a Lei Geral de Proteção de Dados (LGPD) esteja em vigor desde 2020, a adequação de pequenas e médias empresas permanece limitada. Muitos negócios de menor porte ainda precisam avançar em governança de dados, muitas vezes por conta de orçamentos restritos e pela priorização de outras áreas que trazem retornos diretos. A conscientização sobre segurança da informação, contudo, continua essencial, e não somente no nível da própria organização, mas também entre os fornecedores. Pequenas falhas de segurança em empresas terceirizadas podem colocar em risco empresas maiores, que buscam estratégias para proteger não só suas próprias operações, mas as dos parceiros e fornecedores.

O setor financeiro, devido ao seu alto valor para criminosos, tende a investir pesado em medidas de proteção, aplicando camadas de segurança em várias etapas de seus sistemas. Uma abordagem comum é a estratégia de “zero trust”, onde cada ação interna é tratada como suspeita até que seja verificada, empregando técnicas como a autenticação multifatorial e o monitoramento em tempo real de transações para detecção de anomalias. O uso de inteligência artificial e machine learning, aliado a biometria e sistemas de comportamento do usuário, é cada vez mais comum para identificar padrões incomuns e possíveis fraudes.

Para empresas que buscam melhorar suas práticas de segurança, é fundamental investir em tecnologia e capacitação interna e desenvolver uma cultura de segurança. Isso inclui o uso de dados de maneira responsável e estratégica para evitar vazamentos e abusos. O conceito de “confiança zero” ajuda a criar uma barreira sólida, dificultando tentativas de ataque. No setor financeiro, a segurança não é tratada como uma despesa, mas como um investimento crucial para a preservação da confiança dos clientes e para a reputação da instituição.

É preciso observar que o campo da segurança digital nunca é estático. As ameaças evoluem rapidamente, exigindo que a proteção também seja dinâmica e capaz de enfrentar novos desafios. Empresas devem continuar aprimorando sua capacidade de resposta e prevenção, garantindo uma segurança robusta não apenas em seu ambiente, mas também nos laços que mantêm com o ecossistema empresarial mais amplo.

Publicado em

ESTELIONATO DIGITAL: MULHER PERDE QUASE R$ 10 MIL EM TRANSAÇÕES FRAUDULENTAS

Uma mulher de São José do Rio Preto (SP) foi vítima de um golpe de reconhecimento facial, que resultou na perda de quase R$ 10 mil no dia 23 de outubro de 2024. O caso, que vem gerando preocupação sobre a segurança digital, destaca a forma sofisticada com que golpistas estão explorando vulnerabilidades tecnológicas.

De acordo com o boletim de ocorrência, a vítima relatou que, após anunciar a venda de cadeiras online, foi contatada por um suposto comprador. Durante as negociações, o indivíduo conseguiu persuadir a mulher a acessar seus aplicativos bancários e, por meio de uma chamada de vídeo, utilizou o reconhecimento facial para desbloquear a conta da vítima.

A manobra permitiu ao golpista realizar uma série de transferências que totalizaram R$ 9.820,37. Em busca de justiça, a vítima compareceu à Central de Flagrantes, apresentou os comprovantes das transações e registrou a ocorrência, que foi classificada como estelionato. O caso está agora sob investigação, trazendo à tona questões importantes sobre as precauções necessárias ao lidar com transações digitais e aplicativos bancários.

Publicado em

COMO O RECONHECIMENTO FACIAL ENFRENTA A SOFISTICAÇÃO DAS FRAUDES DIGITAIS

O reconhecimento facial, uma tecnologia amplamente utilizada para autenticação em diversas áreas, tem enfrentado um aumento significativo nas tentativas de fraude, destacando as vulnerabilidades inerentes aos sistemas de segurança que dependem dessa biometria. Criminosos estão utilizando técnicas avançadas de spoofing, como a utilização de fotos, vídeos ou máscaras 3D, para burlar sistemas que, até então, eram considerados seguros.

Estima-se que o mercado global de reconhecimento facial alcance US$ 13,87 bilhões até 2028, um crescimento que reflete a confiança crescente na tecnologia. No entanto, essa confiança está sendo colocada em xeque à medida que hackers exploram falhas nos algoritmos de reconhecimento, mostrando que o rosto, apesar de ser uma característica única e imutável, também é uma informação pública e, portanto, vulnerável.

A segurança dos sistemas de reconhecimento facial depende diretamente da qualidade dos dispositivos e algoritmos utilizados. As redes sociais, por exemplo, acabam fornecendo uma base de dados acessível para aqueles que buscam explorar essas vulnerabilidades, permitindo que criminosos tenham tempo suficiente para desenvolver técnicas sofisticadas de invasão, algo que a tradicional troca de senhas não permitia.

Com a previsão de que os crimes cibernéticos possam custar ao mundo cerca de US$ 10,5 trilhões anualmente até 2025, a necessidade de identificar e mitigar fraudes em sistemas de reconhecimento facial se torna cada vez mais importante. A solução passa por treinamentos contínuos dos modelos de IA e pelo investimento em produtos de biometria de alta qualidade. O lançamento apressado de novos produtos no mercado, sem testes adequados, pode resultar em sistemas com falhas ou vieses incorporados, comprometendo a eficácia e a segurança.

Um estudo realizado em 2020 mostrou que os sistemas de reconhecimento facial ainda apresentam taxas de erro preocupantes, especialmente na identificação de pessoas de diferentes etnias. Em particular, mulheres de pele escura experimentaram taxas de erro de até 35%, em comparação com menos de 1% para homens de pele clara. Este dado evidencia a importância de uma pesquisa contínua e o aprimoramento dos modelos de reconhecimento facial para garantir que sejam inclusivos e seguros.

O reconhecimento facial, embora promissor, ainda enfrenta desafios significativos em termos de segurança. A necessidade de investir em soluções robustas e pesquisas contínuas é imperativa para garantir a proteção de dados e a integridade dos sistemas que dependem dessa tecnologia.

Publicado em

RECONHECIMENTO FACIAL: COMBATE ÀS FRAUDES E A NECESSIDADE DE SOLUÇÕES MAIS SEGURAS

O reconhecimento facial, uma tecnologia amplamente utilizada para autenticação em diversos setores, está sob crescente ameaça devido ao aumento das fraudes por técnicas de spoofing. Criminosos têm demonstrado habilidades cada vez mais sofisticadas para enganar sistemas que, até recentemente, eram considerados altamente seguros. Estima-se que o mercado global de reconhecimento facial atinja US$ 13,87 bilhões até 2028, mas o crescimento dessa indústria traz consigo desafios significativos, especialmente no que diz respeito à segurança e confiabilidade dos sistemas.

As fraudes em reconhecimento facial são facilitadas por técnicas avançadas de spoofing, que manipulam sistemas por meio de fotos, vídeos ou até máscaras 3D. A atratividade de usar o próprio rosto como uma senha, embora conveniente, apresenta riscos consideráveis. Isso ocorre porque o rosto é uma característica invariável e, muitas vezes, pública, o que facilita a coleta de dados pelos fraudadores. A segurança dos sistemas de reconhecimento facial depende, portanto, tanto da robustez do dispositivo utilizado quanto da qualidade do algoritmo implementado.

Nesse contexto, a cibersegurança se torna um tema central. Com os crimes cibernéticos projetados para custar ao mundo cerca de US$ 10,5 trilhões por ano até 2025, a necessidade de identificar e mitigar fraudes em sistemas de reconhecimento facial é mais urgente do que nunca. As soluções para combater essas fraudes incluem treinamentos contínuos dos modelos de IA e investimentos em produtos de biometria de alta qualidade. No entanto, a pressa em lançar novos produtos pode levar a falhas, resultando em sistemas que não são suficientemente testados ou que possuem vieses prejudiciais.

Pesquisas, como a realizada pelo MIT em 2020, destacam a importância de um desenvolvimento cuidadoso e inclusivo desses sistemas. A pesquisa mostrou que sistemas de reconhecimento facial apresentavam taxas de erro significativamente mais altas ao identificar pessoas de diferentes etnias, com uma discrepância alarmante: taxas de erro de até 35% para mulheres de pele escura, em comparação com menos de 1% para homens de pele clara. Isso evidencia a necessidade de mais pesquisas e investimentos em soluções robustas para garantir a proteção de dados e a integridade dos sistemas.

Em um ambiente digital cada vez mais interconectado, a segurança de dados e a confiança nas tecnologias emergentes são prioridades que exigem atenção contínua. A evolução dos métodos de autenticação e a melhoria dos algoritmos são essenciais para enfrentar os desafios impostos pelas fraudes e garantir a segurança dos usuários.

Publicado em

AVANÇOS TECNOLÓGICOS NA SEGURANÇA PÚBLICA DA ARGENTINA

Tecnologia de Vigilância na Argentina

Inovações em Segurança Pública
Uma nova unidade de segurança na Argentina está adotando tecnologias avançadas para analisar padrões criminais e prever futuras atividades ilícitas. O uso de algoritmos sofisticados permite a identificação de tendências, enquanto o software de reconhecimento facial auxilia na localização de indivíduos procurados. Além disso, a inteligência artificial (IA) será empregada para monitorar redes sociais e analisar imagens de câmeras de segurança em tempo real, detectando comportamentos suspeitos.

Impacto na Identificação e Monitoramento de Ameaças
Essas medidas visam identificar potenciais ameaças, monitorar movimentos de grupos criminosos e antecipar possíveis distúrbios. A expectativa é de que essas tecnologias proporcionem uma maior capacidade de resposta e prevenção por parte das autoridades de segurança.

Preocupações com os Direitos Humanos
Embora essas inovações sejam promissoras em teoria, é crucial considerar as implicações para os direitos dos cidadãos. Organizações de direitos humanos e especialistas têm expressado preocupações significativas sobre a vigilância em larga escala. Há temores de que a liberdade de expressão seja comprometida, levando os cidadãos à autocensura devido ao medo de que suas comunicações sejam monitoradas.

Riscos de Uso Indevido
Além disso, há alertas de que essas tecnologias possam ser utilizadas para vigiar jornalistas, acadêmicos, políticos e ativistas, especialmente sem uma supervisão adequada. Isso poderia resultar em ameaças à privacidade e aumentar a discriminação contra grupos vulneráveis, intensificando a vigilância injusta.

Contexto Histórico e Político
O governo atual, conhecido por sua abordagem rigorosa contra o crime, tem sido questionado por suas políticas de segurança cada vez mais militarizadas. A resposta a protestos tem sido marcada pelo uso de gás lacrimogêneo e balas de borracha, ecoando um passado de repressão estatal. Durante a ditadura militar, milhares de pessoas desapareceram, sendo torturadas ou assassinadas. Este passado ainda influencia a percepção pública sobre novas medidas de vigilância.

Futuras Implicações e Necessidade de Supervisão
A implementação dessa unidade de segurança com IA levanta questões éticas e de responsabilidade. Embora a tecnologia possa aumentar a eficácia das operações de segurança, também traz preocupações sobre privacidade e liberdade de expressão. Para operar dentro dos limites legais e respeitar os direitos dos cidadãos, o governo afirmou que a unidade seguirá o quadro legislativo existente, incluindo leis de proteção de dados pessoais. A transparência e a supervisão contínua serão essenciais para minimizar riscos e assegurar o uso justo da tecnologia.

Publicado em

SERVIDORA PÚBLICA DENUNCIA ABORDAGEM EQUIVOCADA POR SISTEMA DE RECONHECIMENTO FACIAL

Uma servidora pública e defensora da igualdade racial foi alvo de um incidente preocupante envolvendo o uso de tecnologia de reconhecimento facial pela Polícia Militar. Durante um evento sobre igualdade racial no Centro do Rio, ela foi erroneamente identificada como uma foragida da justiça. A abordagem ocorreu quando a imagem dela foi associada no sistema de reconhecimento facial a uma pessoa procurada.

A servidora, que há uma década trabalha ouvindo relatos de vítimas de preconceito, descreveu a experiência como extremamente constrangedora. “Eles me mostraram a foto da pessoa procurada, que é completamente diferente de mim. Senti-me desamparada e temo que isso possa ocorrer novamente”, relatou. Até o momento, ela não recebeu esclarecimentos sobre o destino das imagens capturadas nem sobre a sua eventual arquivação.

Os policiais, ao perceberem o erro, encerraram a abordagem, justificando que seguiam o protocolo. A Polícia Militar informou que o sistema de reconhecimento facial foi selecionado via licitação e testado nos Estados Unidos. Contudo, a servidora questiona a eficácia e a segurança do sistema, destacando a preocupação com a tecnologia que, segundo ela, não foi desenvolvida pensando nas especificidades da população brasileira.

O caso está sendo acompanhado pela Defensoria Pública do Estado, que solicitou à Secretaria de Segurança Pública informações detalhadas sobre o uso da tecnologia. A defensora pública responsável pelo caso ressaltou que a tecnologia de IA e algoritmos pode reproduzir padrões racistas presentes na sociedade.

A cidade do Rio de Janeiro já conta com videomonitoramento em tempo real em vários pontos. Entre dezembro do ano passado e junho deste ano, 200 pessoas foram presas com base no reconhecimento facial, o que levanta debates sobre a necessidade de uma regulamentação mais rigorosa para evitar erros e abusos.

A servidora destacou ainda a importância de estar sempre com documentação pessoal, um ensinamento transmitido desde a infância para muitas pessoas negras. Ela mencionou que, mesmo adulta, compreendeu a necessidade de ter seus documentos à mão em todos os momentos.

Casos de prisões equivocadas devido a bancos de dados desatualizados também foram registrados. No início do ano, duas pessoas foram presas indevidamente porque os mandados de prisão já não tinham validade. No semestre, quase metade das prisões relacionadas ao reconhecimento facial foram por falta de pagamento de pensão alimentícia, além de crimes como roubo, homicídio, feminicídio, tráfico de drogas, violência doméstica, furto e estupro.

A Defensoria Pública questiona os protocolos utilizados, o treinamento dos agentes de segurança e a base de dados que alimenta o sistema de reconhecimento facial. A Secretaria Estadual de Governo afirmou que a abordagem seguiu os protocolos e foi encerrada após a apresentação dos documentos pela servidora. A Polícia Civil está investigando o caso na Delegacia de Combate aos Crimes Raciais e Delitos de Intolerância.

Publicado em

ANPD LANÇA SEGUNDA EDIÇÃO DO “RADAR TECNOLÓGICO” FOCADA EM BIOMETRIA E RECONHECIMENTO FACIAL

Em 24 de junho de 2024, a Autoridade Nacional de Proteção de Dados (ANPD) divulgou o segundo volume do “Radar Tecnológico”, uma publicação dedicada ao tema “Biometria e Reconhecimento Facial”. Este estudo examina as aplicações e impactos dessa tecnologia, destacando os riscos e desafios para a proteção de dados pessoais sob a Lei Geral de Proteção de Dados Pessoais (LGPD).

Definindo o Reconhecimento Biométrico

O reconhecimento biométrico é descrito como uma análise técnica automatizada que identifica características fisiológicas (como impressões digitais e reconhecimento facial) ou comportamentais (como voz e expressão facial). O estudo também aborda o conceito de “template biométrico”, utilizado como base para verificação de identidade. Esses templates, armazenados em formato hash, são essenciais para o reconhecimento facial.

Aplicações e Propósitos do Reconhecimento Facial

O reconhecimento facial, uma das modalidades de reconhecimento biométrico, tem três principais objetivos:

  1. Detectar a presença de pessoas.
  2. Identificar um indivíduo de forma única.
  3. Classificar indivíduos com base em seus comportamentos.

Além disso, o estudo menciona o uso de reconhecimento facial na neurotecnologia, com técnicas de interface cérebro-computador (BCI), especialmente na área médica, que têm avançado significativamente nos últimos anos.

Inteligência Artificial e a Proteção de Dados

A ANPD destaca a importância da inteligência artificial (IA) na melhoria da precisão dos sistemas de reconhecimento biométrico, graças ao treinamento com grandes volumes de dados. No entanto, o uso de IA também traz desafios regulatórios. O Regulamento de Inteligência Artificial da União Europeia (EU AI Act) proíbe a utilização de sistemas biométricos de IA para inferir emoções no ambiente de trabalho ou em instituições de ensino e bane a categorização de indivíduos por raça.

No Brasil, o Projeto de Lei 2.338/2023 (Lei de Inteligência Artificial) classifica os sistemas de identificação biométrica para reconhecimento de emoções como de alto risco, mas não os proíbe.

Dados Biométricos e Riscos Legais

Dados biométricos são considerados sensíveis pela LGPD, o que aumenta os riscos associados ao seu tratamento. A ANPD aponta preocupações com vieses nos dados de treinamento, que podem levar à discriminação, e com a possibilidade de vazamentos de templates biométricos, que poderiam facilitar roubos de identidade e fraudes financeiras.

Vigilância e Segurança Pública

A publicação da ANPD foca nos usos do reconhecimento facial para segurança pública, incluindo controle de fronteiras, prevenção de fraudes e vigilância em massa. O EU AI Act proíbe o uso de IA para identificação biométrica em tempo real em espaços públicos, salvo em investigações criminais. No Brasil, a Lei de Inteligência Artificial também restringe o uso de sistemas de identificação biométrica à distância, com exceções para situações de busca por vítimas de crimes ou pessoas desaparecidas.

Controvérsias e Pedidos de Banimento

O uso de tecnologia de vigilância baseada em biometria facial é amplamente controverso. Organizações como a Anistia Internacional e a Human Rights Watch pedem o banimento dessas tecnologias. A Federal Trade Commission (FTC) dos EUA já proibiu uma rede de farmácias de usar reconhecimento facial por cinco anos, devido à discriminação resultante de falsos-positivos.

Embora a publicação da ANPD não forneça diretrizes específicas para empresas que utilizam reconhecimento facial, a expectativa é que futuros estudos da autoridade ofereçam orientações mais detalhadas. Este relatório inicial é um ponto de partida crucial para o aprofundamento do tema pela ANPD.

Publicado em

COMO UM TROJAN ESTÁ ROUBANDO DADOS DO FACE ID

Os usuários de iPhone sempre se orgulharam da segurança dos seus dispositivos, acreditando estarem livres de ameaças como trojans, aqueles vírus que roubam informações. No entanto, essa sensação de segurança foi abalada. De acordo com o site BGR, um novo trojan para iPhone está conseguindo roubar o Face ID dos usuários, comprometendo a segurança de suas contas bancárias.

Leia também:

  • Próxima atualização do iPhone vai dificultar a vida de ladrões e invasores
  • Usuários do iPhone 15 Pro ainda reclamam de superaquecimento
  • Apple Vision Pro: atualização promete corrigir duas grandes fraquezas

Evolução da Ameaça

Originalmente criado para atacar dispositivos Android, este trojan foi adaptado para o sistema iOS. Ele possui a capacidade de coletar dados de reconhecimento facial, identificar documentos e interceptar mensagens SMS.

Os pesquisadores responsáveis pela descoberta explicam que o trojan utiliza serviços de troca facial impulsionados por IA para criar deepfakes a partir dos dados biométricos roubados. Quando combinados com documentos de identificação e a interceptação de SMS, esses deepfakes permitem que os cibercriminosos acessem contas bancárias sem autorização.

Método de Infecção

Inicialmente, o trojan infiltrava os dispositivos através do aplicativo TestFlight, baixado pelo usuário. Após a Apple remover o malware, os criminosos desenvolveram uma nova estratégia: persuadir as vítimas a instalar um perfil de gerenciamento de dispositivos móveis, concedendo ao trojan controle total sobre o iPhone infectado.

Devo me preocupar?

Até o momento, especialistas indicam que a atividade maliciosa deste trojan está concentrada na Ásia, especialmente no Vietnã e na Tailândia. No entanto, não há garantias de que o malware não se espalhará para outras regiões, incluindo a América do Sul.

Para se proteger, os usuários devem evitar downloads do TestFlight e de perfis de gerenciamento de dispositivos móveis de fontes desconhecidas, até que a Apple consiga neutralizar o trojan completamente.

A segurança dos dispositivos móveis é uma preocupação crescente, e esta nova ameaça sublinha a importância de estar sempre vigilante e bem-informado sobre as últimas vulnerabilidades e medidas de proteção.

Publicado em

BIOMETRIA E A REVOLUÇÃO DA SEGURANÇA DE DADOS

Imagine um futuro onde esquecer senhas e perder crachás se torne obsoleto. Em vez de enfrentar o tedioso processo de preencher formulários, um novo funcionário poderia simplesmente fornecer algumas informações biométricas. O rosto seria escaneado, o modo de caminhar analisado, uma frase gravada, e pronto: o próprio corpo se tornaria a chave para acessar todas as áreas da empresa.

Este é o cenário que especialistas em biometria preveem. De acordo com uma recente reportagem do The Wall Street Journal, a integração dessas tecnologias promete transformar a experiência de segurança e acesso nas empresas. Um diretor de tecnologia de uma empresa de segurança descreve uma experiência perfeitamente integrada: ao chegar ao estacionamento, sua localização seria detectada pelo sistema do celular. Entrando pela porta principal, o reconhecimento facial abriria a porta e desbloquearia seu computador automaticamente.

Além de eliminar a inconveniência das senhas esquecidas, essa tecnologia poderia fortalecer significativamente a proteção contra ataques cibernéticos. No entanto, isso levanta importantes questões sobre a privacidade e o uso de dados biométricos pelos empregadores.

Hoje, já vemos scanners de palma em consultórios médicos e o desbloqueio de smartphones por impressão digital. O reconhecimento facial é comum em aeroportos e estádios. Mas, com o avanço contínuo da inteligência artificial e da tecnologia de sensores, podemos esperar uma integração ainda mais sofisticada de dados biométricos nos próximos anos.

Mesmo com os benefícios evidentes, como maior proteção contra invasões, há preocupações legítimas sobre a privacidade e a segurança dos dados. A chave para equilibrar esses benefícios e riscos está na combinação de criptografia robusta e regulamentações governamentais rigorosas sobre a coleta, uso e armazenamento de informações biométricas.

Embora substituir senhas por biometria possa parecer algo futurista, a indústria de tecnologia está cada vez mais focada nesse objetivo. Grandes empresas de tecnologia estão na vanguarda dessa mudança, promovendo métodos de autenticação baseados em biometria em vez de senhas tradicionais. Contudo, como especialistas em segurança digital alertam, mesmo a melhor tecnologia pode falhar. E quando se trata de dados biométricos, os riscos de vazamento ou roubo são particularmente preocupantes, já que não podemos simplesmente substituir nossas características físicas.

Assim, enquanto avançamos em direção a um futuro onde a biometria possa proporcionar segurança e conveniência sem precedentes, é importante continuar discutindo e desenvolvendo medidas para proteger nossa privacidade e segurança de dados.