Publicado em

BIOMETRIA E LGPD: DESAFIOS REGULATÓRIOS E RESPONSABILIDADES NO USO DE DADOS SENSÍVEIS

O tratamento de dados biométricos — que envolve impressões digitais, reconhecimento facial e de íris, geometrias corporais, padrões de voz e até traços comportamentais como a forma de digitar ou caminhar — está no centro do debate regulatório brasileiro. A discussão é indispensável para apoiar futuras normas da Autoridade Nacional de Proteção de Dados (ANPD), especialmente diante da digitalização acelerada e do avanço de práticas de fraude cada vez mais sofisticadas.

Um dos pontos sensíveis está na autenticação segura. Com o vazamento massivo de dados cadastrais e a utilização de inteligência artificial por grupos criminosos, a possibilidade de simulação de identidade tornou-se mais concreta. Surge, então, a questão: como assegurar que a pessoa, no ambiente digital, é de fato quem afirma ser?

Funções da biometria no ecossistema digital

A biometria já desempenha papel central em diferentes áreas:

  • Autenticação em serviços digitais;
  • Controle de acesso físico e lógico em empresas e sistemas críticos;
  • Prevenção e detecção de fraudes, principalmente em abertura de contas, concessão de crédito, validação de identidade e transações eletrônicas.

Ainda assim, não se trata de uma solução isenta de riscos. Enquanto senhas podem ser alteradas, dados como rosto, íris e impressões digitais não podem ser substituídos. Isso amplia a responsabilidade das organizações que utilizam tais recursos.

Pontos que devem orientar a futura regulação

A atuação normativa da ANPD deverá enfrentar questões relevantes, entre elas:

  1. Segurança e prevenção a fraudes: reforçar a proteção sem criar vulnerabilidades adicionais ou discriminações sistêmicas.
  2. Biometria comportamental e tradicional: delimitar critérios distintos entre dados físicos (digital, íris, face) e dados de comportamento (voz, digitação, postura).
  3. Hipóteses legais de tratamento: analisar contextos em que o consentimento não seja adequado como base jurídica.
  4. LGPD e prevenção à fraude: estabelecer parâmetros claros para a aplicação do art. 11, II, “g”.
  5. Reconhecimento facial: projetar mecanismos confiáveis, reduzindo falsos positivos e negativos.
  6. Riscos de violação: definir requisitos técnicos e organizacionais obrigatórios para mitigar vazamentos e fraudes de identidade.
  7. Negativa do titular: determinar em que situações a recusa em fornecer biometria pode resultar em limitações proporcionais e transparentes.

Biometria e setores regulados

Alguns segmentos já exigem identificação biométrica, como o de apostas. A Lei Geral de Proteção de Dados reconhece tais dados como sensíveis, mas admite seu uso para prevenção à fraude e proteção dos próprios titulares.

Diante disso, a biometria pode ser aliada da segurança digital, desde que empregada com rigor técnico, transparência e respeito aos direitos fundamentais. Cabe às empresas adotar práticas sólidas de governança e proteção da informação, não apenas para resguardar as pessoas, mas também para reduzir seus riscos jurídicos.

Publicado em

LGPD COMPLETA SETE ANOS: UM MARCO LEGAL AINDA EM CONSTRUÇÃO DIANTE DOS RISCOS DIGITAIS NO BRASIL

Completando sete anos desde sua sanção, a Lei Geral de Proteção de Dados Pessoais (Lei nº 13.709/2018) representa uma das iniciativas mais relevantes no campo dos direitos fundamentais no Brasil contemporâneo. Inspirada em modelos internacionais, como o regulamento europeu, a LGPD foi concebida para garantir transparência, privacidade e segurança no tratamento de dados pessoais. No entanto, a realidade brasileira evidencia a persistência de desafios substanciais para sua consolidação como instrumento eficaz de proteção.

Entre os principais entraves está a frequência com que dados pessoais vêm sendo expostos. De janeiro a julho de 2024, o número de vazamentos registrados por órgãos federais superou o acumulado dos três anos anteriores. O volume impressiona e revela um ambiente onde estruturas públicas e privadas ainda operam com fragilidades técnicas e gerenciais graves. No mesmo período, registros de fraudes eletrônicas demonstram que o cidadão segue desprotegido diante de esquemas cada vez mais sofisticados de engenharia social.

Os dados, no entanto, não se limitam a números frios. Eles expressam o cotidiano de milhões de pessoas que veem suas informações trafegarem sem consentimento, muitas vezes sem saber como ou por quem estão sendo utilizadas. Isso reforça a necessidade de que a aplicação da LGPD ultrapasse o campo normativo e alcance efetividade prática, o que pressupõe uma atuação mais estruturada do órgão regulador e um compromisso político com a proteção de dados como direito fundamental.

Outro ponto que merece atenção é o avanço das tecnologias de vigilância em espaços públicos, especialmente aquelas baseadas em reconhecimento facial. A ausência de regulamentação específica para o uso dessas ferramentas, associada à baixa transparência sobre seus critérios de funcionamento, tem gerado preocupação. Há evidências de que determinados grupos populacionais são impactados de forma desproporcional por essas tecnologias, o que exige não apenas controle técnico, mas também reflexões éticas e sociais mais profundas.

Ao mesmo tempo, tramitam no Congresso propostas legislativas que visam disciplinar o uso de dados em investigações criminais. Uma delas, de ampla repercussão, abre a possibilidade de acesso a bases privadas sem salvaguardas mínimas de proteção, o que suscita dúvidas sobre sua compatibilidade com princípios constitucionais. A ausência de debate público qualificado sobre esses projetos também indica uma lacuna preocupante entre o avanço tecnológico e a deliberação democrática.

Apesar das dificuldades, é possível identificar esforços importantes. A publicação de resoluções normativas pela autoridade nacional, exigindo a comunicação de incidentes em prazo definido, fortalece a cultura de responsabilidade. Estudos técnicos sobre biometria, inteligência artificial e proteção de dados de crianças e adolescentes apontam para uma agenda regulatória que se alinha a práticas internacionais. Ao mesmo tempo, iniciativas de organizações sociais contribuem para ampliar o debate e fomentar a educação digital.

Mas os progressos institucionais só se sustentam quando acompanhados pela participação ativa da sociedade. O domínio técnico da lei precisa ser traduzido em consciência popular. O Brasil exige não apenas normas, mas também uma cultura de proteção de dados que permita ao cidadão exercer seu direito à privacidade de forma plena, segura e informada.

Ao completar sete anos, a LGPD exige mais do que celebração. Requer vigilância crítica, investimento em estruturas de fiscalização, compromisso público com os direitos informacionais e, sobretudo, educação digital como política de Estado. O respeito aos dados pessoais é uma extensão da dignidade humana, e o caminho para sua efetiva proteção ainda está em construção.

Publicado em

FRAUDE COM RECONHECIMENTO FACIAL: COMO IDOSOS ESTÃO SENDO ENGANADOS NAS RUAS E EXPOSTOS A GOLPES FINANCEIROS

Tem se tornado cada vez mais comum a abordagem de pessoas idosas nas ruas por estranhos que, de maneira aparentemente amistosa, solicitam uma foto. O que parece um gesto inocente — um simples registro fotográfico — esconde uma intenção fraudulenta. A vítima, ao aceitar posar para a câmera, acaba fornecendo material valioso para criminosos que buscam burlar sistemas de reconhecimento facial usados em plataformas digitais e instituições financeiras.

Esse tipo de fraude se aproveita da boa-fé dos idosos. Os golpistas, muitas vezes em tom cordial, pedem que a pessoa fique séria e retire os óculos ou outros acessórios do rosto. Em seguida, insistem em tirar diversas fotos, alegando problemas técnicos. O pedido pode vir acompanhado de alguma justificativa, como a promessa de um benefício ou ajuda, o que aumenta a sensação de legitimidade da abordagem.

Além das fotos faciais, os criminosos solicitam, de maneira dissimulada, os documentos pessoais da vítima. Alegando a necessidade de comprovação de identidade para liberar algum tipo de benefício, fotografam RGs, CPFs ou cartões de benefício, completando assim o pacote de informações necessário para aplicar fraudes — geralmente empréstimos consignados em nome do idoso.

Esses dados são utilizados para acessar aplicativos e sistemas de autenticação biométrica, como o Meu INSS, contas bancárias e plataformas de serviços públicos. A exigência de expressão neutra e ausência de adornos nesses sistemas é exatamente o que os fraudadores reproduzem ao tirar as fotos. Com o rosto capturado sob as condições ideais e documentos em mãos, o acesso indevido se torna viável, permitindo contratações fraudulentas de crédito.

Para evitar esse tipo de golpe, é fundamental adotar algumas posturas preventivas:

  • Recuse pedidos de estranhos para tirar fotos, especialmente se houver insistência quanto à retirada de óculos, chapéus ou outros itens que cubram o rosto.
  • Caso aceite tirar uma foto, mantenha um sorriso. Isso dificulta o uso da imagem em sistemas que exigem neutralidade facial.
  • Evite permitir que o rosto seja fotografado de forma próxima e em sequência. Se for inevitável, priorize fotos em que o corpo inteiro ou a parte superior esteja visível.
  • Nunca entregue seus documentos pessoais para que terceiros os fotografem ou registrem imagens deles, independentemente da justificativa apresentada.
  • Desconfie de abordagens que oferecem brindes, cestas básicas ou qualquer vantagem em troca de fotos e dados pessoais.

A proteção contra esse tipo de golpe passa pelo fortalecimento da consciência digital e da prudência cotidiana. Especialmente no caso de pessoas idosas, o cuidado precisa ser redobrado. Familiares, cuidadores e instituições de apoio devem orientar sobre esses riscos e incentivar a adoção de medidas preventivas. A segurança, nesse contexto, começa com a informação e se mantém com a atenção aos detalhes.

Publicado em

A INFORMALIDADE NO TRATAMENTO DE DADOS FACIAIS EM CONDOMÍNIOS

O uso de reconhecimento facial para controle de acesso em condomínios residenciais tem se tornado uma prática amplamente adotada no Brasil, mas sua implementação tem ocorrido sem o devido cuidado com os direitos dos titulares e com pouca ou nenhuma transparência no tratamento dos dados coletados. Estimativas apontam para a existência de aproximadamente um milhão de condomínios utilizando essa tecnologia, abrangendo inclusive dados de crianças, sem garantias adequadas de segurança, controle e fiscalização.

A coleta de dados como imagem do rosto, CPF, unidade residencial e registros de acesso diário configura um tratamento de dados pessoais sensíveis, conforme definido pela Lei Geral de Proteção de Dados Pessoais (LGPD). Apesar disso, o que se observa é uma informalidade generalizada: em muitos casos, o envio das imagens ocorre por aplicativos de mensagens, sem qualquer protocolo seguro, e os pedidos de exclusão de dados são tratados de forma verbal ou por simples mensagens eletrônicas, sem registros formais que comprovem o cumprimento da solicitação.

A responsabilidade legal sobre esse tratamento recai sobre os próprios condomínios, na figura do síndico, que, por vezes, delega à empresa fornecedora do sistema a guarda e o controle das informações sem qualquer supervisão adequada. Não é raro que as empresas mantenham os dados mesmo após a saída do morador, em desconformidade com os princípios da finalidade, necessidade e segurança previstos na LGPD.

A ausência de regulamentação específica por parte da Autoridade Nacional de Proteção de Dados (ANPD) agrava a situação. Ainda que o órgão reconheça os desafios desse tipo de uso, não há até o momento regras claras sobre tempo de armazenamento, exigências técnicas de segurança ou medidas mínimas de transparência que os condomínios e prestadoras devam seguir. A fiscalização, por ora, depende exclusivamente de denúncias formais, sem atuação proativa por parte da Autoridade.

Essa lacuna regulatória se reflete diretamente no risco de exposição de dados pessoais. Há registros de vazamentos que envolvem dados completos de moradores, incluindo suas imagens faciais, divulgados em fóruns clandestinos da internet. Há também relatos de fraudes envolvendo o uso indevido de biometrias faciais para acesso a sistemas governamentais e obtenção de crédito fraudulento.

O reconhecimento facial, ao transformar o rosto em uma “chave” biométrica, exige um nível elevado de segurança, pois, diferentemente de uma senha, essa informação não pode ser modificada em caso de violação. Mesmo assim, muitos sistemas instalados em condomínios operam com o nível de segurança mais básico, propensos a falsos positivos e vulnerabilidades, o que compromete não apenas a eficácia do controle de acesso, mas também a integridade do tratamento dos dados.

A cadeia de responsabilidades entre o condomínio, as empresas que fornecem os equipamentos e aquelas que armazenam os dados é, em geral, mal definida. Em muitos contratos, não há exigência de relatórios técnicos, protocolos de exclusão de dados ou auditorias regulares. Esse vazio contratual e técnico abre espaço para práticas arriscadas e, muitas vezes, contrárias à lei.

Diante disso, algumas associações têm orientado síndicos a incluir nos contratos cláusulas que obriguem a apresentação periódica de relatórios sobre a gestão dos dados, contendo o fluxo de tratamento, medidas de segurança, histórico de acessos e incidentes, além de delimitar o tempo de guarda das informações. Essa prática, aprovada em assembleia, pode ser um primeiro passo em direção a uma governança mais responsável.

A situação atual exige que os condomínios e os profissionais envolvidos comecem a tratar a biometria facial com a seriedade que o tema exige. A proteção da identidade biométrica não pode ser baseada apenas na confiança informal entre síndico e prestadora de serviço, mas em protocolos claros, medidas de segurança auditáveis e, sobretudo, no respeito à legislação vigente.

Publicado em

COMO FRAUDES DIGITAIS ESTÃO TESTANDO OS LIMITES DA BIOMETRIA FACIAL

Diversos golpes vêm expondo fragilidades nos sistemas de autenticação por reconhecimento facial, utilizados tanto em plataformas públicas quanto privadas. Um exemplo disso foi a prisão de pessoas acusadas de burlar a verificação de identidade facial no acesso ao portal gov.br. Segundo as investigações, os fraudadores modificavam a própria aparência ou usavam artifícios digitais para simular rostos reais, conseguindo invadir contas de usuários e movimentar valores ligados ao Banco Central e ao INSS. Estima-se que milhares de acessos indevidos tenham ocorrido dessa forma.

A biometria facial, apesar de prática e amplamente adotada, exige camadas adicionais de proteção para ser segura. Esse tipo de identificação não se baseia em fotos simples, mas sim em padrões matemáticos extraídos de características do rosto – como distância entre os olhos, formato da mandíbula, entre outros pontos. Mesmo assim, quando implementada de forma simplificada, pode ser enganada por técnicas de manipulação visual, gravações em vídeo ou mesmo imagens geradas por inteligência artificial.

Por isso, sistemas que dependem apenas do rosto do usuário para liberar acesso a dados ou dinheiro precisam ser revistos com urgência. Não basta ser rápido ou conveniente; é necessário garantir que o processo seja confiável. O ideal é que a autenticação não dependa apenas da biometria, mas combine ao menos dois métodos diferentes – por exemplo, um código secreto e um dispositivo físico como o celular, além do reconhecimento facial.

Outro ponto que merece atenção é a responsabilidade das empresas e órgãos que utilizam esses sistemas. A legislação brasileira já trata dados biométricos como informações sensíveis, protegidas pela Lei Geral de Proteção de Dados (LGPD). Quando uma tecnologia falha e permite acessos indevidos, é justo esperar que a organização que a implementou arque com as consequências. Não se pode repassar ao usuário o custo de uma escolha mal feita na segurança digital.

Para operações que envolvem movimentações financeiras ou acesso a informações confidenciais, é possível ainda adicionar camadas robustas de autenticação, como o uso de Certificado Digital, que exige não apenas um dispositivo, mas também uma senha. Essa solução oferece segurança elevada e ainda possui validade jurídica reconhecida.

Por fim, vale lembrar que nenhum sistema será totalmente eficiente sem a colaboração das pessoas. A proteção de dados também passa por atitudes simples, como não enviar documentos ou selfies por redes sociais, desconfiar de mensagens de origem duvidosa e ter atenção redobrada com chamadas de vídeo não solicitadas. Muitos golpes exploram justamente a confiança e a distração do usuário para obter imagens do rosto ou outras informações valiosas.

A segurança digital começa com boas práticas tecnológicas, mas depende igualmente da postura de quem está do outro lado da tela.

Publicado em

RECONHECIMENTO FACIAL NOS ESTÁDIOS: COMO FUNCIONA O USO DA BIOMETRIA FACIAL EM EVENTOS ESPORTIVOS

A exigência de sistemas de reconhecimento facial em estádios com capacidade superior a 20 mil pessoas já é uma realidade no Brasil, conforme previsto na Lei Geral do Esporte. Essa exigência tem como principal objetivo o controle de acesso e o reforço da segurança nas arenas esportivas. Os torcedores que se dirigem a esses espaços devem compreender como esse tipo de tecnologia atua e como seus dados pessoais serão tratados pelas organizações responsáveis.

A norma impõe que as arenas instalem uma estrutura de monitoramento eficiente, incluindo uma central de controle equipada para processar imagens e informações coletadas por câmeras instaladas em locais estratégicos. A ideia é evitar episódios de violência, identificar possíveis foragidos ou pessoas com restrições judiciais e garantir que apenas quem estiver autorizado possa ingressar no local.

Além do aspecto preventivo, essa tecnologia contribui para a gestão do evento esportivo, proporcionando mais fluidez na entrada dos torcedores e otimizando o tempo de deslocamento interno, sem contato físico excessivo.

Como a tecnologia de reconhecimento facial opera

A base do sistema consiste na captação da imagem facial de cada indivíduo por meio de câmeras. Essa imagem é processada por um software que identifica padrões específicos, como distância entre olhos, contornos da face e outras características únicas. Com base nessas informações, o sistema compara os dados com registros armazenados em bancos de dados previamente alimentados com fotos de pessoas com restrições de acesso ou envolvidas em ocorrências anteriores.

A tecnologia pode ser utilizada não apenas nos acessos principais, mas também nas arquibancadas, pontos de circulação e setores internos, a fim de manter o controle sobre comportamentos suspeitos ou situações de risco. Caso uma imagem coletada corresponda a um registro de bloqueio, a equipe de segurança é imediatamente notificada para intervir.

Responsabilidade no uso da imagem dos torcedores

A Lei Geral de Proteção de Dados Pessoais (LGPD) estabelece que a imagem facial coletada nesses processos é considerada dado sensível, ou seja, demanda um cuidado redobrado por parte dos responsáveis pelo tratamento da informação.

O uso dessa imagem deve estar restrito a finalidades bem delimitadas, como segurança, controle de entrada e cumprimento de determinações legais. Não é permitido utilizar os dados para campanhas de marketing, envio de publicidade, nem tampouco repassar as informações a terceiros, salvo por força de lei ou ordem judicial.

É essencial, também, que os registros sejam mantidos apenas pelo período necessário para atingir o propósito justificado. Qualquer armazenamento sem justificativa válida poderá ser considerado tratamento indevido.

Como garantir que o torcedor se sinta protegido

Para que o público confie no uso da tecnologia, é indispensável que os estádios adotem práticas transparentes. Isso inclui fornecer informações claras sobre como o sistema funciona, para que serve, quem terá acesso às imagens, e por quanto tempo os dados serão mantidos. Essas informações devem estar disponíveis nos sites oficiais dos eventos ou das arenas e também de forma visível nos acessos ao estádio.

É recomendável que exista uma política de privacidade bem estruturada, indicando como os dados são armazenados, protegidos e eventualmente descartados. Além disso, medidas como autenticação por senha, sistemas criptografados e capacitação das equipes responsáveis pelo manuseio das imagens são essenciais para evitar usos indevidos.

Caso ocorra algum incidente envolvendo vazamento ou acesso não autorizado, o responsável pelo tratamento das informações deverá notificar a Autoridade Nacional de Proteção de Dados e os titulares impactados, conforme prevê a legislação.

O que pode mudar no futuro

À medida que essas tecnologias se desenvolvem, é provável que o seu uso vá além da simples identificação de indivíduos. Ferramentas baseadas em imagens faciais podem, por exemplo, ser programadas para detectar padrões de comportamento, reações emocionais e outras características complexas do público. Isso exige um compromisso ainda maior com a governança e a responsabilidade na coleta e uso dessas informações.

Quando aplicadas com respeito à privacidade, essas ferramentas podem transformar a experiência nos estádios, oferecendo mais tranquilidade, acessos fluidos e eventos organizados. O sucesso dessa estratégia, no entanto, depende de uma implementação ética, transparente e em conformidade com a legislação vigente sobre proteção de dados.

Publicado em

COMO EMPRESAS E BANCOS ENFRENTAM A EVOLUÇÃO DO CIBERCRIME

A inovação no campo da segurança digital é um fator essencial para empresas, especialmente em tempos de crescimento de golpes sofisticados. A fraude com uso de reconhecimento facial e biometria — como o “golpe das flores” — evidencia que criminosos não dependem exclusivamente de tecnologias avançadas, mas sim da combinação de táticas de engenharia social e abordagens digitais e presenciais. Neste golpe, indivíduos são manipulados a fornecer fotos como “comprovantes de recebimento” de presentes, sem perceber que essas imagens serão usadas como prova de vida para, sem consentimento, solicitar financiamentos ou abrir créditos.

Esse exemplo alerta para a necessidade de aprimorar práticas de segurança além das medidas tecnológicas já estabelecidas. Em algumas situações, mesmo com mecanismos de validação e biometria, os bancos têm enfrentado desafios. A evolução, neste caso, está na análise contínua de dados e na conscientização dos clientes sobre abordagens suspeitas, como as ligações falsas em nome de centrais de atendimento. Para reforçar a proteção, bancos e empresas de tecnologia já implementam alertas em aplicativos e outras ferramentas para notificar sobre possíveis fraudes em tempo real.

No entanto, a segurança digital no Brasil ainda apresenta lacunas importantes. Embora a Lei Geral de Proteção de Dados (LGPD) esteja em vigor desde 2020, a adequação de pequenas e médias empresas permanece limitada. Muitos negócios de menor porte ainda precisam avançar em governança de dados, muitas vezes por conta de orçamentos restritos e pela priorização de outras áreas que trazem retornos diretos. A conscientização sobre segurança da informação, contudo, continua essencial, e não somente no nível da própria organização, mas também entre os fornecedores. Pequenas falhas de segurança em empresas terceirizadas podem colocar em risco empresas maiores, que buscam estratégias para proteger não só suas próprias operações, mas as dos parceiros e fornecedores.

O setor financeiro, devido ao seu alto valor para criminosos, tende a investir pesado em medidas de proteção, aplicando camadas de segurança em várias etapas de seus sistemas. Uma abordagem comum é a estratégia de “zero trust”, onde cada ação interna é tratada como suspeita até que seja verificada, empregando técnicas como a autenticação multifatorial e o monitoramento em tempo real de transações para detecção de anomalias. O uso de inteligência artificial e machine learning, aliado a biometria e sistemas de comportamento do usuário, é cada vez mais comum para identificar padrões incomuns e possíveis fraudes.

Para empresas que buscam melhorar suas práticas de segurança, é fundamental investir em tecnologia e capacitação interna e desenvolver uma cultura de segurança. Isso inclui o uso de dados de maneira responsável e estratégica para evitar vazamentos e abusos. O conceito de “confiança zero” ajuda a criar uma barreira sólida, dificultando tentativas de ataque. No setor financeiro, a segurança não é tratada como uma despesa, mas como um investimento crucial para a preservação da confiança dos clientes e para a reputação da instituição.

É preciso observar que o campo da segurança digital nunca é estático. As ameaças evoluem rapidamente, exigindo que a proteção também seja dinâmica e capaz de enfrentar novos desafios. Empresas devem continuar aprimorando sua capacidade de resposta e prevenção, garantindo uma segurança robusta não apenas em seu ambiente, mas também nos laços que mantêm com o ecossistema empresarial mais amplo.

Publicado em

ESTELIONATO DIGITAL: MULHER PERDE QUASE R$ 10 MIL EM TRANSAÇÕES FRAUDULENTAS

Uma mulher de São José do Rio Preto (SP) foi vítima de um golpe de reconhecimento facial, que resultou na perda de quase R$ 10 mil no dia 23 de outubro de 2024. O caso, que vem gerando preocupação sobre a segurança digital, destaca a forma sofisticada com que golpistas estão explorando vulnerabilidades tecnológicas.

De acordo com o boletim de ocorrência, a vítima relatou que, após anunciar a venda de cadeiras online, foi contatada por um suposto comprador. Durante as negociações, o indivíduo conseguiu persuadir a mulher a acessar seus aplicativos bancários e, por meio de uma chamada de vídeo, utilizou o reconhecimento facial para desbloquear a conta da vítima.

A manobra permitiu ao golpista realizar uma série de transferências que totalizaram R$ 9.820,37. Em busca de justiça, a vítima compareceu à Central de Flagrantes, apresentou os comprovantes das transações e registrou a ocorrência, que foi classificada como estelionato. O caso está agora sob investigação, trazendo à tona questões importantes sobre as precauções necessárias ao lidar com transações digitais e aplicativos bancários.

Publicado em

COMO O RECONHECIMENTO FACIAL ENFRENTA A SOFISTICAÇÃO DAS FRAUDES DIGITAIS

O reconhecimento facial, uma tecnologia amplamente utilizada para autenticação em diversas áreas, tem enfrentado um aumento significativo nas tentativas de fraude, destacando as vulnerabilidades inerentes aos sistemas de segurança que dependem dessa biometria. Criminosos estão utilizando técnicas avançadas de spoofing, como a utilização de fotos, vídeos ou máscaras 3D, para burlar sistemas que, até então, eram considerados seguros.

Estima-se que o mercado global de reconhecimento facial alcance US$ 13,87 bilhões até 2028, um crescimento que reflete a confiança crescente na tecnologia. No entanto, essa confiança está sendo colocada em xeque à medida que hackers exploram falhas nos algoritmos de reconhecimento, mostrando que o rosto, apesar de ser uma característica única e imutável, também é uma informação pública e, portanto, vulnerável.

A segurança dos sistemas de reconhecimento facial depende diretamente da qualidade dos dispositivos e algoritmos utilizados. As redes sociais, por exemplo, acabam fornecendo uma base de dados acessível para aqueles que buscam explorar essas vulnerabilidades, permitindo que criminosos tenham tempo suficiente para desenvolver técnicas sofisticadas de invasão, algo que a tradicional troca de senhas não permitia.

Com a previsão de que os crimes cibernéticos possam custar ao mundo cerca de US$ 10,5 trilhões anualmente até 2025, a necessidade de identificar e mitigar fraudes em sistemas de reconhecimento facial se torna cada vez mais importante. A solução passa por treinamentos contínuos dos modelos de IA e pelo investimento em produtos de biometria de alta qualidade. O lançamento apressado de novos produtos no mercado, sem testes adequados, pode resultar em sistemas com falhas ou vieses incorporados, comprometendo a eficácia e a segurança.

Um estudo realizado em 2020 mostrou que os sistemas de reconhecimento facial ainda apresentam taxas de erro preocupantes, especialmente na identificação de pessoas de diferentes etnias. Em particular, mulheres de pele escura experimentaram taxas de erro de até 35%, em comparação com menos de 1% para homens de pele clara. Este dado evidencia a importância de uma pesquisa contínua e o aprimoramento dos modelos de reconhecimento facial para garantir que sejam inclusivos e seguros.

O reconhecimento facial, embora promissor, ainda enfrenta desafios significativos em termos de segurança. A necessidade de investir em soluções robustas e pesquisas contínuas é imperativa para garantir a proteção de dados e a integridade dos sistemas que dependem dessa tecnologia.

Publicado em

RECONHECIMENTO FACIAL: COMBATE ÀS FRAUDES E A NECESSIDADE DE SOLUÇÕES MAIS SEGURAS

O reconhecimento facial, uma tecnologia amplamente utilizada para autenticação em diversos setores, está sob crescente ameaça devido ao aumento das fraudes por técnicas de spoofing. Criminosos têm demonstrado habilidades cada vez mais sofisticadas para enganar sistemas que, até recentemente, eram considerados altamente seguros. Estima-se que o mercado global de reconhecimento facial atinja US$ 13,87 bilhões até 2028, mas o crescimento dessa indústria traz consigo desafios significativos, especialmente no que diz respeito à segurança e confiabilidade dos sistemas.

As fraudes em reconhecimento facial são facilitadas por técnicas avançadas de spoofing, que manipulam sistemas por meio de fotos, vídeos ou até máscaras 3D. A atratividade de usar o próprio rosto como uma senha, embora conveniente, apresenta riscos consideráveis. Isso ocorre porque o rosto é uma característica invariável e, muitas vezes, pública, o que facilita a coleta de dados pelos fraudadores. A segurança dos sistemas de reconhecimento facial depende, portanto, tanto da robustez do dispositivo utilizado quanto da qualidade do algoritmo implementado.

Nesse contexto, a cibersegurança se torna um tema central. Com os crimes cibernéticos projetados para custar ao mundo cerca de US$ 10,5 trilhões por ano até 2025, a necessidade de identificar e mitigar fraudes em sistemas de reconhecimento facial é mais urgente do que nunca. As soluções para combater essas fraudes incluem treinamentos contínuos dos modelos de IA e investimentos em produtos de biometria de alta qualidade. No entanto, a pressa em lançar novos produtos pode levar a falhas, resultando em sistemas que não são suficientemente testados ou que possuem vieses prejudiciais.

Pesquisas, como a realizada pelo MIT em 2020, destacam a importância de um desenvolvimento cuidadoso e inclusivo desses sistemas. A pesquisa mostrou que sistemas de reconhecimento facial apresentavam taxas de erro significativamente mais altas ao identificar pessoas de diferentes etnias, com uma discrepância alarmante: taxas de erro de até 35% para mulheres de pele escura, em comparação com menos de 1% para homens de pele clara. Isso evidencia a necessidade de mais pesquisas e investimentos em soluções robustas para garantir a proteção de dados e a integridade dos sistemas.

Em um ambiente digital cada vez mais interconectado, a segurança de dados e a confiança nas tecnologias emergentes são prioridades que exigem atenção contínua. A evolução dos métodos de autenticação e a melhoria dos algoritmos são essenciais para enfrentar os desafios impostos pelas fraudes e garantir a segurança dos usuários.

Publicado em

AVANÇOS TECNOLÓGICOS NA SEGURANÇA PÚBLICA DA ARGENTINA

Tecnologia de Vigilância na Argentina

Inovações em Segurança Pública
Uma nova unidade de segurança na Argentina está adotando tecnologias avançadas para analisar padrões criminais e prever futuras atividades ilícitas. O uso de algoritmos sofisticados permite a identificação de tendências, enquanto o software de reconhecimento facial auxilia na localização de indivíduos procurados. Além disso, a inteligência artificial (IA) será empregada para monitorar redes sociais e analisar imagens de câmeras de segurança em tempo real, detectando comportamentos suspeitos.

Impacto na Identificação e Monitoramento de Ameaças
Essas medidas visam identificar potenciais ameaças, monitorar movimentos de grupos criminosos e antecipar possíveis distúrbios. A expectativa é de que essas tecnologias proporcionem uma maior capacidade de resposta e prevenção por parte das autoridades de segurança.

Preocupações com os Direitos Humanos
Embora essas inovações sejam promissoras em teoria, é crucial considerar as implicações para os direitos dos cidadãos. Organizações de direitos humanos e especialistas têm expressado preocupações significativas sobre a vigilância em larga escala. Há temores de que a liberdade de expressão seja comprometida, levando os cidadãos à autocensura devido ao medo de que suas comunicações sejam monitoradas.

Riscos de Uso Indevido
Além disso, há alertas de que essas tecnologias possam ser utilizadas para vigiar jornalistas, acadêmicos, políticos e ativistas, especialmente sem uma supervisão adequada. Isso poderia resultar em ameaças à privacidade e aumentar a discriminação contra grupos vulneráveis, intensificando a vigilância injusta.

Contexto Histórico e Político
O governo atual, conhecido por sua abordagem rigorosa contra o crime, tem sido questionado por suas políticas de segurança cada vez mais militarizadas. A resposta a protestos tem sido marcada pelo uso de gás lacrimogêneo e balas de borracha, ecoando um passado de repressão estatal. Durante a ditadura militar, milhares de pessoas desapareceram, sendo torturadas ou assassinadas. Este passado ainda influencia a percepção pública sobre novas medidas de vigilância.

Futuras Implicações e Necessidade de Supervisão
A implementação dessa unidade de segurança com IA levanta questões éticas e de responsabilidade. Embora a tecnologia possa aumentar a eficácia das operações de segurança, também traz preocupações sobre privacidade e liberdade de expressão. Para operar dentro dos limites legais e respeitar os direitos dos cidadãos, o governo afirmou que a unidade seguirá o quadro legislativo existente, incluindo leis de proteção de dados pessoais. A transparência e a supervisão contínua serão essenciais para minimizar riscos e assegurar o uso justo da tecnologia.

Publicado em

SERVIDORA PÚBLICA DENUNCIA ABORDAGEM EQUIVOCADA POR SISTEMA DE RECONHECIMENTO FACIAL

Uma servidora pública e defensora da igualdade racial foi alvo de um incidente preocupante envolvendo o uso de tecnologia de reconhecimento facial pela Polícia Militar. Durante um evento sobre igualdade racial no Centro do Rio, ela foi erroneamente identificada como uma foragida da justiça. A abordagem ocorreu quando a imagem dela foi associada no sistema de reconhecimento facial a uma pessoa procurada.

A servidora, que há uma década trabalha ouvindo relatos de vítimas de preconceito, descreveu a experiência como extremamente constrangedora. “Eles me mostraram a foto da pessoa procurada, que é completamente diferente de mim. Senti-me desamparada e temo que isso possa ocorrer novamente”, relatou. Até o momento, ela não recebeu esclarecimentos sobre o destino das imagens capturadas nem sobre a sua eventual arquivação.

Os policiais, ao perceberem o erro, encerraram a abordagem, justificando que seguiam o protocolo. A Polícia Militar informou que o sistema de reconhecimento facial foi selecionado via licitação e testado nos Estados Unidos. Contudo, a servidora questiona a eficácia e a segurança do sistema, destacando a preocupação com a tecnologia que, segundo ela, não foi desenvolvida pensando nas especificidades da população brasileira.

O caso está sendo acompanhado pela Defensoria Pública do Estado, que solicitou à Secretaria de Segurança Pública informações detalhadas sobre o uso da tecnologia. A defensora pública responsável pelo caso ressaltou que a tecnologia de IA e algoritmos pode reproduzir padrões racistas presentes na sociedade.

A cidade do Rio de Janeiro já conta com videomonitoramento em tempo real em vários pontos. Entre dezembro do ano passado e junho deste ano, 200 pessoas foram presas com base no reconhecimento facial, o que levanta debates sobre a necessidade de uma regulamentação mais rigorosa para evitar erros e abusos.

A servidora destacou ainda a importância de estar sempre com documentação pessoal, um ensinamento transmitido desde a infância para muitas pessoas negras. Ela mencionou que, mesmo adulta, compreendeu a necessidade de ter seus documentos à mão em todos os momentos.

Casos de prisões equivocadas devido a bancos de dados desatualizados também foram registrados. No início do ano, duas pessoas foram presas indevidamente porque os mandados de prisão já não tinham validade. No semestre, quase metade das prisões relacionadas ao reconhecimento facial foram por falta de pagamento de pensão alimentícia, além de crimes como roubo, homicídio, feminicídio, tráfico de drogas, violência doméstica, furto e estupro.

A Defensoria Pública questiona os protocolos utilizados, o treinamento dos agentes de segurança e a base de dados que alimenta o sistema de reconhecimento facial. A Secretaria Estadual de Governo afirmou que a abordagem seguiu os protocolos e foi encerrada após a apresentação dos documentos pela servidora. A Polícia Civil está investigando o caso na Delegacia de Combate aos Crimes Raciais e Delitos de Intolerância.