Publicado em

A INFORMALIDADE NO TRATAMENTO DE DADOS FACIAIS EM CONDOMÍNIOS

O uso de reconhecimento facial para controle de acesso em condomínios residenciais tem se tornado uma prática amplamente adotada no Brasil, mas sua implementação tem ocorrido sem o devido cuidado com os direitos dos titulares e com pouca ou nenhuma transparência no tratamento dos dados coletados. Estimativas apontam para a existência de aproximadamente um milhão de condomínios utilizando essa tecnologia, abrangendo inclusive dados de crianças, sem garantias adequadas de segurança, controle e fiscalização.

A coleta de dados como imagem do rosto, CPF, unidade residencial e registros de acesso diário configura um tratamento de dados pessoais sensíveis, conforme definido pela Lei Geral de Proteção de Dados Pessoais (LGPD). Apesar disso, o que se observa é uma informalidade generalizada: em muitos casos, o envio das imagens ocorre por aplicativos de mensagens, sem qualquer protocolo seguro, e os pedidos de exclusão de dados são tratados de forma verbal ou por simples mensagens eletrônicas, sem registros formais que comprovem o cumprimento da solicitação.

A responsabilidade legal sobre esse tratamento recai sobre os próprios condomínios, na figura do síndico, que, por vezes, delega à empresa fornecedora do sistema a guarda e o controle das informações sem qualquer supervisão adequada. Não é raro que as empresas mantenham os dados mesmo após a saída do morador, em desconformidade com os princípios da finalidade, necessidade e segurança previstos na LGPD.

A ausência de regulamentação específica por parte da Autoridade Nacional de Proteção de Dados (ANPD) agrava a situação. Ainda que o órgão reconheça os desafios desse tipo de uso, não há até o momento regras claras sobre tempo de armazenamento, exigências técnicas de segurança ou medidas mínimas de transparência que os condomínios e prestadoras devam seguir. A fiscalização, por ora, depende exclusivamente de denúncias formais, sem atuação proativa por parte da Autoridade.

Essa lacuna regulatória se reflete diretamente no risco de exposição de dados pessoais. Há registros de vazamentos que envolvem dados completos de moradores, incluindo suas imagens faciais, divulgados em fóruns clandestinos da internet. Há também relatos de fraudes envolvendo o uso indevido de biometrias faciais para acesso a sistemas governamentais e obtenção de crédito fraudulento.

O reconhecimento facial, ao transformar o rosto em uma “chave” biométrica, exige um nível elevado de segurança, pois, diferentemente de uma senha, essa informação não pode ser modificada em caso de violação. Mesmo assim, muitos sistemas instalados em condomínios operam com o nível de segurança mais básico, propensos a falsos positivos e vulnerabilidades, o que compromete não apenas a eficácia do controle de acesso, mas também a integridade do tratamento dos dados.

A cadeia de responsabilidades entre o condomínio, as empresas que fornecem os equipamentos e aquelas que armazenam os dados é, em geral, mal definida. Em muitos contratos, não há exigência de relatórios técnicos, protocolos de exclusão de dados ou auditorias regulares. Esse vazio contratual e técnico abre espaço para práticas arriscadas e, muitas vezes, contrárias à lei.

Diante disso, algumas associações têm orientado síndicos a incluir nos contratos cláusulas que obriguem a apresentação periódica de relatórios sobre a gestão dos dados, contendo o fluxo de tratamento, medidas de segurança, histórico de acessos e incidentes, além de delimitar o tempo de guarda das informações. Essa prática, aprovada em assembleia, pode ser um primeiro passo em direção a uma governança mais responsável.

A situação atual exige que os condomínios e os profissionais envolvidos comecem a tratar a biometria facial com a seriedade que o tema exige. A proteção da identidade biométrica não pode ser baseada apenas na confiança informal entre síndico e prestadora de serviço, mas em protocolos claros, medidas de segurança auditáveis e, sobretudo, no respeito à legislação vigente.

Publicado em

DEEPFAKES E PRIVACIDADE: QUANDO A TECNOLOGIA INVADE O DIREITO DE IMAGEM

Recentemente, um caso viral nas redes sociais chamou a atenção para os riscos do uso de deepfakes e a importância de zelar pela privacidade e segurança online. Tudo começou quando uma internauta descobriu que uma marca havia usado inteligência artificial para recriar seu rosto e promover produtos, sem o consentimento dela. O vídeo em que ela compartilha essa experiência já conta com milhões de visualizações e levantou debates sobre os perigos e a ética do uso da IA.

Deepfakes, que são vídeos e imagens criados ou alterados com IA para parecerem reais, trazem um desafio inédito. A legislação brasileira protege o direito de imagem como um direito fundamental, o que significa que o uso da imagem de uma pessoa sem sua autorização pode, sim, resultar em penalidades legais e até ações por danos morais, principalmente se a imagem for usada de forma que deturpe a identidade ou os valores da pessoa envolvida.

Além disso, o uso de deepfakes em campanhas publicitárias pode confundir o público, dando a entender que a pessoa está associada à marca ou apoia o produto, o que pode ser visto como publicidade enganosa e falsidade ideológica. Para evitar esse tipo de problema, as empresas devem agir com muito cuidado ao usarem IA em estratégias de marketing.

A IA processa e aprende com grandes volumes de dados, o que, em algumas situações, pode levar à utilização de elementos protegidos por direitos de outras pessoas. É fundamental que as marcas estejam atentas e façam uma verificação cuidadosa para garantir que o uso de inteligência artificial seja seguro e ético, respeitando os direitos das pessoas. Monitorar o uso dessas tecnologias e contar com especialistas em proteção de dados são passos essenciais para que o uso de IA esteja alinhado com a legislação e com os valores da empresa.

Inovar e usar a tecnologia de forma responsável, respeitando as pessoas e garantindo que a experiência do cliente seja positiva e de confiança.

Publicado em

A INICIATIVA DA ANPD SOBRE ANONIMIZAÇÃO E PSEUDONIMIZAÇÃO

A Autoridade Nacional de Proteção de Dados (ANPD) deu um passo importante ao lançar, no dia 30 de janeiro de 2024, uma consulta pública sobre a minuta de um guia detalhado para a anonimização e pseudonimização de dados pessoais. Este guia, que faz parte da Agenda Regulatória da ANPD para 2023-2024, visa esclarecer e orientar o uso dessas técnicas sob a égide da Lei Geral de Proteção de Dados Pessoais (LGPD), Lei n° 13.709/2018.

A LGPD introduziu conceitos fundamentais relacionados à anonimização e pseudonimização, processos pelos quais os dados pessoais são transformados de forma a prevenir a identificação direta ou indireta de indivíduos. A ANPD, reconhecendo a necessidade de diretrizes claras, propõe neste guia um aprofundamento nos conceitos e práticas, diferenciando dados anonimizados de anônimos, e introduzindo termos como dados auxiliares e identificadores diretos e indiretos.

Um ponto destacado pela ANPD é a reversibilidade potencial da pseudonimização, em contraste com a irreversibilidade da anonimização. A pseudonimização permite a reidentificação sob circunstâncias controladas, enquanto a anonimização visa eliminar permanentemente a possibilidade de vincular os dados ao indivíduo.

O guia enfatiza que a anonimização não deve ser vista apenas como um fim, mas como um processo complexo que deve respeitar os princípios da LGPD. Isso inclui garantir que a anonimização não sirva para legitimar tratamentos de dados originalmente não conformes com a lei. Além disso, a ANPD adverte sobre os riscos de reidentificação e a importância de avaliar esses riscos de maneira cuidadosa, adotando uma abordagem baseada em risco para a anonimização.

A consulta pública vai além ao abordar a pseudonimização, sugerindo uma metodologia detalhada para sua implementação, que inclui a seleção de técnicas adequadas e a proteção das chaves e algoritmos usados no processo. Essas diretrizes são fundamentais para assegurar que as práticas de tratamento de dados estejam alinhadas com os mais altos padrões de segurança e privacidade.

Além disso, a ANPD abriu espaço para discussões sobre os direitos dos titulares de dados, lançando uma tomada de subsídios com foco em como os controladores devem facilitar o exercício desses direitos. Este debate abrange desde a transparência no tratamento dos dados até a portabilidade, correção e eliminação dos mesmos, enfatizando a necessidade de processos que respeitem tanto a legislação vigente quanto os interesses dos indivíduos.

Essas iniciativas da ANPD não apenas reforçam o compromisso do Brasil com a proteção de dados pessoais, mas também estabelecem um marco regulatório que orienta as organizações na adoção de práticas responsáveis e transparentes de tratamento de dados. As contribuições para a consulta pública e a tomada de subsídios, abertas até 28 de fevereiro e 4 de março de 2024, respectivamente, são passos vitais para a construção de um ambiente digital mais seguro e confiável para todos.

Publicado em

DERROTA IMINENTE PARA O GOOGLE PODE RESULTAR EM PERDA DE R$ 25 BILHÕES

O atributo alt desta imagem está vazio. O nome do arquivo é image.png

Em uma importante reviravolta legal, a juíza distrital dos Estados Unidos, Yvonne Gonzalez Rogers, emitiu uma decisão crucial rejeitando o pedido do Google para arquivar um processo que alega invasão de privacidade. A gigante da tecnologia está sendo acusada de rastrear secretamente o uso da internet de milhões de pessoas, sem obter consentimento adequado para a coleta de informações.

A sentença da magistrada destacou a ausência de referências explícitas que confirmem o consentimento dos usuários para a coleta de dados pelo Google. A ação coletiva, que busca US$ 5 bilhões em danos, foi proposta por usuários preocupados com a ampla capacidade da empresa de monitorar suas atividades online, inclusive quando utilizam modos de navegação supostamente privados, como o “modo incógnito” no navegador Chrome.

O advogado David Boies, representante dos usuários na ação, celebrou a decisão da juíza, considerando-a um “passo importante na proteção dos interesses de privacidade de milhões de americanos”. Os queixosos alegam que o Google coleta informações sobre suas preferências, interesses e até mesmo suas pesquisas mais íntimas, criando um “tesouro inexplicável de informações detalhadas e expansivas”.

Essa decisão ressalta a crescente preocupação com a privacidade online em um mundo cada vez mais conectado. Os usuários estão cada vez mais cientes da necessidade de controlar o acesso às suas informações pessoais, especialmente quando confiam em empresas de tecnologia para proteger seus dados sensíveis. A decisão da juíza Gonzalez Rogers coloca em evidência a importância de empresas como o Google garantirem que seus métodos de coleta de dados sejam transparentes e que o consentimento dos usuários seja obtido de maneira clara e inequívoca.

Enquanto o caso continua a se desenrolar nos tribunais, ele lança luz sobre a discussão em curso sobre os limites da coleta de dados por empresas de tecnologia e a necessidade de um equilíbrio entre a inovação tecnológica e a proteção da privacidade dos usuários. A decisão judicial reforça a mensagem de que nenhuma empresa está acima da lei quando se trata de proteger os direitos fundamentais dos consumidores.