Publicado em

DESAFIOS DA RESOLUÇÃO CONJUNTA Nº 6 DO BANCO CENTRAL: HARMONIZAÇÃO COM A LGPD

A partir de 1º de novembro, uma nova regulamentação do Banco Central (Bacen) entra em vigor, com o intuito de fortalecer a segurança nas transações financeiras. A Resolução Conjunta nº 6 do Bacen, publicada em conjunto com o Conselho Monetário Nacional (CMN), estabelece diretrizes para o compartilhamento de dados e informações relacionadas a indícios de fraudes entre instituições financeiras, empresas de pagamento e outras entidades autorizadas pelo Bacen.

Essa partilha de informações será efetuada por meio de um sistema eletrônico que permitirá o registro, modificação e consulta de dados e informações sobre indícios de fraudes identificadas durante as atividades dessas instituições. Isso se torna especialmente relevante devido ao fato de que bancos, fintechs, empresas de crédito e pagamento têm sido alvos frequentes de cibercriminosos, que utilizam táticas como manipulação de imagens, deepfake e fraudes de identidade facial e documental para acessar indevidamente aplicativos bancários. No ano passado, as perdas relacionadas a fraudes no sistema financeiro atingiram R$ 2,5 bilhões.

A resolução visa ampliar a visibilidade das instituições financeiras e demais atores do mercado sobre os perfis de maior risco em operações comerciais, contribuindo para o combate a fraudes.

Entretanto, surge uma questão relacionada ao Open Banking e à exigência de consentimento para inclusão na base de dados de combate à fraude. Aparentemente, isso pode entrar em conflito com a Lei Geral de Proteção de Dados (LGPD). No entanto, a LGPD prevê exceções à necessidade de consentimento em casos de obrigação legal, o que poderia ser aplicável a situações de prevenção à fraude. Nesse sentido, a resolução 6 do Bacen parece contrariar a LGPD ao exigir consentimento prévio e geral para o compartilhamento de dados com essa finalidade.

Para contornar essa incompatibilidade, sugere-se que as instituições mantenham documentação detalhada relacionada ao sistema de compartilhamento eletrônico, os dados compartilhados e os mecanismos de controle. Além disso, é crucial que as instituições esforcem-se para cumprir a legislação e regulamentação vigentes, respeitando o sigilo, a proteção de dados pessoais e a livre concorrência.

Diante dessas mudanças, as instituições financeiras devem estar preparadas para enfrentar desafios tecnológicos, fortalecer seus controles internos e melhorar sua resiliência cibernética, garantindo a proteção de ativos e interesses de seus stakeholders.

Publicado em

OS DESAFIOS DA PROPRIEDADE INTELECTUAL NA ERA DA IA: REFLEXÕES SOBRE A POLÍTICA DA REDE SOCIAL X

A rede social X, anteriormente conhecida como Twitter, recentemente introduziu uma nova política de privacidade que tem gerado um debate sobre a interseção entre propriedade intelectual e plataformas digitais. Essa política estabelece que os dados compartilhados pelos usuários serão utilizados para o treinamento de modelos de inteligência artificial (IA). Em outras palavras, criações intelectuais e artísticas humanas, incluindo direitos autorais, marcas e patentes, passam a estar à disposição da nona maior rede social do mundo, que possui 556 milhões de usuários.

A implementação dessa nova política representa um risco real de desvalorização da criatividade. Se as plataformas podem empregar o conteúdo dos usuários para aprimorar seus modelos de IA sem compensação adequada, é natural que os criadores se sintam desencorajados a produzir e compartilhar suas obras. Afinal, por que investir tempo e energia na criação de algo original se isso será usado para enriquecer terceiros sem nenhum benefício tangível para o criador?

Quando um usuário decide ingressar em uma rede social, é confrontado com os termos de serviço e, na maioria das vezes, os aceita sem uma leitura cuidadosa. Ao fazer isso, ele concede uma licença gratuita e não exclusiva para o uso do conteúdo que irá produzir. Geralmente, essa permissão se limita à operação, promoção e melhoria dos serviços oferecidos pela própria plataforma. A questão que emerge agora é a extensão dessa licença.

No Brasil, a LGPD está em vigor desde setembro de 2020, regulando a proteção de dados pessoais em meios físicos e digitais. A LGPD define dados pessoais como qualquer informação relacionada a uma pessoa identificada ou identificável e destaca a importância do consentimento do titular dos dados para o tratamento dessas informações.

Além do Brasil, países como Japão, Argentina e os Estados-membros da União Europeia têm suas próprias leis de proteção de dados pessoais. A mudança nos termos da rede social X é global, o que implica que cada jurisdição deve examinar como as questões normativas se aplicam em sua área geográfica. Por exemplo, o Regulamento Geral de Proteção de Dados (GDPR) da União Europeia estabelece padrões rigorosos para a proteção da privacidade e impõe penalidades substanciais por violações. Tanto a LGPD quanto o GDPR enfatizam o consentimento informado e a transparência no tratamento de dados.

Embora os termos de uso frequentemente concedam amplas licenças às plataformas, a expansão dessas licenças para incluir o treinamento de IA pode ultrapassar o que foi originalmente acordado ou mesmo o que é ético.

É importante considerar que os modelos de IA podem, em certa medida, reproduzir o conteúdo original em seus resultados, levando a preocupações sobre a apropriação não autorizada. Esse é um terreno legal que está apenas começando a ser explorado, mas as bases estão lançadas.

Criadores e defensores dos direitos de propriedade intelectual devem estar cientes de que as implicações da nova política da rede social X são apenas a superfície de um problema maior. Por outro lado, advogados especializados em propriedade intelectual têm o dever de esclarecer esse caminho e proteger os direitos fundamentais dos indivíduos.

As plataformas online também enfrentam o desafio de encontrar soluções que atendam tanto aos interesses dos criadores de conteúdo quanto à privacidade e segurança dos usuários. À medida que a IA se torna cada vez mais presente em nossas vidas, a proteção adequada da propriedade intelectual se torna necessária. A rede social X lançou um alerta importante para uma questão urgente.

A comunidade global deve se unir para garantir que o avanço tecnológico não seja alcançado às custas dos direitos fundamentais dos indivíduos. É essencial que as redes sociais reavaliem suas políticas, garantindo que os direitos dos criadores sejam protegidos e respeitados. Simultaneamente, os usuários precisam estar cientes de seus direitos e das licenças que estão concedendo às plataformas.

Publicado em

BIOMETRIA FACIAL: ENTRE A MODERNIZAÇÃO E A PROTEÇÃO DA PRIVACIDADE EM GRANDES EVENTOS

O Projeto de Lei nº 2.745/2023, recentemente aprovado pela Comissão de Segurança Pública da Câmara dos Deputados, traça diretrizes necessárias para a implementação de sistemas de reconhecimento facial em estádios de futebol. Este avanço na tecnologia biométrica está transformando a forma como abordamos segurança e controle de acesso, não apenas em eventos esportivos, mas também em diversos setores, incluindo condomínios.

De acordo com o texto aprovado, a adoção de sistemas de reconhecimento facial nos estádios será opcional, ficando a cargo das entidades públicas e privadas responsáveis pelo evento a decisão de utilizá-lo. Importante destacar que o tratamento e o compartilhamento dos dados biométricos devem estar em conformidade com a Lei Geral de Proteção de Dados (LGPD). Além disso, o uso de reconhecimento facial não será permitido em áreas onde a privacidade dos torcedores ou jogadores deve ser preservada, como banheiros, vestiários e refeitórios.

Sob a perspectiva da Lei de Proteção de Dados Pessoais (LPDG), é essencial compreender a implementação dessa tecnologia e o tratamento das informações dos indivíduos. Há um debate em curso, especialmente sobre a possibilidade de substituição completa de métodos tradicionais.

Tomando como exemplo o Allianz Parque, o registro facial se tornou obrigatório para a compra de ingressos e acesso ao estádio, inclusive para crianças e adolescentes, eliminando a opção de compra física. O Idec (Instituto de Defesa do Consumidor) argumenta que é desproporcional impor o uso exclusivo de dados biométricos como meio de acesso, defendendo a disponibilização de alternativas.

A agilidade na entrada em eventos esportivos e condomínios é uma das principais vantagens do reconhecimento facial, além do combate ao cambismo e o aumento da segurança, particularmente na identificação de responsáveis por atos de vandalismo e crimes. Entretanto, questões éticas e relacionadas à proteção de dados pessoais surgem, dado que os dados biométricos são considerados sensíveis, exigindo o consentimento livre e expresso dos usuários.

Um ponto importante a ser considerado é que os algoritmos de inteligência artificial não possuem sensibilidade humana e podem aprender de maneira equivocada a partir de dados mal coletados ou mal interpretados. Isso pode levar a análises preconceituosas ou imprecisas, ressaltando a importância de garantir que suspeitos não sejam apontados unicamente com base em características físicas.

Embora a tecnologia prometa modernizar e aprimorar o acesso em estádios de futebol, eventos esportivos e condomínios, as organizações responsáveis devem assegurar que as informações faciais coletadas sejam tratadas de maneira ética e segura. O consentimento explícito das pessoas, a transparência sobre o uso dos dados e a consideração de alternativas para aqueles que não desejam compartilhar seus dados são passos essenciais para garantir que a tecnologia beneficie a todos, sem comprometer a privacidade e a segurança.

Publicado em

LGPD E DADOS DE SAÚDE: EXPLORANDO AS IMPLICAÇÕES NA PRIVACIDADE DO PACIENTE

A Lei Geral de Proteção de Dados (Lei 13.709/18) estabeleceu a categorização de dados relacionados à saúde como “sensíveis”, conferindo-lhes um status especial e resguardando a privacidade dessas informações. Essa classificação se aplica a qualquer dado capaz de identificar uma pessoa entre um grupo de indivíduos.

O artigo 5º, inciso II da referida lei define os tipos de dados sensíveis, abrangendo dados sobre origem racial ou étnica, convicção religiosa, opinião política, filiação a sindicato ou organização de cunho religioso, filosófico ou político, informações referentes à saúde ou vida sexual, dados genéticos ou biométricos, quando associados a uma pessoa.

É notável que a lei não apresenta uma lista fechada de categorias, o que significa que o escopo de dados sensíveis é amplo e abrangente.

Contudo, em um contexto de conjunto de pessoas, um dado sensível isolado por si só não seria suficiente para identificar alguém. A identificação ocorre quando esses dados são combinados com outros, como o CPF, por exemplo. Nesse caso, a anonimização deve ser aplicada para proteger a privacidade do indivíduo.

Dentro dos registros médicos, como prontuários, guias de internação, exames e receitas, há uma concentração significativa de dados sensíveis. O Conselho Federal de Medicina (CFM) estabeleceu regulamentações, como a Resolução 1.639/2002, seguidas pelas Resoluções 1821/2007 e 2.218/2018, para garantir a segurança e integridade dos prontuários eletrônicos dos pacientes.

Entretanto, mesmo com tais diretrizes, o compartilhamento desses dados requer o consentimento expresso do paciente. O artigo 7º da LGPD delimita as situações em que o tratamento de dados pessoais é permitido. Na área da saúde, destacam-se os casos de consentimento do titular, proteção da vida ou incolumidade física, tutela da saúde em procedimentos médicos, e interesses legítimos do controlador ou terceiros, desde que não sobreponham os direitos fundamentais do titular.

Para obter consentimento, é vital que o profissional de saúde explique ao titular de forma clara e compreensível quais dados serão coletados e como serão utilizados. No entanto, existem exceções em que o tratamento de dados sensíveis pode ocorrer mesmo sem o consentimento explícito do titular, como no cumprimento de obrigações legais, estudos de pesquisa com anonimização, proteção da vida ou saúde, entre outros.

A importância do consentimento em relação aos dados de saúde frequentemente é subestimada, em parte devido ao sigilo médico que protege essas informações. A LGPD, ao elevar os dados de saúde à categoria de dados sensíveis, aprimora a proteção da privacidade do paciente e promove sua autonomia ao exigir a adoção de práticas transparentes e confiáveis no tratamento desses dados.