Publicado em Deixe um comentário

WORLDCOIN: COLETA DE DADOS BIOMÉTRICOS E PROTEÇÃO DE DADOS

Em 2019, uma inovadora empresa no setor de inteligência artificial lançou um projeto ambicioso conhecido como Worldcoin. O objetivo principal deste projeto é coletar imagens digitais da íris das pessoas que consentem voluntariamente, oferecendo em troca um pagamento em criptomoedas equivalente a cerca de 70 euros. Este esforço tem sido implementado em vários países, inclusive na União Europeia, onde a legislação de proteção de dados pessoais é notoriamente rigorosa.

Diante das denúncias recebidas, a Autoridade de Proteção de Dados da Espanha iniciou uma investigação em fevereiro de 2024. Em março, foi emitida uma ordem cautelar para suspender as atividades de coleta e tratamento de dados pessoais da empresa no país, além de bloquear os dados já coletados. Estima-se que cerca de 400 mil pessoas tenham tido seus dados coletados.

A Lei Geral de Proteção de Dados (LGPD) do Brasil, fortemente inspirada no Regulamento Geral de Proteção de Dados (GDPR) da União Europeia, também prevê medidas semelhantes. Qualquer empresa que colete e trate dados pessoais no Brasil, expondo os titulares a riscos desproporcionais, está sujeita a medidas rigorosas, semelhantes às tomadas pela autoridade espanhola no caso do Worldcoin.

A empresa por trás do projeto Worldcoin afirma que todas as informações coletadas são anônimas e que os indivíduos mantêm controle sobre seus dados. No entanto, as denúncias dirigidas à Autoridade de Proteção de Dados da Espanha alegam insuficiência de informações fornecidas, coleta de dados de menores e impossibilidade de retirada do consentimento dado.

A imagem digital da íris é considerada um dado biométrico e recebe proteção especial tanto pelo GDPR quanto pela LGPD. Este tipo de dado é classificado como sensível devido ao elevado risco que seu tratamento representa para os direitos e liberdades dos titulares, incluindo a possibilidade de usurpação de identidade.

A decisão da autoridade espanhola, embora preliminar, foi tomada com base em circunstâncias excepcionais, sendo considerada necessária e proporcional como medida preventiva para evitar a cessão dos dados a terceiros e salvaguardar o direito fundamental à proteção de dados pessoais.

No Brasil, o direito à proteção de dados é também um direito fundamental, garantido pela Constituição Federal. As autoridades brasileiras, portanto, possuem um amplo espectro de medidas à disposição para proteger este direito.

A LGPD exige o consentimento do titular para o tratamento de dados biométricos, salvo em circunstâncias específicas. O consentimento deve ser livre, expresso, específico, inequívoco e informado. Qualquer consentimento obtido de forma viciada, mediante informações genéricas ou enganosas, é considerado nulo.

O Supremo Tribunal Federal (STF) já declarou que a permissão para tratamento de dados pessoais é uma relativização do direito fundamental à proteção de dados. Assim, a transparência e clareza das informações fornecidas para a obtenção do consentimento são essenciais para garantir que os titulares compreendam plenamente o uso de suas informações.

Além disso, mesmo que o tratamento de dados pessoais seja baseado em uma base legal, ele deve ser realizado dentro de uma atividade lícita. Se a atividade principal for ilícita, o tratamento de dados também será considerado ilícito, independentemente da base legal formal utilizada.

As regras da LGPD visam reduzir o desequilíbrio entre o agente de tratamento e o titular dos dados, exigindo lealdade, transparência e informação. A não observância desses princípios ou a ausência de fundamento legal desequilibra a relação e configura uma conduta abusiva.

No Brasil, qualquer empresa que atue de maneira semelhante ao projeto Worldcoin, coletando e tratando dados pessoais que possam colocar em risco os direitos e liberdades das pessoas, viola os fundamentos do regime de proteção de dados e o direito fundamental à proteção de dados. Consequentemente, está sujeita à fiscalização e repressão da Autoridade Nacional de Proteção de Dados (ANPD) e pode ter suas atividades suspensas judicialmente desde a fase de coleta, em ações propostas pelo Ministério Público ou outros legitimados para a Ação Civil Pública.

Publicado em Deixe um comentário

A INTERSEÇÃO ENTRE A INTELIGÊNCIA ARTIFICIAL E A PROTEÇÃO DE DADOS PESSOAIS NO BRASIL

À luz do inexorável avanço da Inteligência Artificial (IA) em todas as esferas da sociedade contemporânea, emerge como imperativo inadiável a reflexão profunda sobre a interseção deste avanço tecnológico com a salvaguarda dos dados pessoais. No Brasil, esta questão assume contornos particularmente significativos, dada a vigência da Lei Geral de Proteção de Dados (LGPD), promulgada em 2018. É imperioso, portanto, abordar este tema com a acuidade e o discernimento que a conjuntura demanda, sob a égide da responsabilidade e da ética que deve nortear a utilização de tão potente ferramenta.

Em consonância com o crescente influxo do internet das coisas na vida quotidiana dos brasileiros, constata-se que a digitalização da sociedade não é um fenômeno restrito a qualquer região específica, mas sim uma realidade global, impondo-se com igual vigor em terras brasileiras. A adoção da IA no Brasil, tal como noutros países da América Latina, vem demonstrando um crescimento exponencial, com implicações profundas não apenas no tecido econômico e social, mas também e sobretudo na esfera da privacidade e da proteção de dados.

A LGPD, enquanto arcabouço normativo que regula o tratamento de dados pessoais, tanto por entidades privadas quanto públicas, estabelece princípios e diretrizes essenciais para assegurar a privacidade dos dados dos cidadãos brasileiros. A legislação enfatiza a necessidade de consentimento expresso para a coleta e processamento de dados pessoais, além de estabelecer direitos claros para os titulares dos dados, tais como o direito de acesso, retificação e exclusão.

No entanto, a implementação efetiva da LGPD no contexto da IA apresenta desafios peculiares, em virtude da complexidade e da dinâmica próprias dos sistemas algorítmicos. Questões relativas à transparência dos algoritmos, ao potencial de vieses discriminatórios e à garantia de consentimento informado emergem como preocupações centrais, exigindo uma abordagem jurídica refinada e aprofundada.

Neste contexto, é imperativo que o desenvolvimento e a aplicação da IA no Brasil sejam conduzidos sob a égide de um marco regulatório robusto, que concilie o potencial inovador da tecnologia com a imperativa proteção dos direitos fundamentais. A esta luz, afigura-se essencial a atualização constante da legislação vigente, bem como a formulação de novas diretrizes que abordem especificamente as peculiaridades da IA.

A transparência dos processos algorítmicos, a implementação de avaliações de impacto relativas à proteção de dados e a adoção de práticas de governança de dados que assegurem a accountability são medidas que se impõem como fundamentais. Ademais, a educação e a sensibilização da população acerca dos direitos relativos à proteção de dados e dos riscos inerentes ao uso da IA constituem pilares indispensáveis para a construção de uma sociedade digitalmente madura e eticamente responsável.

O desafio que se coloca ao Brasil no que tange à interseção entre a IA e a proteção de dados pessoais não é trivial, demandando um esforço concertado tanto do poder público quanto da iniciativa privada e da sociedade civil. É mister que se caminhe na direção de um equilíbrio harmonioso entre inovação tecnológica e respeito aos direitos individuais, onde a ética e a transparência sejam os pilares que sustentam a adoção responsável e consciente da IA. Assim, o Brasil não só se manterá a par dos avanços globais em matéria de tecnologia e proteção de dados, como também se destacará como líder na promoção de uma sociedade digital justa, inclusiva e segura para todos os seus cidadãos.

Publicado em Deixe um comentário

DESAFIOS E ESTRATÉGIAS SOB A LGPD

A transformação digital tem redefinido o ambiente de negócios, trazendo inovações tecnológicas que facilitam o crescimento empresarial enquanto apresentam desafios inéditos, particularmente na gestão de informações. A vanguarda representada pela inteligência artificial ilustra essa mudança, democratizando a inovação para entidades de todos os tamanhos e sublinhando o valor dos dados como ativos que necessitam de uma proteção cuidadosa e atualizada.

Diante desse panorama, a Lei Geral de Proteção de Dados Pessoais (LGPD), com inspiração na General Data Protection Regulation (GDPR) europeia, surge como um pilar regulatório fundamental. Essa legislação destaca a urgência de proteger a privacidade e a liberdade individual, estabelecendo princípios claros para o processamento de dados pessoais por organizações diversas.

A ideia de que “dados são o novo petróleo”, sugerindo seu valor inestimável na era digital, ressalta a necessidade de proteger informações sensíveis que circulam no ambiente digital, desde transações online até interações em redes sociais e sistemas bancários. Estes dados, vulneráveis a riscos como fraudes e invasões digitais, demandam salvaguardas eficazes.

Neste contexto, a LGPD visa criar um ambiente de segurança jurídica, unificando normas para proteger as informações pessoais dos cidadãos. Esta lei não somente estabelece limites e direitos mas também reforça a confiança mútua através da transparência e da privacidade no manejo de dados.

Para atender às demandas da LGPD, as organizações precisam adotar uma política de transparência no tratamento de dados. Isso envolve assegurar a obtenção do consentimento dos usuários de maneira explícita, definir claramente os propósitos da coleta de dados, facilitar o acesso dos indivíduos às suas informações e nomear um responsável para facilitar a comunicação com a Autoridade Nacional de Proteção de Dados (ANPD).

Além das tecnologias envolvidas, o suporte jurídico se torna essencial. As empresas devem, portanto, examinar e atualizar suas políticas, procedimentos e ferramentas relacionadas ao tratamento de dados, implementando medidas de segurança avançadas e promovendo entre seus colaboradores a conscientização sobre a importância de aderir à LGPD.

A implementação da LGPD inaugura, assim, uma nova era na administração corporativa de informações, demandando a revisão de práticas vigentes e a adoção de estratégias que honrem tanto a legislação quanto a privacidade dos indivíduos. Em tal cenário, a proteção de dados transcende a obrigatoriedade legal, constituindo-se como um atributo valorizado que pode ampliar a confiança dos clientes e a solidez da marca.

Publicado em Deixe um comentário

IMPLICAÇÕES LEGAIS E ÉTICAS DO MONITORAMENTO FARMACÊUTICO

A questão da proteção de dados pessoais, especialmente no contexto das prescrições médicas, é uma área de crescente preocupação no âmbito da Lei Geral de Proteção de Dados (LGPD), Lei nº 13.709 de 2018, no Brasil. Informações contidas em prescrições médicas são consideradas dados pessoais sensíveis e estão sujeitas a uma rigorosa regulamentação legal para assegurar a privacidade e a segurança desses dados.

Recentemente, reportagens destacaram a prática de monitoramento de prescrições médicas pela indústria farmacêutica, sem o consentimento expresso dos médicos. Este monitoramento é realizado por meio da captura de dados de prescrições médicas, quando processadas em farmácias, por empresas especializadas que, posteriormente, vendem essas informações para indústrias farmacêuticas. A finalidade declarada dessa prática é influenciar as decisões de prescrição dos médicos, promovendo assim a venda de determinados medicamentos.

A LGPD define dados pessoais como qualquer informação relacionada a uma pessoa natural identificada ou identificável. A associação de uma prescrição médica com o nome e o registro profissional (CRM) do médico prescritor transforma essas informações em dados pessoais, sujeitos às normas de proteção estabelecidas pela LGPD. Para que o tratamento desses dados seja considerado lícito, deve haver uma base legal clara, além do cumprimento de princípios como finalidade, adequação, necessidade, transparência, e não discriminação.

Os médicos, como titulares dos dados, têm o direito de ser informados sobre a coleta, o uso e o compartilhamento de seus dados pessoais. Eles também devem ter acesso facilitado a essas informações e ser informados sobre a finalidade específica do tratamento de seus dados. A LGPD estabelece que qualquer uso dos dados pessoais que não esteja em conformidade com a finalidade originalmente declarada ou que não tenha base legal é proibido.

A prática de segmentação de médicos com base em especialidades e padrões de prescrição, com o objetivo de influenciar suas decisões, coloca em questão não apenas a conformidade legal, mas também a ética dessa abordagem. Esse tipo de influência pode potencialmente comprometer a autonomia do médico e a integridade do processo de decisão clínica, priorizando interesses comerciais em detrimento da escolha do tratamento mais adequado para o paciente.

A exposição desta prática de monitoramento ressalta a necessidade de uma aplicação da LGPD, com uma fiscalização efetiva e a aplicação de sanções apropriadas para violações. É importante reforçar o princípio da transparência e assegurar que tanto médicos quanto pacientes tenham controle e conhecimento sobre o uso de seus dados pessoais. A proteção de dados pessoais, especialmente em contextos sensíveis como o da saúde, é fundamental para preservar a confiança nas relações médico-paciente e na integridade do sistema de saúde.

Publicado em Deixe um comentário

DESAFIOS DA RESOLUÇÃO CONJUNTA Nº 6 DO BANCO CENTRAL: HARMONIZAÇÃO COM A LGPD

A partir de 1º de novembro, uma nova regulamentação do Banco Central (Bacen) entra em vigor, com o intuito de fortalecer a segurança nas transações financeiras. A Resolução Conjunta nº 6 do Bacen, publicada em conjunto com o Conselho Monetário Nacional (CMN), estabelece diretrizes para o compartilhamento de dados e informações relacionadas a indícios de fraudes entre instituições financeiras, empresas de pagamento e outras entidades autorizadas pelo Bacen.

Essa partilha de informações será efetuada por meio de um sistema eletrônico que permitirá o registro, modificação e consulta de dados e informações sobre indícios de fraudes identificadas durante as atividades dessas instituições. Isso se torna especialmente relevante devido ao fato de que bancos, fintechs, empresas de crédito e pagamento têm sido alvos frequentes de cibercriminosos, que utilizam táticas como manipulação de imagens, deepfake e fraudes de identidade facial e documental para acessar indevidamente aplicativos bancários. No ano passado, as perdas relacionadas a fraudes no sistema financeiro atingiram R$ 2,5 bilhões.

A resolução visa ampliar a visibilidade das instituições financeiras e demais atores do mercado sobre os perfis de maior risco em operações comerciais, contribuindo para o combate a fraudes.

Entretanto, surge uma questão relacionada ao Open Banking e à exigência de consentimento para inclusão na base de dados de combate à fraude. Aparentemente, isso pode entrar em conflito com a Lei Geral de Proteção de Dados (LGPD). No entanto, a LGPD prevê exceções à necessidade de consentimento em casos de obrigação legal, o que poderia ser aplicável a situações de prevenção à fraude. Nesse sentido, a resolução 6 do Bacen parece contrariar a LGPD ao exigir consentimento prévio e geral para o compartilhamento de dados com essa finalidade.

Para contornar essa incompatibilidade, sugere-se que as instituições mantenham documentação detalhada relacionada ao sistema de compartilhamento eletrônico, os dados compartilhados e os mecanismos de controle. Além disso, é crucial que as instituições esforcem-se para cumprir a legislação e regulamentação vigentes, respeitando o sigilo, a proteção de dados pessoais e a livre concorrência.

Diante dessas mudanças, as instituições financeiras devem estar preparadas para enfrentar desafios tecnológicos, fortalecer seus controles internos e melhorar sua resiliência cibernética, garantindo a proteção de ativos e interesses de seus stakeholders.

Publicado em Deixe um comentário

OS DESAFIOS DA PROPRIEDADE INTELECTUAL NA ERA DA IA: REFLEXÕES SOBRE A POLÍTICA DA REDE SOCIAL X

A rede social X, anteriormente conhecida como Twitter, recentemente introduziu uma nova política de privacidade que tem gerado um debate sobre a interseção entre propriedade intelectual e plataformas digitais. Essa política estabelece que os dados compartilhados pelos usuários serão utilizados para o treinamento de modelos de inteligência artificial (IA). Em outras palavras, criações intelectuais e artísticas humanas, incluindo direitos autorais, marcas e patentes, passam a estar à disposição da nona maior rede social do mundo, que possui 556 milhões de usuários.

A implementação dessa nova política representa um risco real de desvalorização da criatividade. Se as plataformas podem empregar o conteúdo dos usuários para aprimorar seus modelos de IA sem compensação adequada, é natural que os criadores se sintam desencorajados a produzir e compartilhar suas obras. Afinal, por que investir tempo e energia na criação de algo original se isso será usado para enriquecer terceiros sem nenhum benefício tangível para o criador?

Quando um usuário decide ingressar em uma rede social, é confrontado com os termos de serviço e, na maioria das vezes, os aceita sem uma leitura cuidadosa. Ao fazer isso, ele concede uma licença gratuita e não exclusiva para o uso do conteúdo que irá produzir. Geralmente, essa permissão se limita à operação, promoção e melhoria dos serviços oferecidos pela própria plataforma. A questão que emerge agora é a extensão dessa licença.

No Brasil, a LGPD está em vigor desde setembro de 2020, regulando a proteção de dados pessoais em meios físicos e digitais. A LGPD define dados pessoais como qualquer informação relacionada a uma pessoa identificada ou identificável e destaca a importância do consentimento do titular dos dados para o tratamento dessas informações.

Além do Brasil, países como Japão, Argentina e os Estados-membros da União Europeia têm suas próprias leis de proteção de dados pessoais. A mudança nos termos da rede social X é global, o que implica que cada jurisdição deve examinar como as questões normativas se aplicam em sua área geográfica. Por exemplo, o Regulamento Geral de Proteção de Dados (GDPR) da União Europeia estabelece padrões rigorosos para a proteção da privacidade e impõe penalidades substanciais por violações. Tanto a LGPD quanto o GDPR enfatizam o consentimento informado e a transparência no tratamento de dados.

Embora os termos de uso frequentemente concedam amplas licenças às plataformas, a expansão dessas licenças para incluir o treinamento de IA pode ultrapassar o que foi originalmente acordado ou mesmo o que é ético.

É importante considerar que os modelos de IA podem, em certa medida, reproduzir o conteúdo original em seus resultados, levando a preocupações sobre a apropriação não autorizada. Esse é um terreno legal que está apenas começando a ser explorado, mas as bases estão lançadas.

Criadores e defensores dos direitos de propriedade intelectual devem estar cientes de que as implicações da nova política da rede social X são apenas a superfície de um problema maior. Por outro lado, advogados especializados em propriedade intelectual têm o dever de esclarecer esse caminho e proteger os direitos fundamentais dos indivíduos.

As plataformas online também enfrentam o desafio de encontrar soluções que atendam tanto aos interesses dos criadores de conteúdo quanto à privacidade e segurança dos usuários. À medida que a IA se torna cada vez mais presente em nossas vidas, a proteção adequada da propriedade intelectual se torna necessária. A rede social X lançou um alerta importante para uma questão urgente.

A comunidade global deve se unir para garantir que o avanço tecnológico não seja alcançado às custas dos direitos fundamentais dos indivíduos. É essencial que as redes sociais reavaliem suas políticas, garantindo que os direitos dos criadores sejam protegidos e respeitados. Simultaneamente, os usuários precisam estar cientes de seus direitos e das licenças que estão concedendo às plataformas.

Publicado em Deixe um comentário

BIOMETRIA FACIAL: ENTRE A MODERNIZAÇÃO E A PROTEÇÃO DA PRIVACIDADE EM GRANDES EVENTOS

O Projeto de Lei nº 2.745/2023, recentemente aprovado pela Comissão de Segurança Pública da Câmara dos Deputados, traça diretrizes necessárias para a implementação de sistemas de reconhecimento facial em estádios de futebol. Este avanço na tecnologia biométrica está transformando a forma como abordamos segurança e controle de acesso, não apenas em eventos esportivos, mas também em diversos setores, incluindo condomínios.

De acordo com o texto aprovado, a adoção de sistemas de reconhecimento facial nos estádios será opcional, ficando a cargo das entidades públicas e privadas responsáveis pelo evento a decisão de utilizá-lo. Importante destacar que o tratamento e o compartilhamento dos dados biométricos devem estar em conformidade com a Lei Geral de Proteção de Dados (LGPD). Além disso, o uso de reconhecimento facial não será permitido em áreas onde a privacidade dos torcedores ou jogadores deve ser preservada, como banheiros, vestiários e refeitórios.

Sob a perspectiva da Lei de Proteção de Dados Pessoais (LPDG), é essencial compreender a implementação dessa tecnologia e o tratamento das informações dos indivíduos. Há um debate em curso, especialmente sobre a possibilidade de substituição completa de métodos tradicionais.

Tomando como exemplo o Allianz Parque, o registro facial se tornou obrigatório para a compra de ingressos e acesso ao estádio, inclusive para crianças e adolescentes, eliminando a opção de compra física. O Idec (Instituto de Defesa do Consumidor) argumenta que é desproporcional impor o uso exclusivo de dados biométricos como meio de acesso, defendendo a disponibilização de alternativas.

A agilidade na entrada em eventos esportivos e condomínios é uma das principais vantagens do reconhecimento facial, além do combate ao cambismo e o aumento da segurança, particularmente na identificação de responsáveis por atos de vandalismo e crimes. Entretanto, questões éticas e relacionadas à proteção de dados pessoais surgem, dado que os dados biométricos são considerados sensíveis, exigindo o consentimento livre e expresso dos usuários.

Um ponto importante a ser considerado é que os algoritmos de inteligência artificial não possuem sensibilidade humana e podem aprender de maneira equivocada a partir de dados mal coletados ou mal interpretados. Isso pode levar a análises preconceituosas ou imprecisas, ressaltando a importância de garantir que suspeitos não sejam apontados unicamente com base em características físicas.

Embora a tecnologia prometa modernizar e aprimorar o acesso em estádios de futebol, eventos esportivos e condomínios, as organizações responsáveis devem assegurar que as informações faciais coletadas sejam tratadas de maneira ética e segura. O consentimento explícito das pessoas, a transparência sobre o uso dos dados e a consideração de alternativas para aqueles que não desejam compartilhar seus dados são passos essenciais para garantir que a tecnologia beneficie a todos, sem comprometer a privacidade e a segurança.

Publicado em Deixe um comentário

LGPD E DADOS DE SAÚDE: EXPLORANDO AS IMPLICAÇÕES NA PRIVACIDADE DO PACIENTE

A Lei Geral de Proteção de Dados (Lei 13.709/18) estabeleceu a categorização de dados relacionados à saúde como “sensíveis”, conferindo-lhes um status especial e resguardando a privacidade dessas informações. Essa classificação se aplica a qualquer dado capaz de identificar uma pessoa entre um grupo de indivíduos.

O artigo 5º, inciso II da referida lei define os tipos de dados sensíveis, abrangendo dados sobre origem racial ou étnica, convicção religiosa, opinião política, filiação a sindicato ou organização de cunho religioso, filosófico ou político, informações referentes à saúde ou vida sexual, dados genéticos ou biométricos, quando associados a uma pessoa.

É notável que a lei não apresenta uma lista fechada de categorias, o que significa que o escopo de dados sensíveis é amplo e abrangente.

Contudo, em um contexto de conjunto de pessoas, um dado sensível isolado por si só não seria suficiente para identificar alguém. A identificação ocorre quando esses dados são combinados com outros, como o CPF, por exemplo. Nesse caso, a anonimização deve ser aplicada para proteger a privacidade do indivíduo.

Dentro dos registros médicos, como prontuários, guias de internação, exames e receitas, há uma concentração significativa de dados sensíveis. O Conselho Federal de Medicina (CFM) estabeleceu regulamentações, como a Resolução 1.639/2002, seguidas pelas Resoluções 1821/2007 e 2.218/2018, para garantir a segurança e integridade dos prontuários eletrônicos dos pacientes.

Entretanto, mesmo com tais diretrizes, o compartilhamento desses dados requer o consentimento expresso do paciente. O artigo 7º da LGPD delimita as situações em que o tratamento de dados pessoais é permitido. Na área da saúde, destacam-se os casos de consentimento do titular, proteção da vida ou incolumidade física, tutela da saúde em procedimentos médicos, e interesses legítimos do controlador ou terceiros, desde que não sobreponham os direitos fundamentais do titular.

Para obter consentimento, é vital que o profissional de saúde explique ao titular de forma clara e compreensível quais dados serão coletados e como serão utilizados. No entanto, existem exceções em que o tratamento de dados sensíveis pode ocorrer mesmo sem o consentimento explícito do titular, como no cumprimento de obrigações legais, estudos de pesquisa com anonimização, proteção da vida ou saúde, entre outros.

A importância do consentimento em relação aos dados de saúde frequentemente é subestimada, em parte devido ao sigilo médico que protege essas informações. A LGPD, ao elevar os dados de saúde à categoria de dados sensíveis, aprimora a proteção da privacidade do paciente e promove sua autonomia ao exigir a adoção de práticas transparentes e confiáveis no tratamento desses dados.