Publicado em

O PAPEL DO ENCARREGADO DE DADOS NA CONFORMIDADE E NO USO RESPONSÁVEL DA INTELIGÊNCIA ARTIFICIAL

O debate sobre a regulação da inteligência artificial (IA) no Brasil ganhou novo fôlego com o Projeto de Lei nº 2.338/2023, que busca alinhar o desenvolvimento tecnológico à centralidade da pessoa humana. Entre os pontos de maior destaque está a atribuição à Autoridade Nacional de Proteção de Dados (ANPD) da coordenação do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), consolidando seu papel como referência regulatória.

O ecossistema regulatório da IA

De acordo com o projeto, o SIA deverá funcionar como um ambiente de cooperação entre autoridades setoriais, órgãos reguladores e outros sistemas nacionais, sem subordinação hierárquica, mas com a finalidade de garantir uniformidade e segurança jurídica. A lógica repete, em parte, o que a própria LGPD já previu ao designar a ANPD como autoridade central em proteção de dados.

Paralelo com a LGPD e programas de governança

A comparação com a LGPD é inevitável. O artigo 50 da lei estabelece diretrizes de boas práticas e programas de governança em privacidade, exigindo de controladores e operadores medidas para demonstrar compromisso com a proteção de dados. A Resolução CD/ANPD nº 18/2024 reforça esse ponto, ao incumbir o encarregado de dados da função de apoiar e orientar os agentes de tratamento na implementação dessas práticas.

Embora não seja responsável direto pela conformidade, o encarregado desempenha papel estratégico, prestando assistência em decisões organizacionais e ajudando a estruturar uma cultura de governança. Esse modelo encontra respaldo no Regulamento Europeu (GDPR), no qual o encarregado também atua como figura de controle, sem responsabilidade legal direta, mas com relevância prática para a conformidade.

Possíveis funções do encarregado frente à IA

O Projeto de Lei nº 2.338/2023 não prevê, até o momento, uma figura equivalente ao encarregado da LGPD para os agentes de inteligência artificial. No entanto, ao exigir que desenvolvedores e aplicadores de IA adotem programas de governança e mecanismos de autorregulação, abre espaço para que profissionais já envolvidos na governança de dados assumam protagonismo também na conformidade da IA.

Assim como ocorre no tratamento de dados pessoais, a contribuição do encarregado pode se mostrar valiosa na orientação interna, na prevenção de riscos e na harmonização de práticas éticas. O Guia Orientativo da ANPD publicado em 2024 deixa claro que a função é de assessoria estratégica, sem competência decisória, mas com responsabilidade de apoiar processos multidisciplinares para garantir a proteção de direitos fundamentais.

Governança integrada: dados e inteligência artificial

A transição para um ambiente regulatório que abrange tanto a proteção de dados quanto a governança da inteligência artificial tende a reforçar o papel do encarregado como profissional de referência. Para além da LGPD, sua atuação pode se expandir para a supervisão ética e técnica do uso de sistemas de IA, especialmente quando esses sistemas dependem do tratamento massivo de dados pessoais.

Ao unir ética, independência técnica e responsabilidade institucional, esse profissional poderá consolidar-se como elo de confiança entre organizações, reguladores e sociedade, contribuindo para a construção de um ecossistema regulatório mais robusto e responsável no Brasil.

Publicado em

LGPD, DIPLOMACIA DIGITAL E O DESAFIO DAS TRANSFERÊNCIAS INTERNACIONAIS DE DADOS

A revolução digital deste século, marcada pela massificação da internet e pela circulação de informações em escala nunca vista, inaugurou uma nova ordem jurídica para a proteção da privacidade. Os dados pessoais passaram a ser compreendidos como ativos estratégicos, comparados ao “novo petróleo”, exigindo normas específicas para equilibrar inovação tecnológica, segurança e direitos fundamentais.

Foi nesse contexto que surgiram legislações como o Regulamento Europeu de Proteção de Dados (GDPR), em vigor desde 2018, e a Lei Geral de Proteção de Dados (LGPD) no Brasil, que entrou em plena aplicação em 2020. Ambas compartilham a missão de proteger liberdades individuais e assegurar tratamento responsável de dados pessoais, estabelecendo padrões que influenciam empresas em todo o mundo.

Um levantamento recente da International Association of Privacy Professionals aponta que 144 países já contam com normas nacionais de proteção de dados. Isso significa que mais de 6,6 bilhões de pessoas — aproximadamente 82% da população mundial — estão hoje abrangidas por algum tipo de legislação sobre o tema.

Transferências internacionais e soberania regulatória

A LGPD trouxe diretrizes rigorosas para a transferência de dados pessoais ao exterior. Tais fluxos somente são permitidos se o país de destino demonstrar nível de proteção equivalente ao brasileiro ou se forem adotadas salvaguardas específicas, como cláusulas contratuais padrão, regras corporativas globais ou certificações.

Em 2024, a Autoridade Nacional de Proteção de Dados (ANPD) editou resolução que define os critérios de “nível adequado de proteção” e estruturou mecanismos legais para validar transferências internacionais. Trata-se de um movimento alinhado ao que a legislação europeia também exige, ao condicionar a exportação de dados a garantias sólidas de conformidade.

Pressões comerciais dos Estados Unidos

O debate ganhou contornos geopolíticos com a decisão recente do governo norte-americano de instaurar investigação formal contra o Brasil, com base na Seção 301 da Lei de Comércio de 1974. O argumento central é de que a legislação brasileira seria restritiva em excesso, dificultando a livre circulação de dados para os Estados Unidos e impondo barreiras a empresas daquele país.

Para Washington, os requisitos da LGPD podem atrapalhar operações comerciais rotineiras, inviabilizando a prestação de serviços a partir de servidores próprios e comprometendo a integração transfronteiriça. O embate revela como a proteção de dados ultrapassa as fronteiras da privacidade e passa a ocupar espaço estratégico no comércio internacional.

Contrastes com a União Europeia

A situação chama atenção especialmente quando se observa que Estados Unidos e União Europeia assinaram, em 2023, um novo acordo de transferência de dados — o Data Privacy Framework — com o objetivo de restaurar a segurança jurídica para fluxos transatlânticos.

Entretanto, a regulação norte-americana permanece fragmentada e setorial, sem a existência de uma lei federal geral de proteção de dados. Essa ausência cria dificuldades para que outros países reconheçam equivalência de padrões, em especial aqueles que se inspiraram no modelo europeu, como o Brasil.

Desafios e perspectivas

A disciplina sobre transferências internacionais de dados cumpre papel estratégico: preserva a privacidade dos cidadãos, fortalece a soberania normativa e cria previsibilidade para empresas globais. Ao mesmo tempo, estimula a elevação de padrões internacionais e consolida um ambiente digital mais seguro e confiável.

A atuação da ANPD, nesse contexto, tem buscado construir um equilíbrio entre segurança jurídica e valores democráticos, reforçando a ideia de que a regulação de dados não é apenas uma questão técnica, mas também de política pública e diplomacia econômica.

A história do direito ensina que a cada transformação social e tecnológica surgem novas demandas de proteção. Hoje, o desafio é ajustar a legislação ao ritmo das inovações digitais, sem perder de vista a defesa da dignidade humana. O direito da privacidade, que já foi redefinido tantas vezes ao longo dos séculos, continua a se expandir para responder às exigências de um mundo hiperconectado.

Publicado em

A VIRADA NO REGIME JURÍDICO DA RESPONSABILIDADE DAS PLATAFORMAS DIGITAIS NO BRASIL

A recente decisão do Supremo Tribunal Federal que declarou a inconstitucionalidade parcial do artigo 19 do Marco Civil da Internet inaugura uma etapa de forte impacto no modo como o país lidará com a moderação de conteúdos digitais. Ainda sem a publicação do acórdão, paira considerável incerteza quanto à extensão prática da tese fixada, mas já é evidente que a lógica estabelecida até então sofreu um redirecionamento.

Desde sua origem, o Marco Civil buscava reproduzir um equilíbrio inspirado no modelo norte-americano do safe harbor, estabelecendo que as plataformas só responderiam por conteúdos ilícitos de terceiros mediante descumprimento de ordem judicial. Antes disso, vigorava a lógica da notificação extrajudicial, que transferia às empresas a responsabilidade de avaliar a legalidade de publicações.

O que agora se anuncia é uma inflexão: embora para crimes contra a honra ainda seja exigida decisão judicial, nos casos de delitos mais graves — como pornografia infantil, crimes de ódio, terrorismo e violência contra a mulher — passa a existir um dever imediato de remoção, sem necessidade de ordem judicial. O descumprimento desses deveres será interpretado como “falha sistêmica” na moderação, conceito que abre caminho para a responsabilização civil das plataformas.

Essa mudança aproxima o Brasil de modelos regulatórios europeus. Em países como a Alemanha, a Lei NetzDG, em vigor desde 2018, impõe a remoção de conteúdos “obviamente ilegais” em até 24 horas após denúncia, com prazos maiores para casos mais complexos. Além disso, exige relatórios de transparência, canais de denúncia acessíveis e representantes locais das plataformas. O não cumprimento pode resultar em multas milionárias.

A experiência alemã revelou avanços e dificuldades. O aumento expressivo de denúncias contrasta com uma taxa relativamente baixa de remoções efetivas, demonstrando a complexidade de identificar violações diante do volume massivo de conteúdo. A isso se soma o risco de overblocking, quando empresas retiram publicações preventivamente para evitar punições, restringindo indevidamente a liberdade de expressão.

Mais recentemente, a União Europeia consolidou no Digital Services Act (DSA) um modelo mais abrangente, impondo obrigações de transparência, auditorias independentes e avaliações periódicas de riscos sistêmicos, como disseminação de desinformação ou ameaças eleitorais. O DSA ainda diferencia responsabilidades de acordo com o porte e o tipo de plataforma, buscando maior proporcionalidade regulatória.

No Brasil, a aplicação da tese do Supremo demandará das empresas políticas internas consistentes, treinamento especializado e adoção de tecnologias avançadas de monitoramento e análise. Não se trata apenas de atender às exigências legais, mas também de preservar a confiança dos usuários e a integridade do debate público.

O grande desafio será traduzir tipos penais em protocolos objetivos, capazes de guiar a atuação de moderadores e sistemas automatizados, sem cair no risco de transferir integralmente às plataformas o papel de julgadoras — algo que sempre motivou cautela no modelo do Marco Civil.

O momento exige, portanto, um redesenho cuidadoso das práticas de moderação, em diálogo com referências estrangeiras, mas respeitando os fundamentos constitucionais locais. A construção de um ambiente digital que combine liberdade de expressão com a proteção contra abusos dependerá da capacidade de integrar soluções jurídicas, técnicas e éticas, capazes de evitar a chamada “falha sistêmica” e promover um espaço digital mais seguro e plural.

Publicado em

CINCO ANOS DA LGPD: PRIVACIDADE CONSOLIDADA E NOVOS DESAFIOS PARA A RESPONSABILIDADE DIGITAL

A Lei Geral de Proteção de Dados Pessoais completou cinco anos de vigência e já se firmou como um dos pilares do ambiente digital brasileiro. Sua importância vai além do cumprimento de requisitos técnicos: trata-se de um marco jurídico que institucionalizou o direito à privacidade em um país onde o tratamento de dados pessoais, até então, ocorria de forma difusa, sem diretrizes claras e com escassa fiscalização.

A evolução da cultura de proteção de dados

A criação da Autoridade Nacional de Proteção de Dados (ANPD), a inclusão da proteção de dados no rol de direitos fundamentais e a adoção de práticas de governança como relatórios de impacto e mapeamentos de dados demonstram a maturidade adquirida nesse período. Grandes organizações incorporaram a privacidade às suas estratégias de negócios, e mesmo que órgãos públicos e pequenas empresas ainda enfrentem limitações estruturais, a pauta começa a se expandir para além do setor corporativo.

Responsabilidade ampliada das plataformas digitais

A recente decisão do Supremo Tribunal Federal que atribui responsabilidade às plataformas digitais por conteúdos ilícitos publicados por terceiros representa um desdobramento natural dessa lógica. Embora a discussão esteja centrada na esfera da liberdade de expressão, não se pode ignorar que a exigência de uma postura ativa das empresas na moderação de conteúdo dialoga diretamente com princípios centrais da LGPD, como responsabilidade, segurança e prevenção. O antigo modelo de inércia das plataformas cede lugar a uma exigência de diligência.

Entre avanços e desafios

Se, no início, a LGPD foi vista como entrave burocrático, hoje está claro que se trata de uma infraestrutura regulatória essencial para o funcionamento ético da economia digital. Ainda assim, os obstáculos permanecem. O risco de remoções preventivas excessivas e a possibilidade de comprometer a liberdade de expressão exigem que a ANPD atue em harmonia com o Judiciário, assegurando equilíbrio na aplicação das normas.

Outro desafio evidente é a desigualdade de maturidade entre setores. Enquanto corporações estruturaram departamentos inteiros de compliance digital, microempresas e entidades públicas ainda sofrem com a falta de recursos técnicos e humanos. A tentativa de simplificação normativa, como a trazida pela Resolução nº 15/2024, é relevante, mas insuficiente diante da dimensão dos problemas.

Perspectivas para o futuro

A lei brasileira segue em convergência com normas internacionais, sobretudo com a legislação europeia, e já compartilha pontos como bases legais, alcance extraterritorial e garantias de direitos aos titulares. No entanto, há espaço para evoluir na regulação de algoritmos, na harmonização com outros regimes jurídicos e na definição de prazos e procedimentos mais claros para incidentes de segurança.

Os cinco anos da LGPD confirmam que a proteção de dados não é mais uma pauta acessória, mas parte da estrutura essencial da vida digital. A responsabilização das plataformas digitais é apenas um reflexo desse novo padrão, no qual privacidade, transparência e segurança passaram a integrar a própria lógica das interações online. Proteger dados significa, ao mesmo tempo, resguardar direitos individuais, prevenir abusos e fortalecer as bases de confiança necessárias à democracia no espaço digital.

Publicado em

A EVOLUÇÃO DO DIREITO DIGITAL E A DEFESA DA PRIVACIDADE NO MUNDO TECNOLÓGICO

Na atual era digital, a proteção da privacidade se tornou um tema de grande relevância para o Direito. Com a utilização extensiva de dados pessoais por organizações, governos e até dispositivos conectados, como os da Internet das Coisas (IoT), a questão da proteção de dados deixou de ser uma simples questão técnica e passou a ser reconhecida como um direito fundamental dos indivíduos.

A legislação evoluiu significativamente, com a criação de leis como a Lei Geral de Proteção de Dados (LGPD) no Brasil e o Regulamento Geral de Proteção de Dados (GDPR) na Europa. Essas normativas estabeleceram novos parâmetros sobre como as empresas devem tratar as informações pessoais, impondo obrigações de consentimento, acesso, exclusão e até a portabilidade de dados. O Direito Digital tem se adaptado para garantir maior transparência, segurança e responsabilidade no uso dessas informações.

A proteção dos dados pessoais foi reconhecida como um direito autônomo, reforçando a necessidade de um controle cuidadoso sobre o uso de tecnologias como algoritmos, inteligência artificial e grandes volumes de dados (big data). A inovação tecnológica deve, portanto, caminhar lado a lado com a preservação da dignidade da pessoa humana.

Entretanto, o avanço rápido das tecnologias digitais traz desafios para a regulamentação. O uso de tecnologias como biometria, reconhecimento facial, criptografia e a aplicação de IA em decisões automáticas exige um acompanhamento regulatório constante, para prevenir abusos e discriminação, além de proteger a privacidade e evitar o vazamento de dados.

O papel do profissional do Direito Digital vai além da interpretação das normas. É fundamental que este entenda o funcionamento das tecnologias, dialogando com especialistas de outras áreas, como TI, para garantir que a privacidade seja tratada de maneira central. A proteção de dados não deve ser vista apenas como uma questão individual, mas como um pilar essencial para a confiança nas relações sociais e econômicas de uma sociedade cada vez mais conectada.

Publicado em

REFORMA DO CÓDIGO CIVIL: PROTEÇÃO DE DIREITOS NA ERA DIGITAL E NEURODIREITOS

A reforma do Código Civil em curso deve priorizar a proteção dos direitos fundamentais no ambiente digital, além de criar diretrizes específicas para a herança digital, uma nova realidade para quem perde entes queridos com presença significativa online. Outro ponto relevante é a regulamentação das neurotecnologias, cujas influências comportamentais têm levantado sérias preocupações. Essas mudanças refletem a urgência em adaptar o Direito aos desafios de uma sociedade cada vez mais tecnológica e interconectada.

Um dos focos da discussão foi como o Código Civil, tradicionalmente lento na adaptação, deve acompanhar a rapidez das inovações digitais para evitar e atenuar conflitos antes mesmo de sua eclosão. A tecnologia, que impulsiona o contato e a comunicação em tempo real, agora traz novas preocupações, incluindo as mudanças climáticas e a possibilidade de manipulação comportamental por grandes empresas.

No anteprojeto de reforma, um livro específico para o Direito Digital foi incluído, tratando, entre outros temas, da responsabilidade das grandes plataformas online. A proposta visa impedir que essas empresas induzam comportamentos ou escolhas de maneira imperceptível e proteger a privacidade e a autonomia dos usuários no ambiente digital. Nesse contexto, o conceito de neurodireitos surge como uma barreira a práticas potencialmente invasivas, limitando o uso de tecnologias que possam monitorar, registrar ou mesmo modificar atividades cerebrais. A proposta garante proteção contra alterações não autorizadas na atividade neural e previne práticas discriminatórias com base em dados cerebrais, assegurando que essas tecnologias permaneçam neutras e éticas.

Outro ponto de destaque é a herança digital. A presença de bens digitais, como contas e dispositivos pessoais, tem gerado disputas quanto ao acesso de familiares ao patrimônio digital de quem já faleceu. Embora recentes decisões judiciais reconheçam o direito dos familiares a esses dados, ainda persiste o questionamento: estamos prontos para que todo nosso histórico digital se torne acessível após nossa morte? A regulamentação da herança digital, portanto, surge como essencial, oferecendo critérios claros para o acesso e o uso de bens digitais e garantindo que os direitos de privacidade sejam respeitados até mesmo postumamente.

Esses pontos da reforma buscam alinhar o Direito às complexidades atuais, defendendo a autonomia e a privacidade de cada indivíduo em um mundo onde a tecnologia desafia constantemente as fronteiras legais e éticas.

Publicado em

O IMPACTO DA DIVULGAÇÃO INDEVIDA DE INFORMAÇÕES SENSÍVEIS NO AMBIENTE DIGITAL

Uma ação indenizatória foi movida contra o Estado da Bahia e uma conhecida plataforma de divulgação de conteúdo jurídico, sob a alegação de violação do direito ao sigilo de informações sensíveis sobre a saúde do autor. O caso gira em torno da divulgação indevida de um processo judicial sigiloso, envolvendo uma pessoa vivendo com HIV, cujos detalhes acabaram expostos publicamente na plataforma.

Os advogados do autor destacaram a gravidade do ocorrido, argumentando que ele, já vítima de discriminação relacionada à sua condição de saúde, sofreu uma nova violação com a exposição de dados pessoais. A situação trouxe à tona a discussão sobre a importância da proteção de dados sensíveis, especialmente no ambiente digital, onde informações podem ser disseminadas com grande rapidez e alcance.

A defesa do autor foi fundamentada na Constituição Federal, que, em seu artigo 5º, LXXIX, garante o direito fundamental à proteção de dados pessoais, inclusive nos meios digitais. A Lei Geral de Proteção de Dados (LGPD) também foi utilizada como base, com foco no artigo 11, que restringe o tratamento de dados sensíveis, prevendo sua utilização apenas em hipóteses específicas e com medidas adequadas para evitar danos ao titular.

A plataforma envolvida não comentou o caso específico, devido ao sigilo judicial, mas reforçou que adota medidas contínuas para garantir que conteúdos sigilosos não sejam indexados. Além disso, mantém um canal de comunicação direta com os usuários para tratar de possíveis violações de privacidade, buscando assegurar a proteção dos envolvidos.

É importante destacar a complexidade da exposição indevida de dados pessoais e a urgência em assegurar a privacidade, especialmente em casos judiciais que tratam de questões de saúde ou outras informações sensíveis. A quebra de sigilo pode gerar prejuízos irreversíveis, agravando a situação de indivíduos que já são alvo de preconceitos sociais.

Publicado em

A SUPREMA ARTE DE RELATIVIZAR DIREITOS FUNDAMENTAIS

A recente decisão do Supremo Tribunal Federal (STF), que julgou constitucional o acesso a dados cadastrais por parte de autoridades policiais e do Ministério Público sem a necessidade de autorização judicial, marca um ponto crítico na fragilização das garantias constitucionais de privacidade e proteção de dados pessoais. Com esse entendimento, o STF não só relativiza direitos fundamentais, como também negligência os precedentes que a própria Corte havia estabelecido em julgamentos anteriores. Sob a justificativa de combater crimes como a lavagem de dinheiro, a Corte colocou em risco uma das maiores conquistas da Constituição de 1988: a proteção da intimidade e dos dados pessoais como direitos inalienáveis.

O Contexto da ADI 4906 e o Perigo do Acesso Indiscriminado

A Ação Direta de Inconstitucionalidade (ADI) 4906 foi protocolada em 01 de fevereiro de 2013 pela Associação Brasileira de Concessionárias de Serviço Telefônico Fixo Comutado (ABRAFIX), que questionava a constitucionalidade do art. 17-B da Lei nº 9.613/1998. Esse dispositivo permite que autoridades policiais e o Ministério Público requisitem, sem necessidade de ordem judicial, dados cadastrais básicos (qualificação pessoal, filiação e endereço) de pessoas investigadas por crimes graves, como a lavagem de dinheiro.

Desde o início, a ação trazia à tona um debate profundo sobre a necessidade de equilibrar os poderes investigativos do Estado e a proteção dos direitos individuais, em especial, a privacidade. Em 03 de fevereiro de 2014, o Supremo admitiu a Associação Nacional dos Delegados de Polícia Federal (ADPF) como amicus curiae, permitindo que ela sustentasse seus argumentos a favor da manutenção da norma que possibilitava o acesso irrestrito aos dados cadastrais.

Contudo, o verdadeiro choque veio com a suspensão do julgamento em 05 de julho de 2023. Com votos de ministros como Gilmar Mendes, Edson Fachin, Dias Toffoli e Rosa Weber, que defendiam a parcial procedência da ação, limitando o acesso aos dados estritamente necessários — qualificação pessoal, filiação e endereço — o julgamento foi suspenso para aguardar o voto do novo ministro. A decisão final, proferida em 11 de setembro de 2024, foi um golpe na proteção dos direitos fundamentais, uma vez que a maioria dos ministros julgou improcedente o pedido da ação e manteve a constitucionalidade do dispositivo, permitindo o acesso aos dados sem supervisão judicial.

Incoerência Constitucional: Uma Contradição com Precedentes Recentes

Um dos pontos mais críticos dessa decisão é a incoerência com precedentes anteriormente firmados pelo próprio STF. Em 2020, a Corte suspendeu a Medida Provisória 954/20, que previa o compartilhamento de dados de usuários de telecomunicações com o IBGE para fins estatísticos durante a pandemia de COVID-19. Na ocasião, a Corte foi rigorosa ao destacar que o compartilhamento de dados sem salvaguardas adequadas violaria os direitos à privacidade e à proteção de dados. O então ministro Alexandre de Moraes foi enfático ao apontar a violação da intimidade e vida privada, estabelecendo que a relativização de direitos fundamentais deve seguir estritos princípios de razoabilidade e proporcionalidade.

Por que, então, o STF seguiu caminho diferente na ADI 4906? É grave subestimar a relevância dos dados cadastrais na era digital. O acesso indiscriminado a informações como nome, endereço e filiação pode ser o ponto de partida para práticas de vigilância estatal indevida, abrindo brechas para abusos e violando garantias constitucionais.

Autodeterminação Informativa: Um Direito Fundamental Ignorado

Desde a decisão de 2020 sobre a MP 954/20, o STF já havia reconhecido o direito à autodeterminação informativa como um direito fundamental autônomo, derivado dos direitos à privacidade e à dignidade humana, conforme o artigo 5º, incisos X e LXXIX da Constituição. Esse direito se traduz na capacidade do indivíduo de controlar suas próprias informações, decidindo como e por quem elas podem ser acessadas. A autodeterminação informativa é um conceito crucial em um mundo cada vez mais digitalizado, onde o controle sobre dados pessoais é sinônimo de liberdade.

Ao permitir o acesso a dados cadastrais sem a devida autorização judicial, o STF enfraquece a autodeterminação informativa, criando uma perigosa exceção à regra constitucional. Dados cadastrais podem parecer superficiais, mas quando cruzados com outras informações, permitem a construção de perfis detalhados e a vigilância contínua de indivíduos, comprometendo a privacidade e, por extensão, a dignidade humana. É inadmissível que o tribunal ignore essa realidade.

A LGPD e o Marco Civil da Internet: Proteções Ignoradas

A Lei Geral de Proteção de Dados (LGPD) e o Marco Civil da Internet estabelecem proteções rigorosas para o tratamento de dados pessoais. A LGPD, em especial, delineia princípios como finalidade, transparência, necessidade e segurança no tratamento de dados, exigindo que o acesso a informações pessoais tenha uma justificativa legal robusta. O acesso indiscriminado a dados cadastrais, sem supervisão judicial, é um flagrante desrespeito aos princípios da LGPD. A lei foi criada exatamente para evitar que o Estado ou entidades privadas usem dados pessoais de maneira arbitrária ou desproporcional.

O Marco Civil da Internet, por sua vez, reforça a proteção dos dados pessoais, limitando o acesso a essas informações sem autorização judicial. Portanto, ao declarar constitucional o acesso aos dados cadastrais sem supervisão, o STF ignorou esses marcos legais que foram instituídos precisamente para proteger a privacidade dos cidadãos.

O Perigo da Relativização dos Direitos Fundamentais

Relativizar direitos fundamentais em nome da segurança pública é um caminho perigoso. O combate à criminalidade não pode ser utilizado como pretexto para a violação da privacidade dos cidadãos. A Constituição Federal, em seu artigo 5º, inciso XII, protege o sigilo de comunicações e de dados pessoais, e essa proteção não pode ser lida de maneira restritiva. O acesso a dados cadastrais, ainda que não envolvam o conteúdo de comunicações, faz parte da proteção à privacidade e deve ser tratado com o mesmo rigor.

Ao permitir o acesso indiscriminado a essas informações, o STF criou uma brecha perigosa que pode ser explorada para abusos no futuro. A vigilância estatal, por mais justificada que possa parecer em situações excepcionais, deve sempre ser supervisionada pelo Judiciário, que funciona como barreira contra a erosão dos direitos individuais. A decisão da Corte, ao permitir o acesso irrestrito, sem controle judicial, mina essa barreira e enfraquece as garantias fundamentais.

Direito Comparado: Lições Ignoradas pela Corte

Em julgamentos anteriores, o STF fez uso de precedentes do direito comparado para sustentar suas decisões. No caso da MP 954/20, o Tribunal de Justiça da União Europeia e o Tribunal Constitucional Alemão foram amplamente citados para reforçar a importância da proteção de dados e da autodeterminação informativa. Por que esses precedentes foram ignorados na ADI 4906? A decisão da União Europeia no caso Digital Rights Ireland e a lei do censo de 1983 na Alemanha estabeleceram a necessidade de limites claros para o acesso a dados pessoais, exatamente para evitar que o Estado se torne uma ferramenta de vigilância.

O Tribunal Constitucional Alemão, ao reconhecer a autonomia do direito à autodeterminação informativa, destacou que o processamento de dados pessoais deve ser restrito para garantir que o Estado não ultrapasse os limites de sua função. Essas lições deveriam ter servido como guia para o STF, mas a Corte, ao contrário, ignorou as advertências do direito comparado, favorecendo uma postura mais permissiva.

Vigilância Estatal: Um Risco Imediato

O perigo de um Estado vigilante está mais presente do que nunca. O art. 12 da Declaração Universal dos Direitos Humanos, que o Brasil ratificou, proíbe ingerências arbitrárias na vida privada dos cidadãos. A partir do momento em que o Estado tem acesso irrestrito a dados cadastrais sem a necessidade de autorização judicial, cria-se o risco de um aparato de vigilância institucionalizado. Essa realidade é exacerbada em um contexto de avanço tecnológico, no qual informações triviais podem ser facilmente agregadas para revelar aspectos profundos da vida de um indivíduo.

A vigilância estatal constante é uma ameaça não apenas à privacidade, mas à própria liberdade. A história nos ensina, através de exemplos trágicos, que o controle estatal de informações pessoais pode ser usado para abusos e perseguições, como ocorreu na Alemanha nazista. A decisão do STF nos coloca em um caminho preocupante, que deve ser revertido antes que as liberdades individuais sejam completamente corroídas.

O Papel do STF: Guardião ou Flexibilizador dos Direitos Fundamentais?

O STF tem uma responsabilidade sagrada como guardião da Constituição. Seu dever é assegurar que os direitos fundamentais dos cidadãos prevaleçam sobre as pressões do Estado, especialmente em tempos de incerteza e crise. No entanto, ao flexibilizar o acesso a dados pessoais sem supervisão judicial, a Corte corre o risco de se transformar em um facilitador de práticas abusivas, que minam a confiança dos cidadãos no Estado e no Judiciário.

A função do Judiciário não é apenas garantir a aplicação da lei, mas também proteger as liberdades individuais contra a intervenção excessiva do Estado. Ao abdicar desse papel fiscalizador, o STF enfraquece o próprio fundamento da democracia.

Conclusão: A Defesa Intransigente da Privacidade

A decisão do STF de permitir o acesso irrestrito a dados cadastrais sem autorização judicial representa um retrocesso na proteção dos direitos fundamentais. A privacidade não pode ser relativizada em nome de conveniências institucionais ou sob o pretexto de facilitar investigações criminais. O direito à autodeterminação informativa, consagrado pela Constituição, deve ser protegido de maneira rigorosa, sem exceções que comprometam a integridade dos direitos dos cidadãos.

O STF, como guardião da Constituição, tem a responsabilidade de reverter essa decisão e garantir que a privacidade e a proteção de dados pessoais sejam tratadas com a Constitucionalidade que merecem. A privacidade é a base da dignidade humana, e sem ela, a liberdade individual é comprometida.

Que a defesa da privacidade e da proteção de dados seja intransigente, pois não há maior patrimônio em uma democracia do que a garantia de que os direitos fundamentais dos cidadãos sejam preservados e respeitados em sua totalidade.

Publicado em

COMO A NOVA DECISÃO DO STF PODE AFETAR SEUS DADOS FINANCEIROS

O recente julgamento do Supremo Tribunal Federal, que decidiu pela obrigação das instituições financeiras em fornecer dados de clientes aos fiscos estaduais nas operações de recolhimento do ICMS por meios eletrônicos, suscita importantes preocupações quanto à privacidade e à proteção de dados pessoais. A decisão foi apertada, com uma maioria de seis votos contra cinco, e levanta questões que vão além da mera discussão tributária, tocando em princípios fundamentais como o direito à privacidade e o sigilo bancário, valores consagrados pela Constituição Federal e pela Lei Geral de Proteção de Dados (LGPD).

O principal argumento da maioria foi de que a transferência desses dados às autoridades fiscais não configuraria quebra de sigilo bancário, já que a administração tributária dos estados e do Distrito Federal teria o dever de proteger essas informações e utilizá-las exclusivamente para fins fiscais. No entanto, essa visão minimiza o impacto potencial sobre a privacidade dos cidadãos. A LGPD estabelece diretrizes claras para o tratamento de dados pessoais, exigindo não apenas que eles sejam usados com finalidades específicas e legítimas, mas também que sejam protegidos contra acessos indevidos e vazamentos.

Permitir o compartilhamento de dados financeiros sem o devido controle e sem uma análise criteriosa do risco de abusos por parte das autoridades fiscais enfraquece a proteção da privacidade, abrindo espaço para excessos. A privacidade do cidadão é um direito fundamental, e qualquer exceção a esse direito precisa ser justificada de forma clara e proporcional. Embora a decisão argumente que o sigilo fiscal é mantido dentro da administração pública, é inegável que o aumento da vigilância estatal sobre transações financeiras traz riscos inerentes à intimidade dos indivíduos.

Além disso, a falta de um debate aprofundado entre os ministros do STF sobre os impactos dessa medida reforça a preocupação de que decisões dessa magnitude deveriam ser tratadas com mais transparência e cautela. O acesso irrestrito aos dados bancários, mesmo que para fins fiscais, pode criar um cenário de monitoramento excessivo, algo que contraria o equilíbrio entre a fiscalização estatal e a proteção dos direitos individuais.

Essa decisão representa um retrocesso em termos de proteção da privacidade e da confidencialidade dos dados bancários, especialmente à luz da LGPD. As autoridades fiscais têm o direito de fiscalizar e cobrar tributos devidos, mas isso deve ser feito de maneira compatível com os direitos fundamentais dos cidadãos. O risco de abusos e vazamentos de informações é real, e medidas adicionais de proteção deveriam ser discutidas para garantir que a privacidade continue sendo um valor inalienável no sistema jurídico brasileiro.

Publicado em

REGULAÇÃO DE INTELIGÊNCIA ARTIFICIAL ENFRENTA RESISTÊNCIA E GERA DEBATE NO CONGRESSO

A votação do Projeto de Lei 2338, conhecido como PL de IA, foi adiada novamente pela Comissão Temporária Interna sobre Inteligência Artificial no Senado (CTIA), em resposta à pressão crescente da indústria e a ataques nas redes sociais. O texto, que deveria ser votado, enfrentou resistência significativa tanto de setores empresariais quanto de movimentos online, especialmente da extrema-direita, que associaram erroneamente o projeto à censura.

O presidente da CTIA indicou que a votação só ocorrerá após todos os pontos controversos serem devidamente esclarecidos. Ele também abordou a desinformação que circula sobre o PL, afirmando que não haverá votação enquanto todas as dúvidas não forem sanadas. A disseminação de campanhas desinformativas, alegando que o projeto de lei conferiria poderes excessivos ao governo, é uma das principais causas do adiamento.

A pressão da indústria também foi evidente, com entidades representativas lançando comunicados contrários à aprovação do projeto. O setor argumenta que as regras propostas podem prejudicar a inovação e isolar o país tecnologicamente. Além disso, a crítica foi direcionada à chamada “carga de governança excessiva” imposta aos desenvolvedores de IA e à escolha da Autoridade Nacional de Proteção de Dados (ANPD) como coordenadora do sistema de fiscalização, considerando que a ANPD ainda está em fase de estruturação.

Representantes das empresas de tecnologia, que vêm intensificando sua oposição ao PL, marcaram presença significativa na última sessão do Senado, aproveitando seus crachás da Câmara para garantir posições privilegiadas no auditório. As principais objeções das big techs incluem questões sobre direitos autorais em treinamentos de IA, classificação de sistemas de recomendação como de “alto risco” e exigências de transparência.

O adiamento da votação provocou reações imediatas na sociedade civil, com mobilizações para pressionar o Congresso Nacional e intensificar o debate nas redes sociais. Grupos que defendem a regulamentação da IA, como organizações de defesa de direitos e profissionais de dublagem, expressaram sua insatisfação com o adiamento, destacando a necessidade de continuar a pressão sobre os legisladores.

Apesar das preocupações da indústria, diversos estudiosos e organizações da sociedade civil argumentam que a regulação não impede a inovação. Eles comparam a situação atual com outras regulações históricas, como o Código de Defesa do Consumidor e a Lei Geral de Proteção de Dados Pessoais, que demonstraram que regulação e inovação podem coexistir. Segundo esses especialistas, a regulação baseada em riscos dos sistemas de IA pode, na verdade, estimular uma inovação responsável, alinhada ao desenvolvimento econômico, tecnológico e social, ao mesmo tempo em que protege direitos fundamentais.

Publicado em

LGPD PENAL: INTEGRANDO INOVAÇÕES TECNOLÓGICAS E DIREITOS FUNDAMENTAIS

O uso de tecnologias avançadas na segurança pública está cada vez mais entrelaçado com a necessidade de proteção dos dados pessoais dos cidadãos. No entanto, um dos maiores desafios para a implementação dessas inovações é a ausência de regulamentação específica da Lei Geral de Proteção de Dados (LGPD) no âmbito penal, uma lacuna legal significativa no Brasil.

Apesar da aprovação da LGPD, o uso de dados pela segurança pública foi deliberadamente deixado de fora, uma vez que essa aplicação exige um debate mais detalhado e complexo. Em 2019, uma comissão de juristas desenvolveu um anteprojeto para uma LGPD Penal, mas ele nunca foi transformado em lei. Até o momento, não há um projeto de lei tramitando que aborde essa questão, demonstrando a necessidade urgente de o legislativo apresentar e atualizar propostas relacionadas.

Apesar da falta de uma lei específica, a privacidade e a proteção de dados já são direitos fundamentais garantidos pela Constituição Federal. A atual LGPD exclui explicitamente sua aplicação em contextos de segurança pública, investigação criminal, persecução penal e defesa do estado. No entanto, os princípios da lei e os direitos dos titulares de dados ainda precisam ser respeitados. A Autoridade Nacional de Proteção de Dados (ANPD) tem a prerrogativa de exigir relatórios de impacto sobre a proteção de dados de agentes públicos, como evidenciado em casos recentes onde a ANPD bloqueou o uso de inteligência artificial por grandes empresas de tecnologia para proteger os dados dos brasileiros.

No cenário internacional, vemos que a preocupação com a privacidade dos dados também é uma tendência global. Exemplos como a proibição de uma empresa de dados na França mostram que a coleta e o uso de dados sem a devida regulamentação são questões polêmicas e podem resultar em medidas drásticas.

A utilização de dados é essencial para a formulação de políticas públicas eficazes, como foi visto durante a pandemia de Covid-19, onde a vacinação foi organizada com base em dados pessoais e demográficos. No entanto, a aplicação da lei na segurança pública deve ser realizada de forma legal e ética. Procedimentos inadequados, como grampear telefones sem autorização judicial, podem comprometer operações inteiras.

É crucial que o uso de tecnologias na segurança pública esteja alinhado com os direitos de privacidade e confiabilidade. As tecnologias devem ser acompanhadas de regramentos cuidadosos e protocolos claros para evitar abusos e manter a confiança do público. A capacitação dos profissionais envolvidos é fundamental para garantir que a tecnologia seja utilizada de maneira eficaz e segura.

A ênfase deve estar na preparação e capacitação dos profissionais, reconhecendo que, apesar da sofisticação das tecnologias disponíveis, o julgamento humano continua sendo insubstituível. A combinação de tecnologia avançada com uma equipe bem treinada é a chave para melhorar os serviços de segurança pública e garantir a proteção dos direitos dos cidadãos.

Publicado em

WHATSAPP E ANPD SÃO ALVOS DE AÇÃO CIVIL PÚBLICA POR MPF E IDEC

Quatro anos após sua criação, a Autoridade Nacional de Proteção de Dados (ANPD) enfrenta um desafio inédito: a sua capacidade de cumprir seu papel institucional está sendo questionada judicialmente. O Ministério Público Federal (MPF) e o Instituto Brasileiro de Defesa do Consumidor (Idec) ajuizaram uma ação civil pública na 2ª Vara Cível Federal de São Paulo, alegando que a ANPD favoreceu uma empresa em detrimento do enforcement regulatório.

Na ação, o MPF e o Idec apontam diversas falhas na política de privacidade do WhatsApp, vigente de 2021 até junho deste ano, e destacam que os termos dessa política configuram violações aos direitos fundamentais dos cidadãos brasileiros, especialmente o direito à informação e ao consentimento informado.

Política de privacidade controversa

O principal argumento é que a política de privacidade do WhatsApp não fornecia informações claras e precisas sobre o tratamento dos dados pessoais dos usuários, violando o direito à informação previsto na Lei Geral de Proteção de Dados (LGPD). Embora a empresa alegue que as conversas são protegidas por criptografia de ponta a ponta, o WhatsApp coleta diversos metadados que revelam informações substanciais sobre o comportamento dos usuários, como localização habitual e preferências pessoais. Essa coleta massiva de metadados configura uma invasão significativa de privacidade, não devidamente esclarecida aos usuários.

Além disso, o MPF e o Idec argumentam que o consentimento obtido dos usuários é viciado, pois a complexidade e a falta de clareza das informações impedem a compreensão plena dos termos. Isso viola os princípios de transparência e consentimento da LGPD. A política é ainda acusada de permitir tratamentos desnecessários de dados pessoais e de aplicar práticas comerciais abusivas, especialmente em comparação com os usuários europeus. Esses problemas configuram uma violação abrangente e sistemática dos direitos dos usuários brasileiros, exigindo uma resposta judicial rigorosa.

Atuação da ANPD sob escrutínio

A ação também critica a atuação da ANPD, acusando a autarquia de falhar na fiscalização do WhatsApp e de adotar uma postura omissa e avessa à accountability pública. Segundo o processo, durante a apuração conduzida pelo MPF e pelo Idec, a ANPD teria negado reiteradas vezes acesso a processos administrativos, sob o argumento de segredos comerciais e industriais. Esta postura de sigilo, paradoxalmente, ocorre em uma investigação sobre a falta de transparência de um dos maiores agentes de tratamento de dados do país.

A ação civil pública busca dois objetivos principais: que o WhatsApp repare os danos causados a seus milhões de usuários no Brasil, suspendendo imediatamente os tratamentos excessivos de dados pessoais, e que a ANPD entregue todos os documentos produzidos durante a apuração sobre a política de privacidade do WhatsApp, justificando cada sigilo atribuído, além de elaborar uma normativa para garantir máxima publicidade às suas futuras investigações.

Este caso marca um momento importante na defesa dos direitos de proteção de dados no Brasil, buscando não apenas reparar danos causados pela política de privacidade do WhatsApp, mas também reforçar a importância de uma fiscalização transparente e responsável pela ANPD. A autarquia e seus diretores, pela primeira vez, enfrentam a responsabilidade judicial por suas ações.