Publicado em Deixe um comentário

LGPD PENAL: INTEGRANDO INOVAÇÕES TECNOLÓGICAS E DIREITOS FUNDAMENTAIS

O uso de tecnologias avançadas na segurança pública está cada vez mais entrelaçado com a necessidade de proteção dos dados pessoais dos cidadãos. No entanto, um dos maiores desafios para a implementação dessas inovações é a ausência de regulamentação específica da Lei Geral de Proteção de Dados (LGPD) no âmbito penal, uma lacuna legal significativa no Brasil.

Apesar da aprovação da LGPD, o uso de dados pela segurança pública foi deliberadamente deixado de fora, uma vez que essa aplicação exige um debate mais detalhado e complexo. Em 2019, uma comissão de juristas desenvolveu um anteprojeto para uma LGPD Penal, mas ele nunca foi transformado em lei. Até o momento, não há um projeto de lei tramitando que aborde essa questão, demonstrando a necessidade urgente de o legislativo apresentar e atualizar propostas relacionadas.

Apesar da falta de uma lei específica, a privacidade e a proteção de dados já são direitos fundamentais garantidos pela Constituição Federal. A atual LGPD exclui explicitamente sua aplicação em contextos de segurança pública, investigação criminal, persecução penal e defesa do estado. No entanto, os princípios da lei e os direitos dos titulares de dados ainda precisam ser respeitados. A Autoridade Nacional de Proteção de Dados (ANPD) tem a prerrogativa de exigir relatórios de impacto sobre a proteção de dados de agentes públicos, como evidenciado em casos recentes onde a ANPD bloqueou o uso de inteligência artificial por grandes empresas de tecnologia para proteger os dados dos brasileiros.

No cenário internacional, vemos que a preocupação com a privacidade dos dados também é uma tendência global. Exemplos como a proibição de uma empresa de dados na França mostram que a coleta e o uso de dados sem a devida regulamentação são questões polêmicas e podem resultar em medidas drásticas.

A utilização de dados é essencial para a formulação de políticas públicas eficazes, como foi visto durante a pandemia de Covid-19, onde a vacinação foi organizada com base em dados pessoais e demográficos. No entanto, a aplicação da lei na segurança pública deve ser realizada de forma legal e ética. Procedimentos inadequados, como grampear telefones sem autorização judicial, podem comprometer operações inteiras.

É crucial que o uso de tecnologias na segurança pública esteja alinhado com os direitos de privacidade e confiabilidade. As tecnologias devem ser acompanhadas de regramentos cuidadosos e protocolos claros para evitar abusos e manter a confiança do público. A capacitação dos profissionais envolvidos é fundamental para garantir que a tecnologia seja utilizada de maneira eficaz e segura.

A ênfase deve estar na preparação e capacitação dos profissionais, reconhecendo que, apesar da sofisticação das tecnologias disponíveis, o julgamento humano continua sendo insubstituível. A combinação de tecnologia avançada com uma equipe bem treinada é a chave para melhorar os serviços de segurança pública e garantir a proteção dos direitos dos cidadãos.

Publicado em Deixe um comentário

COMO A INTELIGÊNCIA ARTIFICIAL ESTÁ REDEFININDO A GESTÃO DE RISCOS E CONFORMIDADE

A disseminação do uso da inteligência artificial tem se intensificado nas últimas décadas, impulsionada principalmente pelo aumento da capacidade de processamento e pela vasta quantidade de dados digitais gerados. Inicialmente, essa expansão se deu pela possibilidade de executar algoritmos de IA mais complexos, permitindo a análise de grandes volumes de dados provenientes de diversas fontes, como a internet, o comércio eletrônico e as redes sociais.

Um marco significativo foi a popularização dos chatbots, que simularam interações humanas utilizando linguagem natural. Esses avanços tornaram a IA mais acessível e útil, ampliando sua aplicação em diferentes segmentos.

Para os profissionais de Governança, Risco e Compliance (GRC), a questão principal é entender como a IA já está impactando o setor e como ela continuará a influenciar no futuro próximo. Consultando diversas plataformas de IA, como o ChatGPT, verificamos que a automação de tarefas repetitivas e manuais, como a coleta e análise de dados, é uma das principais contribuições da IA. Isso permite a análise rápida e precisa de grandes volumes de informações, identificação de padrões suspeitos, alerta sobre possíveis fraudes e indicação de riscos ou violações de conformidade.

Com o avanço da IA e do machine learning, espera-se que essas tecnologias possam prever riscos antes que eles se concretizem, utilizando dados históricos e em tempo real para identificar sinais de alerta precoce. Além disso, ferramentas de IA poderão ajustar automaticamente políticas e procedimentos de compliance em resposta a mudanças regulatórias, otimizando tempo e esforço para manter a conformidade.

A IA também se mostra promissora ao fornecer recomendações para a tomada de decisões em áreas de GRC, ajudando conselheiros e gestores a tomarem decisões mais bem fundamentadas. Consultando o Gemini, IA do Google, notamos que, além das vantagens já mencionadas, a IA pode monitorar leis e regulamentos, mantendo as empresas atualizadas com as mudanças constantes.

Por outro lado, o Microsoft Copilot destaca alguns desafios na implementação da IA no GRC, como a necessidade de uma governança de dados robusta para garantir a qualidade, integridade, privacidade e segurança dos dados utilizados. A segurança cibernética também se torna crucial, exigindo a colaboração com especialistas para proteger os sistemas de IA contra ameaças. Além disso, é essencial garantir que as decisões tomadas por IA sejam transparentes, justas e alinhadas aos valores e objetivos empresariais.

Outro ponto importante é o acompanhamento tecnológico. Profissionais de GRC devem estar atualizados com o ritmo das mudanças tecnológicas para garantir o uso responsável e eficaz da IA.

Esses pontos destacam como a IA está transformando o GRC, oferecendo novas oportunidades e apresentando desafios que precisam ser gerenciados com cuidado.

Publicado em Deixe um comentário

A DESCENTRALIZAÇÃO DAS REDES SOCIAIS: O FUTURO INEVITÁVEL CONTRA A REGULAÇÃO DE DIREITOS FUNDAMENTAIS

Introdução

O debate sobre a regulamentação das redes sociais tem sido um tema recorrente nos corredores legislativos ao redor do mundo. No Brasil, a trajetória regulatória encontra-se marcada por iniciativas como o Marco Civil da Internet de 2014, que, apesar de aparente regulação, ainda deixa lacunas significativas no que diz respeito ao controle e à gestão de dados em plataformas digitais. O futuro inevitável é transformar radicalmente este cenário é a descentralização das redes sociais através da tecnologia blockchain. 

Descentralização via Blockchain

A Tecnologia de Registro Distribuído (DLT – Distributed Ledger Technology) refere-se a um consenso de registros replicados, compartilhados e sincronizados geograficamente dispersos, mantidos por membros distintos de uma rede. Ao contrário dos sistemas de registro tradicionais, centralizados em uma autoridade única (como um banco central, por exemplo), a DLT permite que a informação exista simultaneamente em múltiplos locais, sendo acessível e verificável por todos os participantes da rede sem a necessidade de uma entidade central de controle.

Características Principais:

Descentralização: A DLT opera em uma estrutura descentralizada, o que significa que os registros são mantidos em muitos computadores (nós) em toda a rede, em vez de ser armazenados em um local central. Isso ajuda a eliminar pontos únicos de falha e aumenta a resistência contra ataques cibernéticos através de características fundamentais: Primeiramente, a redundância de dados é garantida, pois cada nó na rede mantém uma cópia completa do registro, assegurando que a integridade do sistema seja preservada mesmo se alguns nós forem comprometidos. Além disso, a segurança dos dados é reforçada pelo uso de hashes criptográficos que interligam os blocos, tornando modificações retroativas computacionalmente inviáveis sem a recalculação de todos os blocos subsequentes. A maioria das redes DLT também exige um consenso para alterações, necessitando que a maioria dos participantes valide qualquer mudança, o que protege contra manipulações unilaterais. A transparência da rede permite uma auditoria constante por todos os usuários, facilitando a rápida detecção e correção de qualquer tentativa de fraude. Por fim, a ausência de um único ponto de controle dificulta enormemente a execução de ataques coordenados, tornando as plataformas baseadas em DLT particularmente seguras em comparação aos sistemas centralizados tradicionais.

Transparência e segurança: Cada transação no ledger é verificável por todos os participantes e deve ser confirmada por consenso da rede antes de ser permanentemente adicionada. Além disso, a utilização de criptografia assegura a integridade e a segurança das transações.
Imutabilidade: Uma vez que uma transação é registrada no ledger, ela não pode ser alterada ou apagada, garantindo um histórico transparente e auditável de todas as transações.
Consensos: A DLT utiliza mecanismos de consenso para validar transações. Estes mecanismos, que podem variar (como Proof of Work, Proof of Stake, entre outros), são fundamentais para manter a integridade e a confiança na rede.
Tipos de DLT:

Embora o blockchain seja o tipo mais conhecido de DLT, existem outras variações que se diferenciam principalmente no modo como os dados são estruturados e no mecanismo de consenso utilizado. Algumas dessas variações incluem:

Blockchain: Um tipo de DLT que organiza os dados em blocos encadeados cronologicamente. Blockchain é um tipo específico de Tecnologia de Registro Distribuído que organiza dados em blocos encadeados cronologicamente e que se tornou famoso principalmente pelo seu uso em criptomoedas como o Bitcoin. No entanto, as aplicações do blockchain vão muito além das criptomoedas.

Exemplo prático: Bitcoin

O Bitcoin, a primeira e mais conhecida criptomoeda, utiliza a tecnologia blockchain para facilitar e registrar transações financeiras de forma segura e descentralizada. Cada transação realizada com Bitcoin é verificada por uma rede de computadores (nodos) e, uma vez confirmada, é adicionada a um bloco de outras transações recentes. Uma vez que um bloco é preenchido, ele é adicionado ao final da cadeia de blocos existente, de maneira sequencial e imutável.

Esse processo não apenas garante a segurança das transações, impedindo fraudes e duplicidades (como o problema do gasto duplo), mas também elimina a necessidade de intermediários, como bancos ou governos, para validar ou facilitar as transações. O blockchain do Bitcoin é público, o que significa que qualquer pessoa na rede pode ver todas as transações que já foram feitas, garantindo transparência total, embora as identidades dos usuários permaneçam protegidas por meio de pseudônimos.

Através do Bitcoin, a tecnologia blockchain demonstrou a viabilidade de sistemas financeiros alternativos que são globais, acessíveis e significativamente menos suscetíveis à interferência externa ou à corrupção. Este exemplo pioneiro tem inspirado inúmeras outras aplicações em diversos setores, desde a logística até o registro de propriedades, destacando o potencial transformador do blockchain.

Tangle: Utilizado pelo IOTA, organiza as transações em uma rede de nós interconectados, não necessariamente formando uma cadeia linear ou blocos. O Tangle, utilizado pela IOTA, representa uma abordagem inovadora ao descentralizar transações através de uma estrutura conhecida como DAG – Directed Acyclic Graph, divergindo do tradicional blockchain que organiza transações em blocos lineares. No Tangle, cada transação é conectada individualmente a duas outras anteriores, não formando blocos ou cadeias lineares, mas uma rede interconectada. Este método de validação descentralizada requer que cada nova transação valide duas transações prévias, contribuindo para a segurança e reduzindo a possibilidade de spam e ataques. Essa estrutura promove maior velocidade e eficiência, escalando positivamente à medida que o volume de transações aumenta, o que contrasta com os blockchains tradicionais que podem sofrer com lentidão e congestionamento. Além disso, o Tangle elimina a necessidade de mineradores, reduzindo significativamente o consumo de energia e os custos de transação, tornando-o ideal para microtransações e aplicações em IoT – Internet das Coisas, onde pequenos dispositivos realizam frequentes transações de dados ou micro-pagamentos. A robustez, a segurança e a escalabilidade sem taxas fazem do Tangle uma solução atraente para a crescente demanda por eficiência em transações digitais descentralizadas.


Hashgraph: Usa uma estrutura de grafos acíclicos dirigidos para alcançar consenso, prometendo ser mais rápido e eficiente em termos de energia do que as blockchains tradicionais. Hashgraph se destaca como uma tecnologia de consenso baseada em uma estrutura de grafos acíclicos dirigidos (DAG), prometendo superar as blockchains tradicionais em termos de velocidade e eficiência energética. Diferente do blockchain, que organiza dados em blocos sequenciais, o Hashgraph permite que múltiplas transações ocorram simultaneamente, sem necessidade de formação de blocos ou mineração. Esta característica resulta em um processo de consenso muito mais rápido e com menor consumo de energia, tornando-o ideal para aplicações que exigem grande volume de transações em alta velocidade. Além disso, o Hashgraph é projetado para fornecer um alto grau de segurança e justiça, assegurando que todas as transações sejam tratadas na mesma sequência em que foram recebidas, evitando manipulações e garantindo a integridade dos dados. Por essas razões, Hashgraph é visto como uma alternativa promissora às tecnologias de registro distribuído convencionais, oferecendo uma solução escalável e eficiente para o crescente universo das transações digitais.
A tecnologia blockchain é fundamentalmente uma base de dados distribuída, caracterizada pela sua robustez e transparência. Cada “bloco” na “cadeia” contém um número de transações, e uma vez que um bloco é completado, ele se junta à cadeia de forma permanente e inalterável. Na prática, isto significa que a tecnologia não é controlada por uma única entidade, mas sim distribuída entre todos os participantes da rede.

Aplicado às redes sociais, o blockchain permitiria que cada postagem, comentário ou curtida fosse registrado em um bloco, eliminando a necessidade de servidores centralizados controlados por uma empresa específica. Isso não apenas aumenta a segurança contra ataques cibernéticos, mas também promove uma maior privacidade do usuário, visto que seus dados não estariam armazenados em um servidor central susceptível a exploração comercial ou vigilância governamental.

Implicações Regulatórias

No Brasil, o contexto regulatório é particularmente complexo. Embora o Marco Civil da Internet de 2014 tenha sido um marco na definição de direitos e deveres para usuários e provedores de internet, ele não conseguiu antecipar o surgimento e as implicações de redes sociais descentralizadas. Durante a elaboração desta legislação, observou-se um intenso lobby por parte das grandes empresas de tecnologia, que influenciou significativamente o texto final da lei. Essa interferência levanta preocupações legítimas sobre a possibilidade de um cenário semelhante ocorrer em futuras tentativas de regulamentação das plataformas digitais.

Além disso, o crescente debate sobre a regulamentação das redes sociais frequentemente parece menos sobre a proteção dos usuários e mais sobre a tentativa de controlar o discurso público. As redes sociais, ao democratizar a produção e distribuição de informação, reduziram significativamente o monopólio tradicionalmente detido pelos grandes veículos de mídia. Isso elevou a liberdade de expressão do cidadão comum, que agora pode expressar, debater e disseminar ideias sem os filtros editoriais das mídias tradicionais. Neste contexto, é essencial questionar se a regulamentação proposta busca genuinamente proteger os direitos dos usuários ou se, por outro lado, reflete uma tentativa de reconquistar o controle sobre o fluxo de informações e, consequentemente, sobre a opinião pública.

Exemplos Internacionais

Olhando para as iniciativas internacionais, como a União Europeia com o GDPR – Regulamento Geral sobre a Proteção de Dados, vemos uma clara demanda por transparência e consentimento no tratamento de dados pessoais, princípios que poderiam ser naturalmente assegurados pelo uso de blockchain em redes sociais. Esta tecnologia garante que as transações de dados sejam rastreáveis e inalteráveis, oferecendo uma nova camada de segurança e privacidade que está em total alinhamento com as diretrizes do GDPR.

Em contraste, regimes autoritários como o da China apresentariam um cenário completamente diferente. Dada a natureza centralizada e controladora do governo chinês sobre a informação e a comunicação, é altamente improvável que uma tecnologia que promove a descentralização, como o blockchain, seja permitida para redes sociais dentro de suas fronteiras. O regime comunista da China depende de um controle rigoroso sobre a mídia e a expressão pública para manter a ordem e a conformidade, e uma rede social descentralizada seria inerentemente subversiva a esse controle, oferecendo aos cidadãos uma plataforma incontrolável e livre de censura estatal. Portanto, é de se esperar que tais tecnologias sejam categoricamente rejeitadas ou severamente limitadas pelo governo chinês.

Conclusão

A descentralização das redes sociais não só oferece novas perspectivas em termos de privacidade e segurança dos dados, como também redefine o papel dos governos na regulamentação desses ambientes digitais. Esta tecnologia traz consigo múltiplas vantagens, mas também desafios significativos, especialmente no campo da regulamentação. A descentralização de qualquer grande rede social usando DLT não seria apenas uma mudança técnica, mas também uma transformação cultural e estrutural significativa tanto para a empresa quanto para os usuários. Envolveria superar desafios técnicos, legais e de usabilidade, mas poderia potencialmente levar a uma internet mais segura, privada e democrática, onde os usuários têm controle real sobre seus dados e interações. 

Antes mesmo de considerar a implementação de qualquer tipo de regulamentação, os governos enfrentariam um obstáculo formidável: o poderoso lobby das grandes corporações tecnológicas, que historicamente têm exercido uma influência substancial sobre as políticas e legislações. Mesmo superando essa barreira, os governos se deparariam com a robustez da DLT. A natureza intrinsecamente resistente e autônoma da DLT desafia qualquer tentativa de imposição autoritária, pois não está à mercê de sistemas obsoletos ou controles centralizados. O caminho à frente exige um diálogo aberto e contínuo entre tecnólogos, legisladores e a sociedade civil para abordar completamente as implicações desta evolução tecnológica inevitável, afinal a tecnologia não perdoa.

Publicado em Deixe um comentário

SERVIDORA PÚBLICA DENUNCIA ABORDAGEM EQUIVOCADA POR SISTEMA DE RECONHECIMENTO FACIAL

Uma servidora pública e defensora da igualdade racial foi alvo de um incidente preocupante envolvendo o uso de tecnologia de reconhecimento facial pela Polícia Militar. Durante um evento sobre igualdade racial no Centro do Rio, ela foi erroneamente identificada como uma foragida da justiça. A abordagem ocorreu quando a imagem dela foi associada no sistema de reconhecimento facial a uma pessoa procurada.

A servidora, que há uma década trabalha ouvindo relatos de vítimas de preconceito, descreveu a experiência como extremamente constrangedora. “Eles me mostraram a foto da pessoa procurada, que é completamente diferente de mim. Senti-me desamparada e temo que isso possa ocorrer novamente”, relatou. Até o momento, ela não recebeu esclarecimentos sobre o destino das imagens capturadas nem sobre a sua eventual arquivação.

Os policiais, ao perceberem o erro, encerraram a abordagem, justificando que seguiam o protocolo. A Polícia Militar informou que o sistema de reconhecimento facial foi selecionado via licitação e testado nos Estados Unidos. Contudo, a servidora questiona a eficácia e a segurança do sistema, destacando a preocupação com a tecnologia que, segundo ela, não foi desenvolvida pensando nas especificidades da população brasileira.

O caso está sendo acompanhado pela Defensoria Pública do Estado, que solicitou à Secretaria de Segurança Pública informações detalhadas sobre o uso da tecnologia. A defensora pública responsável pelo caso ressaltou que a tecnologia de IA e algoritmos pode reproduzir padrões racistas presentes na sociedade.

A cidade do Rio de Janeiro já conta com videomonitoramento em tempo real em vários pontos. Entre dezembro do ano passado e junho deste ano, 200 pessoas foram presas com base no reconhecimento facial, o que levanta debates sobre a necessidade de uma regulamentação mais rigorosa para evitar erros e abusos.

A servidora destacou ainda a importância de estar sempre com documentação pessoal, um ensinamento transmitido desde a infância para muitas pessoas negras. Ela mencionou que, mesmo adulta, compreendeu a necessidade de ter seus documentos à mão em todos os momentos.

Casos de prisões equivocadas devido a bancos de dados desatualizados também foram registrados. No início do ano, duas pessoas foram presas indevidamente porque os mandados de prisão já não tinham validade. No semestre, quase metade das prisões relacionadas ao reconhecimento facial foram por falta de pagamento de pensão alimentícia, além de crimes como roubo, homicídio, feminicídio, tráfico de drogas, violência doméstica, furto e estupro.

A Defensoria Pública questiona os protocolos utilizados, o treinamento dos agentes de segurança e a base de dados que alimenta o sistema de reconhecimento facial. A Secretaria Estadual de Governo afirmou que a abordagem seguiu os protocolos e foi encerrada após a apresentação dos documentos pela servidora. A Polícia Civil está investigando o caso na Delegacia de Combate aos Crimes Raciais e Delitos de Intolerância.

Publicado em Deixe um comentário

IA E PROTEÇÃO DE DADOS: DESAFIOS REGULATÓRIOS E O CASO DA META PLATFORMS

A IA está se tornando cada vez mais onipresente em nossas vidas, transformando uma ampla gama de processos comerciais e pessoais com um potencial quase ilimitado para inovação. Seja melhorando a eficiência operacional, personalizando a experiência do usuário, ou mesmo impulsionando avanços em áreas críticas como saúde e educação, a IA está na vanguarda da revolução tecnológica. No entanto, à medida que essa tecnologia se infiltra em mais aspectos de nossa existência diária, crescem também as preocupações com a proteção de dados pessoais.

O equilíbrio entre a inovação trazida pela IA e a privacidade dos indivíduos é uma questão cada vez mais premente. A capacidade da IA de processar e analisar grandes volumes de dados pessoais pode oferecer insights profundos e melhorias de serviço, mas também apresenta riscos significativos de privacidade e segurança. Neste contexto, a intervenção regulatória torna-se crucial. Um exemplo emblemático dessa tensão regulatória é a recente decisão da ANPD – Autoridade Nacional de Proteção de Dados do Brasil, que impôs medidas restritivas contra a Meta Platforms Inc., anteriormente conhecida como Facebook. A decisão visou suspender a implementação de novas políticas de privacidade relacionadas ao uso de dados pessoais para o treinamento de sistemas de IA generativa, destacando os desafios de assegurar que tais inovações não comprometam os direitos fundamentais dos usuários.

Este caso sublinha a necessidade imperativa de uma vigilância regulatória robusta e de uma abordagem ponderada que não apenas fomente a inovação tecnológica, mas também proteja rigorosamente a privacidade e os dados pessoais. A medida da ANPD reflete um passo significativo na direção de um quadro legal que busca harmonizar esses dois objetivos, servindo como um ponto de referência para o debate global sobre como melhor regular o impacto transformador da inteligência artificial em nossa sociedade.

A ascensão da IA

A IA, um campo que abrange desde algoritmos simples até complexos sistemas de aprendizado de máquina, vem sendo cada vez mais adotada em uma miríade de setores industriais. Sua aplicabilidade estende-se desde a realização de análises preditivas, que antecipam tendências de mercado e comportamento de consumidores, até a automação de processos, que substitui a intervenção humana em tarefas repetitivas e meticulosas, culminando na personalização de serviços, que ajusta experiências e ofertas às necessidades individuais dos usuários.

Benefícios da IA

Os benefícios proporcionados pela IA são multifacetados e substanciais. No setor de saúde, por exemplo, algoritmos de IA são utilizados para diagnosticar doenças com precisão e rapidez que superam frequentemente a capacidade humana. Na indústria financeira, a IA melhora a segurança através da detecção de fraudes e da gestão de risco, enquanto no varejo, sistemas de recomendação baseados em IA aprimoram a experiência do cliente ao sugerir produtos alinhados com suas preferências passadas e atuais. Essas inovações não apenas aumentam a eficiência e a eficácia operacional, mas também abrem novos caminhos para a personalização em massa e o engajamento do cliente.

Desafios éticos e de privacidade

Entretanto, o avanço da IA não está isento de desafios significativos, especialmente no que tange à ética e à privacidade. A capacidade desses sistemas de coletar, armazenar e processar enormes volumes de dados pessoais gera preocupações profundas com a segurança e a integridade dessas informações. O risco de vazamentos de dados, uso indevido de informações sensíveis e a falta de transparência sobre como os dados são utilizados e por que são questões que demandam urgente atenção regulatória e ética.

Ademais, a automação trazida pela IA pode conduzir a questões de desemprego tecnológico, enquanto o viés algorítmico – onde sistemas perpetuam ou até exacerbam discriminações preexistentes – suscita debates acalorados sobre a justiça e a imparcialidade das decisões tomadas por máquinas. Tais preocupações enfatizam a necessidade de desenvolver e implementar IA de maneira responsável, assegurando que tecnologias avançadas promovam benefícios sem erodir a ética ou comprometer os direitos fundamentais dos indivíduos.

Portanto, enquanto a ascensão da inteligência artificial sinaliza uma era de possibilidades quase ilimitadas, ela também impõe a necessidade imperativa de vigilância e regulamentação robustas para garantir que seu uso seja equitativo, seguro e respeitoso com a privacidade e a dignidade humana.

O caso da Meta Platforms e a decisão da ANPD

A recente intervenção da ANPD no Brasil no caso da Meta Platforms Inc. ilustra vividamente as complexas interseções entre inovação tecnológica e regulamentação de privacidade. A decisão da ANPD, que resultou na suspensão de partes específicas da nova política de privacidade da Meta relacionadas ao uso de dados para o treinamento de sistemas de inteligência artificial generativa, marca um momento decisivo na governança de dados pessoais frente às tecnologias emergentes.

Detalhamento da decisão

Conforme explicitado pelo despacho decisório 20/24/PR/ANPD, a medida preventiva foi adotada após um cuidadoso escrutínio das políticas propostas pela Meta. A decisão determinou a suspensão imediata da implementação da política que permitiria o uso extensivo de dados pessoais para o treinamento de IA. Isso incluía não apenas os dados de usuários ativos das plataformas da Meta, mas também de indivíduos não usuários, ampliando significativamente o escopo de coleta e análise de dados pessoais.

Base legal e justificativa

A ANPD baseou sua decisão em uma série de fundamentos legais solidamente estabelecidos, incluindo, mas não se limitando a:

Art. 45 da Lei nº 9.784/1999: Que regula o processo administrativo no âmbito da Administração Pública Federal.
Arts. 52 e 54 da LGPD: Que tratam das sanções administrativas aplicáveis em caso de tratamento de dados realizado em desacordo com a legislação.
Art. 26, IV, do decreto 10.474/20: Que especifica procedimentos e competências da ANPD.
Arts. 7°, IV e 55 do Regimento Interno da ANPD: Que detalham as atribuições e poderes conferidos ao Conselho Diretor da ANPD.
O uso destas bases legais reflete a abordagem adotada pela ANPD para garantir que qualquer forma de processamento de dados respeite os limites impostos pela legislação brasileira. O “risco iminente de dano grave e irreparável”, mencionado no despacho, sublinha a preocupação da ANPD com a potencial violação massiva dos direitos fundamentais dos titulares dos dados, considerando a natureza invasiva das práticas propostas pela Meta.

Implicações da Medida Preventiva

Esta decisão não apenas impõe a necessidade de uma revisão substancial das práticas de privacidade pela Meta, mas também serve como um alerta para outras corporações que operam em território brasileiro e globalmente, reiterando a seriedade com que as questões de privacidade estão sendo tratadas pela ANPD. A ação da ANPD é um lembrete potente de que a inovação tecnológica não pode avançar à custa de direitos pessoais, e que a proteção de dados pessoais é um pilar central na regulação de tecnologias disruptivas como a inteligência artificial.

Implicações e reflexões sobre a decisão

A decisão proferida pela ANPD contra a Meta Platforms Inc. traz à tona várias implicações significativas para a empresa e para o ecossistema tecnológico mais amplo, especialmente no que se refere ao desenvolvimento e aplicação da IA em conformidade com as normas de proteção de dados.

Consequências para a Meta Platforms e o setor tecnológico

Para a Meta Platforms, esta decisão implica a necessidade de reavaliar e modificar suas práticas de coleta e uso de dados, especialmente aquelas relacionadas ao treinamento de sistemas de IA generativa. O impacto é duplo: operacional e reputacional. Operacionalmente, a Meta deve adaptar suas operações para garantir que as políticas de privacidade estejam em total conformidade com as determinações da ANPD, o que pode requerer investimentos significativos em tecnologia e governança de dados. Reputacionalmente, a decisão enfatiza a posição da empresa sob escrutínio regulatório, o que pode afetar a confiança dos usuários e, por extensão, influenciar negativamente a participação de mercado e a percepção pública.

Outras empresas do setor de tecnologia, particularmente aquelas que operam no Brasil ou que coletam e processam dados de cidadãos brasileiros, também precisarão revisar suas operações. Esta decisão serve como um lembrete crítico da necessidade de aderência estrita às leis de proteção de dados, sublinhando que a ANPD está ativa e disposta a tomar medidas punitivas contra práticas consideradas prejudiciais aos direitos dos titulares de dados.

Influência em políticas de privacidade e práticas de desenvolvimento de IA

A nível global, a decisão da ANPD pode ter um efeito cascata, incentivando outras jurisdições a adotarem posturas semelhantes na regulamentação da IA e na proteção de dados. Isso pode levar a uma padronização mais rígida das práticas de privacidade e uso de dados em IA forçando as empresas a adotarem uma abordagem mais centrada no usuário e orientada pela ética para o desenvolvimento de tecnologias.

A longo prazo, a decisão pode estimular a inovação responsável dentro do campo da IA. Empresas poderiam ser incentivadas a desenvolver novas metodologias de treinamento de IA que requerem menos dados pessoais ou que utilizem técnicas de anonimização e pseudonimização. Além disso, a decisão reforça a importância da transparência e do consentimento do usuário, elementos que podem se tornar ainda mais centrais nas estratégias de desenvolvimento de produtos tecnológicos.

A discussão em torno da recente decisão da ANPD contra a Meta Platforms Inc. reflete uma problemática central no mundo contemporâneo: a necessidade de equilibrar a inovação tecnológica com a proteção de dados pessoais. Este caso destaca não apenas os desafios inerentes ao rápido avanço da IA, mas também a grande importância de regulamentações que salvaguardem os direitos fundamentais dos indivíduos.

Equilíbrio entre inovação e proteção de dados

As tecnologias de IA, ao transformar setores inteiros, oferecem imensas oportunidades para o crescimento econômico e o bem-estar social. Contudo, essas mesmas tecnologias podem também implicar riscos significativos para a privacidade e a segurança dos dados pessoais. A decisão da ANPD ilustra o papel crítico que as entidades reguladoras desempenham em manter esse equilíbrio, assegurando que a inovação não ocorra à custa de direitos individuais.

Perspectivas futuras sobre a regulação da IA

Olhando para o futuro, é provável que a regulação da IA se torne ainda mais rigorosa, tanto no Brasil quanto globalmente. A tendência é que as leis de proteção de dados se fortaleçam em resposta às novas demandas impostas pelo desenvolvimento tecnológico e pela crescente digitalização de nossas vidas. A decisão da ANPD pode servir como um precedente influente, incentivando a implementarem ou aprimorarem regulamentações que diretamente abordem os desafios específicos impostos pelo uso de IA, especialmente em contextos que envolvem grandes volumes de dados pessoais.

Além disso, espera-se que as empresas que desenvolvem e implementam soluções baseadas em IA aumentem seu foco em estratégias de conformidade e em práticas de desenvolvimento ético. Isso pode incluir a adoção de princípios de IA responsável, o fortalecimento de medidas de segurança de dados, e o investimento em tecnologias que promovam a transparência e permitam um controle mais efetivo dos usuários sobre seus dados.

Considerações finais

Em última análise, a interação entre inovação tecnológica e regulamentação de privacidade é dinâmica e requer uma vigilância contínua. A decisão da ANPD reforça a necessidade de um diálogo contínuo entre reguladores, empresas de tecnologia, acadêmicos e a sociedade civil para assegurar que os benefícios da inteligência artificial sejam realizados de forma que respeite e proteja a privacidade e a integridade dos dados pessoais. As decisões que tomamos hoje definirão o cenário regulatório e tecnológico do amanhã, influenciando não apenas a forma como interagimos com a tecnologia, mas também como ela molda nossa sociedade.

Publicado em Deixe um comentário

RELATÓRIO DA UNIÃO EUROPEIA QUESTIONA A PRECISÃO DOS DADOS DO CHATGPT

A equipe de defesa da privacidade da União Europeia (UE) avaliou que os esforços da OpenAI para reduzir o número de informações falsas geradas pelo ChatGPT ainda não são suficientes para cumprir as rigorosas políticas de dados da UE.

Conforme detalhado em um relatório publicado no site da equipe, as medidas adotadas para aumentar a transparência, apesar de úteis para evitar interpretações errôneas dos resultados do ChatGPT, ainda não atendem plenamente ao critério de precisão de dados exigido pela legislação europeia.

No ano passado, conforme noticiado pela Reuters, autoridades europeias de proteção de dados formaram uma equipe especializada para abordar questões específicas relacionadas ao ChatGPT. Essa ação foi motivada por preocupações levantadas por reguladores nacionais sobre o uso crescente deste serviço de inteligência artificial.

O relatório aponta que algumas investigações conduzidas por organizações nacionais de proteção de dados em vários Estados-Membros ainda estão em andamento. Portanto, os resultados apresentados devem ser entendidos como observações preliminares comuns a essas autoridades. A exatidão dos dados é uma das principais diretrizes da regulamentação de proteção de dados da UE.

“Devido à natureza probabilística do sistema, a metodologia atual de treinamento pode gerar informações tendenciosas ou fictícias,” destaca o relatório. “Além disso, os usuários finais podem interpretar os resultados gerados pelo ChatGPT como fatos precisos, especialmente quando se referem a dados sobre indivíduos, sem verificar a veracidade dessas informações.”

Esse levantamento sublinha a importância de medidas adicionais para garantir que as saídas do ChatGPT não apenas evitem erros interpretativos, mas também cumpram os elevados padrões de precisão de dados exigidos pela UE.

Publicado em Deixe um comentário

ANPD ABRE CONSULTA SOBRE TRATAMENTO DE DADOS DE CRIANÇAS E ADOLESCENTES

A Autoridade Nacional de Proteção de Dados (ANPD) iniciou uma Tomada de Subsídios referente ao Tratamento de Dados de Crianças e Adolescentes, com o propósito de fundamentar a criação de um projeto regulatório específico para essa faixa etária. A iniciativa está aberta por 30 dias na Plataforma Participa+Brasil, permitindo contribuições de indivíduos, órgãos públicos e organizações da sociedade civil.

Ao término do período de consulta, a Coordenação-Geral de Normatização (CGN) da ANPD analisará as sugestões recebidas e conduzirá uma Análise de Impacto Regulatório (AIR), que servirá de base para a formulação da solução regulatória mais apropriada.

A abrangência da Tomada de Subsídios é significativa, abordando temas como o melhor interesse do menor, consentimento fornecido por pais e responsáveis, coleta de dados por meio de jogos e aplicações de internet, e a transparência nas operações de tratamento de dados.

O tratamento de dados de crianças e adolescentes é uma questão central tanto para o Poder Público quanto para diversas organizações defensoras de direitos. Embora a Lei Geral de Proteção de Dados (LGPD) trate do assunto, há necessidade de análises regulatórias adicionais. É essencial considerar o desenvolvimento infantil e os riscos associados ao ambiente digital.

Em iniciativas anteriores, a ANPD já explorou o tema, como na Consulta Pública de setembro de 2022, que resultou no Enunciado CD/ANPD nº 01/2023, uniformizando a interpretação das hipóteses legais aplicáveis ao tratamento de dados de menores. Além disso, a Autoridade publicou um guia orientativo sobre o legítimo interesse, esclarecendo sua aplicação no contexto de dados de crianças e adolescentes.

Vale destacar que a proteção de dados pessoais de menores é uma prioridade contínua para a ANPD, sendo uma preocupação transversal que permeia todas as suas ações regulatórias. A Tomada de Subsídios é apenas um passo nesse processo abrangente de proteção e garantia de direitos.

Publicado em Deixe um comentário

RELATÓRIO DA UNIÃO EUROPEIA APONTA INSUFICIÊNCIAS NA TRANSPARÊNCIA DO CHATGPT

Uma equipe do órgão de defesa da privacidade da União Europeia (UE) divulgou um relatório indicando que os esforços da OpenAI para diminuir o número de resultados factualmente incorretos do ChatGPT ainda não são suficientes para atender às rigorosas políticas de dados da UE.

O relatório aponta que, embora as iniciativas para aumentar a transparência sejam positivas para evitar interpretações errôneas dos resultados do ChatGPT, essas medidas não bastam para garantir a precisão dos dados, conforme exigido pelas normas da UE.

No ano passado, as autoridades europeias de proteção de dados formaram uma equipe especializada para abordar questões relacionadas ao ChatGPT, após preocupações levantadas por reguladores nacionais sobre o serviço de inteligência artificial amplamente utilizado. Segundo o relatório, investigações conduzidas por organizações nacionais de proteção de dados em vários Estados-Membro ainda estão em andamento, e, portanto, os resultados completos não podem ser divulgados. Assim, os pontos destacados no relatório devem ser vistos como observações comuns entre as autoridades nacionais.

Uma regra fundamental de proteção de dados na UE é a exatidão. No entanto, o relatório enfatiza que, devido à natureza probabilística do ChatGPT, o modelo pode gerar informações tendenciosas ou fabricadas. Além disso, os resultados fornecidos pelo ChatGPT podem ser interpretados pelos usuários como fatos precisos, sem considerar a veracidade das informações.

É importante ressaltar a necessidade contínua de melhorar os mecanismos de precisão no ChatGPT para que se alinhem plenamente com os rigorosos padrões de proteção de dados da UE, destacando os desafios e a complexidade envolvidas na gestão da precisão em sistemas de inteligência artificial.

Publicado em Deixe um comentário

DESAFIOS DE COMPLIANCE NO SETOR DE TECNOLOGIA E TELECOMUNICAÇÕES

As empresas de tecnologia e telecomunicações estão na linha de frente dos desafios de compliance, devido à natureza altamente regulada de suas operações e ao vasto volume de dados pessoais que tratam diariamente. A gestão desses dados acarreta não apenas riscos regulatórios, mas também a possibilidade de incidentes de segurança que podem ter consequências significativas.

Para garantir maior eficiência e otimização, muitas empresas terceirizam parte de suas operações. Contudo, essa prática exige uma avaliação criteriosa dos terceiros contratados para assegurar que fornecedores e parceiros também estejam alinhados com as melhores práticas de compliance. Além disso, a natureza transfronteiriça das operações dessas empresas demanda a observância das regulamentações de diversos países, elevando o nível de complexidade e a necessidade de um programa de compliance robusto e integrado.

Consequências da Não Conformidade

A não conformidade com as regras de compliance no ambiente digital pode resultar em severas sanções e ações judiciais. Empresas que falham em proteger os dados pessoais podem enfrentar multas expressivas, proibições operacionais e outras penalidades administrativas. Além dos impactos financeiros, as empresas também podem sofrer danos irreparáveis à sua reputação e marca.

Desenvolvimento de Programas de Compliance

Desenvolver e implementar programas de compliance eficazes em um ambiente digital em constante evolução é crucial. O comprometimento da liderança é o primeiro passo fundamental para o sucesso de qualquer programa de compliance. A liderança deve compreender a importância do tema e alocar recursos adequados para manter um programa robusto e eficaz.

A criação de políticas e procedimentos de governança é essencial. Esses documentos devem ser amplamente divulgados e implementados de forma precisa no dia a dia das atividades empresariais.

Educação Digital e Governança Corporativa

A educação digital é outra peça-chave para a conformidade em um ambiente digital. Empresas têm a obrigação de educar os usuários sobre seus direitos e práticas de segurança para proteger dados pessoais. Esse esforço deve ser transparente e fornecer orientações claras sobre como os usuários podem proteger suas informações enquanto utilizam os serviços da empresa.

Avaliação de Riscos e Medidas Técnicas

As empresas devem estar constantemente atentas aos riscos de violação da privacidade dos dados. Avaliações periódicas dos riscos e impactos são essenciais para identificar vulnerabilidades. Medidas técnicas e organizacionais, como controles de acesso, autenticação multifatorial, gerenciamento de privilégios, monitoramento de atividades, criptografia e sistemas de detecção de ameaças, são cruciais para garantir a segurança dos dados.

Transferências Internacionais de Dados

Para transferências internacionais de dados, é necessário garantir que os dados sejam protegidos conforme os padrões regulatórios de cada localidade. Cláusulas contratuais robustas devem ser implementadas para assegurar o tratamento adequado dos dados e permitir auditorias regulares das práticas de segurança e conformidade.

Inovação e Tecnologia no Compliance

As novas tecnologias são ferramentas fundamentais para a inovação nos processos de compliance. Análises preditivas podem examinar grandes conjuntos de dados para identificar padrões e possíveis violações de compliance. Tecnologias avançadas também facilitam auditorias digitais, permitindo uma coleta e análise mais eficiente de evidências em casos de incidentes de segurança. Isso não apenas mitiga danos aos titulares de dados, mas também assegura a conformidade regulatória, atendendo princípios como o da responsabilização e prestação de contas previstos na Lei Geral de Proteção de Dados (LGPD).

A complexidade do ambiente digital e as crescentes exigências regulatórias impõem um desafio significativo às empresas de tecnologia e telecomunicações. No entanto, com um compromisso firme da liderança, políticas bem estruturadas, educação contínua e uso de tecnologias avançadas, é possível desenvolver um programa de compliance eficaz que proteja dados pessoais e sustente a confiança e a integridade da empresa.

Publicado em Deixe um comentário

BIOMETRIA E A REVOLUÇÃO DA SEGURANÇA DE DADOS

Imagine um futuro onde esquecer senhas e perder crachás se torne obsoleto. Em vez de enfrentar o tedioso processo de preencher formulários, um novo funcionário poderia simplesmente fornecer algumas informações biométricas. O rosto seria escaneado, o modo de caminhar analisado, uma frase gravada, e pronto: o próprio corpo se tornaria a chave para acessar todas as áreas da empresa.

Este é o cenário que especialistas em biometria preveem. De acordo com uma recente reportagem do The Wall Street Journal, a integração dessas tecnologias promete transformar a experiência de segurança e acesso nas empresas. Um diretor de tecnologia de uma empresa de segurança descreve uma experiência perfeitamente integrada: ao chegar ao estacionamento, sua localização seria detectada pelo sistema do celular. Entrando pela porta principal, o reconhecimento facial abriria a porta e desbloquearia seu computador automaticamente.

Além de eliminar a inconveniência das senhas esquecidas, essa tecnologia poderia fortalecer significativamente a proteção contra ataques cibernéticos. No entanto, isso levanta importantes questões sobre a privacidade e o uso de dados biométricos pelos empregadores.

Hoje, já vemos scanners de palma em consultórios médicos e o desbloqueio de smartphones por impressão digital. O reconhecimento facial é comum em aeroportos e estádios. Mas, com o avanço contínuo da inteligência artificial e da tecnologia de sensores, podemos esperar uma integração ainda mais sofisticada de dados biométricos nos próximos anos.

Mesmo com os benefícios evidentes, como maior proteção contra invasões, há preocupações legítimas sobre a privacidade e a segurança dos dados. A chave para equilibrar esses benefícios e riscos está na combinação de criptografia robusta e regulamentações governamentais rigorosas sobre a coleta, uso e armazenamento de informações biométricas.

Embora substituir senhas por biometria possa parecer algo futurista, a indústria de tecnologia está cada vez mais focada nesse objetivo. Grandes empresas de tecnologia estão na vanguarda dessa mudança, promovendo métodos de autenticação baseados em biometria em vez de senhas tradicionais. Contudo, como especialistas em segurança digital alertam, mesmo a melhor tecnologia pode falhar. E quando se trata de dados biométricos, os riscos de vazamento ou roubo são particularmente preocupantes, já que não podemos simplesmente substituir nossas características físicas.

Assim, enquanto avançamos em direção a um futuro onde a biometria possa proporcionar segurança e conveniência sem precedentes, é importante continuar discutindo e desenvolvendo medidas para proteger nossa privacidade e segurança de dados.

Publicado em Deixe um comentário

ENTENDA AS NOVAS DIRETRIZES E DESAFIOS COM O GUIA DA ANPD

Recentemente, a Autoridade Nacional de Proteção de Dados (ANPD) lançou o “Guia Orientativo – Hipóteses legais de tratamento de dados pessoais – Legítimo Interesse”, que aprofunda o entendimento sobre a aplicação da Lei Geral de Proteção de Dados Pessoais (LGPD). Este guia detalha o legítimo interesse (LI), uma base legal que autoriza o tratamento de dados pessoais (não sensíveis) para atender interesses legítimos do controlador ou de terceiros, desde que esses interesses não violem os direitos e liberdades fundamentais dos titulares dos dados.

O guia apresenta interpretações da ANPD sobre o uso do LI, incluindo exemplos práticos e um modelo de teste de balanceamento. Este teste é crucial para que as empresas possam demonstrar um equilíbrio adequado entre os interesses envolvidos, garantindo que o tratamento dos dados seja proporcional e seguro.

A adoção da base do legítimo interesse representa um desafio para as empresas, que precisam realizar o teste de balanceamento para assegurar a proporcionalidade e a segurança no tratamento dos dados pessoais. Apesar de a minuta inicial do documento sugerir a obrigatoriedade do registro do teste, a versão final do guia não confirma essa exigência, mas indica que o registro contribui para a transparência e a prestação de contas, além de permitir a avaliação da conformidade pela ANPD.

O guia ressalta que os controladores devem avaliar os riscos e a necessidade de registrar o teste de balanceamento caso a caso, sendo obrigatório apenas no tratamento de dados de crianças e adolescentes baseado no legítimo interesse.

O documento também detalha os passos que o agente de tratamento deve seguir, desde a identificação da natureza dos dados até a avaliação dos interesses do controlador ou de terceiros. A ANPD considera a coletividade como um terceiro relevante, permitindo a aplicação do conceito de legítimo interesse em situações que beneficiem a sociedade como um todo, desde que respeitados os preceitos legais.

Para que o legítimo interesse seja válido, o controlador deve identificar e justificar o interesse, garantindo sua compatibilidade com as regras jurídicas, evitando situações especulativas ou futuras, e vinculando-o a finalidades legítimas e explícitas. O guia exemplifica a aplicação do legítimo interesse, permitindo que instituições de ensino enviem promoções aos seus alunos e professores, desde que observadas as disposições legais.

Apesar da clareza do guia, a aplicação do legítimo interesse é passível de questionamento, tanto pela ANPD quanto pelos titulares dos dados. Portanto, é essencial que os controladores sigam rigorosamente as orientações do guia, assegurando transparência e mecanismos que permitam aos titulares exercerem seus direitos.

O “Guia Orientativo – Hipóteses legais de tratamento de dados pessoais – Legítimo Interesse” da ANPD é um marco importante na regulamentação do tratamento de dados pessoais no Brasil, trazendo clareza e novos desafios para as empresas na implementação da LGPD.

Publicado em Deixe um comentário

NOVA RESOLUÇÃO DO TSE IMPÕE REGRAS PARA USO DE IA NA PROPAGANDA ELEITORAL

Recentemente, o Tribunal Superior Eleitoral (TSE) aprovou uma nova resolução que impactará a propaganda eleitoral para as eleições municipais de 2024, especificamente abordando o uso de inteligência artificial (IA), proteção de dados e fake news. A Resolução Nº 23.732/24 altera a Resolução nº 23.610/19 e traz à tona questões cruciais sobre a identificação e rotulagem de conteúdo sintético multimídia em peças publicitárias.

Uma das mudanças mais notáveis é a exigência de rotulagem de qualquer peça publicitária que utilize IA. Esta determinação visa informar o público sobre o uso de tecnologia avançada na criação de imagens, textos ou vídeos. No entanto, a aplicação prática dessa exigência gera dúvidas, pois a IA pode ser utilizada em várias fases do desenvolvimento publicitário, desde a pesquisa até a produção final. A resolução esclarece que o rótulo deve ser aplicado ao conteúdo final veiculado ao público, garantindo transparência sobre o uso de IA no material divulgado.

Além disso, o uso de chatbots e avatares foi restringido, proibindo qualquer simulação de conversas com candidatos ou pessoas reais, com o objetivo de evitar a disseminação de informações falsas ou enganosas. A vedação ao uso de deepfakes também é destacada, proibindo a utilização de qualquer conteúdo artificialmente gerado ou modificado que possa influenciar negativamente o processo eleitoral.

A resolução também aborda a proteção de dados, classificando campanhas em cidades com menos de 200.000 eleitores como agentes de tratamento de pequeno porte, aplicando-se as disposições da Resolução CD/ANPD nº 2 de 2022. Há uma exigência de registro detalhado das operações de tratamento de dados, incluindo informações sobre o tipo de dado, sua origem, categorias de titulares, finalidade e medidas de segurança adotadas.

Outra medida significativa é a exigência de um relatório de impacto à proteção de dados (RIPD) para campanhas que realizem tratamento de dados de alto risco, especialmente aquelas que envolvem tecnologias inovadoras ou dados sensíveis. Esse relatório deve ser elaborado pela candidata ou candidato e pelo partido político, detalhando os tipos de dados coletados, os riscos identificados, as metodologias de tratamento e as medidas de mitigação de riscos.

Essas regulamentações são essenciais para garantir que a IA e outras tecnologias emergentes sejam usadas de maneira responsável no contexto eleitoral, preservando a integridade do processo democrático e protegendo os direitos dos eleitores. Em um cenário global onde o uso irresponsável da IA em campanhas eleitorais tem sido reportado, como em casos nos EUA onde telefonemas automatizados enganam eleitores, a iniciativa do TSE representa um avanço significativo na busca por um processo eleitoral mais justo e transparente.