Publicado em

POLÍCIA FEDERAL DESCOBRE REDE DE ESPIONAGEM NO INSS

O governo brasileiro apresentou um novo método para simplificar o processo de denúncias de violações à Lei Geral de Proteção de Dados (LGPD). Esta iniciativa, liderada pela Autoridade Nacional de Proteção de Dados (ANPD) em conjunto com o Ministério da Gestão e Inovação em Serviços Públicos (MGI), introduz uma plataforma digital acessível pelo GOV.BR, dedicada exclusivamente ao recebimento dessas denúncias.

Essa nova plataforma representa um avanço significativo no fortalecimento da proteção de dados pessoais dos cidadãos. Projetada para ser um canal eficiente e seguro, a ferramenta facilita o envio de petições e denúncias, garantindo a privacidade e a segurança das informações compartilhadas. Com medidas de segurança avançadas, o sistema protege a identidade dos denunciantes e assegura a confidencialidade das informações fornecidas, promovendo um ambiente seguro e anônimo para os usuários.

O lançamento desta plataforma reflete o esforço contínuo do governo em modernizar os serviços disponíveis aos titulares de dados pessoais, tornando o processo mais acessível e eficiente. O desenvolvimento da ferramenta, que levou um ano de trabalho dedicado, visa proporcionar uma experiência fluida e intuitiva para os usuários. A intenção é estar cada vez mais próximo do cidadão, simplificando os processos e tornando-os mais eficientes.

As soluções oferecidas pelo GOV.BR, já utilizadas por milhões de brasileiros, eliminam a necessidade de criação de novas senhas e facilitam o acesso a milhares de serviços digitais. Este novo canal para denúncias e petições de violações à LGPD integra-se a este ecossistema digital, consolidando a plataforma GOV.BR como um ponto central para a interação dos cidadãos com serviços públicos.

Para assegurar uma transição suave, o método anterior de envio de denúncias, através do Sistema Eletrônico de Informações (SEI), continuará em operação por um período. Isso permitirá que os cidadãos se adaptem ao novo sistema e que eventuais inconsistências sejam identificadas e corrigidas.

Para enviar uma denúncia ou petição, o usuário deve acessar a página do serviço, clicar em “Iniciar” e autenticar-se com seu login no GOV.BR. Após a autenticação, o usuário seleciona o tipo de pedido que deseja fazer: “Denúncia” ou “Petição”. Todos os pedidos podem ser acompanhados na página “Minhas Solicitações”, desde que o solicitante esteja devidamente identificado. Cabe destacar que, embora as denúncias possam ser feitas de forma anônima, as petições exigem identificação do titular dos dados pessoais.

Esta nova plataforma é um marco na evolução dos serviços digitais oferecidos pelo governo, proporcionando aos cidadãos uma ferramenta robusta e acessível para a proteção de seus direitos relacionados à privacidade e proteção de dados.

Publicado em

A DESCENTRALIZAÇÃO DAS REDES SOCIAIS: O FUTURO INEVITÁVEL CONTRA A REGULAÇÃO DE DIREITOS FUNDAMENTAIS

Introdução

O debate sobre a regulamentação das redes sociais tem sido um tema recorrente nos corredores legislativos ao redor do mundo. No Brasil, a trajetória regulatória encontra-se marcada por iniciativas como o Marco Civil da Internet de 2014, que, apesar de aparente regulação, ainda deixa lacunas significativas no que diz respeito ao controle e à gestão de dados em plataformas digitais. O futuro inevitável é transformar radicalmente este cenário é a descentralização das redes sociais através da tecnologia blockchain. 

Descentralização via Blockchain

A Tecnologia de Registro Distribuído (DLT – Distributed Ledger Technology) refere-se a um consenso de registros replicados, compartilhados e sincronizados geograficamente dispersos, mantidos por membros distintos de uma rede. Ao contrário dos sistemas de registro tradicionais, centralizados em uma autoridade única (como um banco central, por exemplo), a DLT permite que a informação exista simultaneamente em múltiplos locais, sendo acessível e verificável por todos os participantes da rede sem a necessidade de uma entidade central de controle.

Características Principais:

Descentralização: A DLT opera em uma estrutura descentralizada, o que significa que os registros são mantidos em muitos computadores (nós) em toda a rede, em vez de ser armazenados em um local central. Isso ajuda a eliminar pontos únicos de falha e aumenta a resistência contra ataques cibernéticos através de características fundamentais: Primeiramente, a redundância de dados é garantida, pois cada nó na rede mantém uma cópia completa do registro, assegurando que a integridade do sistema seja preservada mesmo se alguns nós forem comprometidos. Além disso, a segurança dos dados é reforçada pelo uso de hashes criptográficos que interligam os blocos, tornando modificações retroativas computacionalmente inviáveis sem a recalculação de todos os blocos subsequentes. A maioria das redes DLT também exige um consenso para alterações, necessitando que a maioria dos participantes valide qualquer mudança, o que protege contra manipulações unilaterais. A transparência da rede permite uma auditoria constante por todos os usuários, facilitando a rápida detecção e correção de qualquer tentativa de fraude. Por fim, a ausência de um único ponto de controle dificulta enormemente a execução de ataques coordenados, tornando as plataformas baseadas em DLT particularmente seguras em comparação aos sistemas centralizados tradicionais.

Transparência e segurança: Cada transação no ledger é verificável por todos os participantes e deve ser confirmada por consenso da rede antes de ser permanentemente adicionada. Além disso, a utilização de criptografia assegura a integridade e a segurança das transações.
Imutabilidade: Uma vez que uma transação é registrada no ledger, ela não pode ser alterada ou apagada, garantindo um histórico transparente e auditável de todas as transações.
Consensos: A DLT utiliza mecanismos de consenso para validar transações. Estes mecanismos, que podem variar (como Proof of Work, Proof of Stake, entre outros), são fundamentais para manter a integridade e a confiança na rede.
Tipos de DLT:

Embora o blockchain seja o tipo mais conhecido de DLT, existem outras variações que se diferenciam principalmente no modo como os dados são estruturados e no mecanismo de consenso utilizado. Algumas dessas variações incluem:

Blockchain: Um tipo de DLT que organiza os dados em blocos encadeados cronologicamente. Blockchain é um tipo específico de Tecnologia de Registro Distribuído que organiza dados em blocos encadeados cronologicamente e que se tornou famoso principalmente pelo seu uso em criptomoedas como o Bitcoin. No entanto, as aplicações do blockchain vão muito além das criptomoedas.

Exemplo prático: Bitcoin

O Bitcoin, a primeira e mais conhecida criptomoeda, utiliza a tecnologia blockchain para facilitar e registrar transações financeiras de forma segura e descentralizada. Cada transação realizada com Bitcoin é verificada por uma rede de computadores (nodos) e, uma vez confirmada, é adicionada a um bloco de outras transações recentes. Uma vez que um bloco é preenchido, ele é adicionado ao final da cadeia de blocos existente, de maneira sequencial e imutável.

Esse processo não apenas garante a segurança das transações, impedindo fraudes e duplicidades (como o problema do gasto duplo), mas também elimina a necessidade de intermediários, como bancos ou governos, para validar ou facilitar as transações. O blockchain do Bitcoin é público, o que significa que qualquer pessoa na rede pode ver todas as transações que já foram feitas, garantindo transparência total, embora as identidades dos usuários permaneçam protegidas por meio de pseudônimos.

Através do Bitcoin, a tecnologia blockchain demonstrou a viabilidade de sistemas financeiros alternativos que são globais, acessíveis e significativamente menos suscetíveis à interferência externa ou à corrupção. Este exemplo pioneiro tem inspirado inúmeras outras aplicações em diversos setores, desde a logística até o registro de propriedades, destacando o potencial transformador do blockchain.

Tangle: Utilizado pelo IOTA, organiza as transações em uma rede de nós interconectados, não necessariamente formando uma cadeia linear ou blocos. O Tangle, utilizado pela IOTA, representa uma abordagem inovadora ao descentralizar transações através de uma estrutura conhecida como DAG – Directed Acyclic Graph, divergindo do tradicional blockchain que organiza transações em blocos lineares. No Tangle, cada transação é conectada individualmente a duas outras anteriores, não formando blocos ou cadeias lineares, mas uma rede interconectada. Este método de validação descentralizada requer que cada nova transação valide duas transações prévias, contribuindo para a segurança e reduzindo a possibilidade de spam e ataques. Essa estrutura promove maior velocidade e eficiência, escalando positivamente à medida que o volume de transações aumenta, o que contrasta com os blockchains tradicionais que podem sofrer com lentidão e congestionamento. Além disso, o Tangle elimina a necessidade de mineradores, reduzindo significativamente o consumo de energia e os custos de transação, tornando-o ideal para microtransações e aplicações em IoT – Internet das Coisas, onde pequenos dispositivos realizam frequentes transações de dados ou micro-pagamentos. A robustez, a segurança e a escalabilidade sem taxas fazem do Tangle uma solução atraente para a crescente demanda por eficiência em transações digitais descentralizadas.


Hashgraph: Usa uma estrutura de grafos acíclicos dirigidos para alcançar consenso, prometendo ser mais rápido e eficiente em termos de energia do que as blockchains tradicionais. Hashgraph se destaca como uma tecnologia de consenso baseada em uma estrutura de grafos acíclicos dirigidos (DAG), prometendo superar as blockchains tradicionais em termos de velocidade e eficiência energética. Diferente do blockchain, que organiza dados em blocos sequenciais, o Hashgraph permite que múltiplas transações ocorram simultaneamente, sem necessidade de formação de blocos ou mineração. Esta característica resulta em um processo de consenso muito mais rápido e com menor consumo de energia, tornando-o ideal para aplicações que exigem grande volume de transações em alta velocidade. Além disso, o Hashgraph é projetado para fornecer um alto grau de segurança e justiça, assegurando que todas as transações sejam tratadas na mesma sequência em que foram recebidas, evitando manipulações e garantindo a integridade dos dados. Por essas razões, Hashgraph é visto como uma alternativa promissora às tecnologias de registro distribuído convencionais, oferecendo uma solução escalável e eficiente para o crescente universo das transações digitais.
A tecnologia blockchain é fundamentalmente uma base de dados distribuída, caracterizada pela sua robustez e transparência. Cada “bloco” na “cadeia” contém um número de transações, e uma vez que um bloco é completado, ele se junta à cadeia de forma permanente e inalterável. Na prática, isto significa que a tecnologia não é controlada por uma única entidade, mas sim distribuída entre todos os participantes da rede.

Aplicado às redes sociais, o blockchain permitiria que cada postagem, comentário ou curtida fosse registrado em um bloco, eliminando a necessidade de servidores centralizados controlados por uma empresa específica. Isso não apenas aumenta a segurança contra ataques cibernéticos, mas também promove uma maior privacidade do usuário, visto que seus dados não estariam armazenados em um servidor central susceptível a exploração comercial ou vigilância governamental.

Implicações Regulatórias

No Brasil, o contexto regulatório é particularmente complexo. Embora o Marco Civil da Internet de 2014 tenha sido um marco na definição de direitos e deveres para usuários e provedores de internet, ele não conseguiu antecipar o surgimento e as implicações de redes sociais descentralizadas. Durante a elaboração desta legislação, observou-se um intenso lobby por parte das grandes empresas de tecnologia, que influenciou significativamente o texto final da lei. Essa interferência levanta preocupações legítimas sobre a possibilidade de um cenário semelhante ocorrer em futuras tentativas de regulamentação das plataformas digitais.

Além disso, o crescente debate sobre a regulamentação das redes sociais frequentemente parece menos sobre a proteção dos usuários e mais sobre a tentativa de controlar o discurso público. As redes sociais, ao democratizar a produção e distribuição de informação, reduziram significativamente o monopólio tradicionalmente detido pelos grandes veículos de mídia. Isso elevou a liberdade de expressão do cidadão comum, que agora pode expressar, debater e disseminar ideias sem os filtros editoriais das mídias tradicionais. Neste contexto, é essencial questionar se a regulamentação proposta busca genuinamente proteger os direitos dos usuários ou se, por outro lado, reflete uma tentativa de reconquistar o controle sobre o fluxo de informações e, consequentemente, sobre a opinião pública.

Exemplos Internacionais

Olhando para as iniciativas internacionais, como a União Europeia com o GDPR – Regulamento Geral sobre a Proteção de Dados, vemos uma clara demanda por transparência e consentimento no tratamento de dados pessoais, princípios que poderiam ser naturalmente assegurados pelo uso de blockchain em redes sociais. Esta tecnologia garante que as transações de dados sejam rastreáveis e inalteráveis, oferecendo uma nova camada de segurança e privacidade que está em total alinhamento com as diretrizes do GDPR.

Em contraste, regimes autoritários como o da China apresentariam um cenário completamente diferente. Dada a natureza centralizada e controladora do governo chinês sobre a informação e a comunicação, é altamente improvável que uma tecnologia que promove a descentralização, como o blockchain, seja permitida para redes sociais dentro de suas fronteiras. O regime comunista da China depende de um controle rigoroso sobre a mídia e a expressão pública para manter a ordem e a conformidade, e uma rede social descentralizada seria inerentemente subversiva a esse controle, oferecendo aos cidadãos uma plataforma incontrolável e livre de censura estatal. Portanto, é de se esperar que tais tecnologias sejam categoricamente rejeitadas ou severamente limitadas pelo governo chinês.

Conclusão

A descentralização das redes sociais não só oferece novas perspectivas em termos de privacidade e segurança dos dados, como também redefine o papel dos governos na regulamentação desses ambientes digitais. Esta tecnologia traz consigo múltiplas vantagens, mas também desafios significativos, especialmente no campo da regulamentação. A descentralização de qualquer grande rede social usando DLT não seria apenas uma mudança técnica, mas também uma transformação cultural e estrutural significativa tanto para a empresa quanto para os usuários. Envolveria superar desafios técnicos, legais e de usabilidade, mas poderia potencialmente levar a uma internet mais segura, privada e democrática, onde os usuários têm controle real sobre seus dados e interações. 

Antes mesmo de considerar a implementação de qualquer tipo de regulamentação, os governos enfrentariam um obstáculo formidável: o poderoso lobby das grandes corporações tecnológicas, que historicamente têm exercido uma influência substancial sobre as políticas e legislações. Mesmo superando essa barreira, os governos se deparariam com a robustez da DLT. A natureza intrinsecamente resistente e autônoma da DLT desafia qualquer tentativa de imposição autoritária, pois não está à mercê de sistemas obsoletos ou controles centralizados. O caminho à frente exige um diálogo aberto e contínuo entre tecnólogos, legisladores e a sociedade civil para abordar completamente as implicações desta evolução tecnológica inevitável, afinal a tecnologia não perdoa.

Publicado em

IA E PROTEÇÃO DE DADOS: DESAFIOS REGULATÓRIOS E O CASO DA META PLATFORMS

A IA está se tornando cada vez mais onipresente em nossas vidas, transformando uma ampla gama de processos comerciais e pessoais com um potencial quase ilimitado para inovação. Seja melhorando a eficiência operacional, personalizando a experiência do usuário, ou mesmo impulsionando avanços em áreas críticas como saúde e educação, a IA está na vanguarda da revolução tecnológica. No entanto, à medida que essa tecnologia se infiltra em mais aspectos de nossa existência diária, crescem também as preocupações com a proteção de dados pessoais.

O equilíbrio entre a inovação trazida pela IA e a privacidade dos indivíduos é uma questão cada vez mais premente. A capacidade da IA de processar e analisar grandes volumes de dados pessoais pode oferecer insights profundos e melhorias de serviço, mas também apresenta riscos significativos de privacidade e segurança. Neste contexto, a intervenção regulatória torna-se crucial. Um exemplo emblemático dessa tensão regulatória é a recente decisão da ANPD – Autoridade Nacional de Proteção de Dados do Brasil, que impôs medidas restritivas contra a Meta Platforms Inc., anteriormente conhecida como Facebook. A decisão visou suspender a implementação de novas políticas de privacidade relacionadas ao uso de dados pessoais para o treinamento de sistemas de IA generativa, destacando os desafios de assegurar que tais inovações não comprometam os direitos fundamentais dos usuários.

Este caso sublinha a necessidade imperativa de uma vigilância regulatória robusta e de uma abordagem ponderada que não apenas fomente a inovação tecnológica, mas também proteja rigorosamente a privacidade e os dados pessoais. A medida da ANPD reflete um passo significativo na direção de um quadro legal que busca harmonizar esses dois objetivos, servindo como um ponto de referência para o debate global sobre como melhor regular o impacto transformador da inteligência artificial em nossa sociedade.

A ascensão da IA

A IA, um campo que abrange desde algoritmos simples até complexos sistemas de aprendizado de máquina, vem sendo cada vez mais adotada em uma miríade de setores industriais. Sua aplicabilidade estende-se desde a realização de análises preditivas, que antecipam tendências de mercado e comportamento de consumidores, até a automação de processos, que substitui a intervenção humana em tarefas repetitivas e meticulosas, culminando na personalização de serviços, que ajusta experiências e ofertas às necessidades individuais dos usuários.

Benefícios da IA

Os benefícios proporcionados pela IA são multifacetados e substanciais. No setor de saúde, por exemplo, algoritmos de IA são utilizados para diagnosticar doenças com precisão e rapidez que superam frequentemente a capacidade humana. Na indústria financeira, a IA melhora a segurança através da detecção de fraudes e da gestão de risco, enquanto no varejo, sistemas de recomendação baseados em IA aprimoram a experiência do cliente ao sugerir produtos alinhados com suas preferências passadas e atuais. Essas inovações não apenas aumentam a eficiência e a eficácia operacional, mas também abrem novos caminhos para a personalização em massa e o engajamento do cliente.

Desafios éticos e de privacidade

Entretanto, o avanço da IA não está isento de desafios significativos, especialmente no que tange à ética e à privacidade. A capacidade desses sistemas de coletar, armazenar e processar enormes volumes de dados pessoais gera preocupações profundas com a segurança e a integridade dessas informações. O risco de vazamentos de dados, uso indevido de informações sensíveis e a falta de transparência sobre como os dados são utilizados e por que são questões que demandam urgente atenção regulatória e ética.

Ademais, a automação trazida pela IA pode conduzir a questões de desemprego tecnológico, enquanto o viés algorítmico – onde sistemas perpetuam ou até exacerbam discriminações preexistentes – suscita debates acalorados sobre a justiça e a imparcialidade das decisões tomadas por máquinas. Tais preocupações enfatizam a necessidade de desenvolver e implementar IA de maneira responsável, assegurando que tecnologias avançadas promovam benefícios sem erodir a ética ou comprometer os direitos fundamentais dos indivíduos.

Portanto, enquanto a ascensão da inteligência artificial sinaliza uma era de possibilidades quase ilimitadas, ela também impõe a necessidade imperativa de vigilância e regulamentação robustas para garantir que seu uso seja equitativo, seguro e respeitoso com a privacidade e a dignidade humana.

O caso da Meta Platforms e a decisão da ANPD

A recente intervenção da ANPD no Brasil no caso da Meta Platforms Inc. ilustra vividamente as complexas interseções entre inovação tecnológica e regulamentação de privacidade. A decisão da ANPD, que resultou na suspensão de partes específicas da nova política de privacidade da Meta relacionadas ao uso de dados para o treinamento de sistemas de inteligência artificial generativa, marca um momento decisivo na governança de dados pessoais frente às tecnologias emergentes.

Detalhamento da decisão

Conforme explicitado pelo despacho decisório 20/24/PR/ANPD, a medida preventiva foi adotada após um cuidadoso escrutínio das políticas propostas pela Meta. A decisão determinou a suspensão imediata da implementação da política que permitiria o uso extensivo de dados pessoais para o treinamento de IA. Isso incluía não apenas os dados de usuários ativos das plataformas da Meta, mas também de indivíduos não usuários, ampliando significativamente o escopo de coleta e análise de dados pessoais.

Base legal e justificativa

A ANPD baseou sua decisão em uma série de fundamentos legais solidamente estabelecidos, incluindo, mas não se limitando a:

Art. 45 da Lei nº 9.784/1999: Que regula o processo administrativo no âmbito da Administração Pública Federal.
Arts. 52 e 54 da LGPD: Que tratam das sanções administrativas aplicáveis em caso de tratamento de dados realizado em desacordo com a legislação.
Art. 26, IV, do decreto 10.474/20: Que especifica procedimentos e competências da ANPD.
Arts. 7°, IV e 55 do Regimento Interno da ANPD: Que detalham as atribuições e poderes conferidos ao Conselho Diretor da ANPD.
O uso destas bases legais reflete a abordagem adotada pela ANPD para garantir que qualquer forma de processamento de dados respeite os limites impostos pela legislação brasileira. O “risco iminente de dano grave e irreparável”, mencionado no despacho, sublinha a preocupação da ANPD com a potencial violação massiva dos direitos fundamentais dos titulares dos dados, considerando a natureza invasiva das práticas propostas pela Meta.

Implicações da Medida Preventiva

Esta decisão não apenas impõe a necessidade de uma revisão substancial das práticas de privacidade pela Meta, mas também serve como um alerta para outras corporações que operam em território brasileiro e globalmente, reiterando a seriedade com que as questões de privacidade estão sendo tratadas pela ANPD. A ação da ANPD é um lembrete potente de que a inovação tecnológica não pode avançar à custa de direitos pessoais, e que a proteção de dados pessoais é um pilar central na regulação de tecnologias disruptivas como a inteligência artificial.

Implicações e reflexões sobre a decisão

A decisão proferida pela ANPD contra a Meta Platforms Inc. traz à tona várias implicações significativas para a empresa e para o ecossistema tecnológico mais amplo, especialmente no que se refere ao desenvolvimento e aplicação da IA em conformidade com as normas de proteção de dados.

Consequências para a Meta Platforms e o setor tecnológico

Para a Meta Platforms, esta decisão implica a necessidade de reavaliar e modificar suas práticas de coleta e uso de dados, especialmente aquelas relacionadas ao treinamento de sistemas de IA generativa. O impacto é duplo: operacional e reputacional. Operacionalmente, a Meta deve adaptar suas operações para garantir que as políticas de privacidade estejam em total conformidade com as determinações da ANPD, o que pode requerer investimentos significativos em tecnologia e governança de dados. Reputacionalmente, a decisão enfatiza a posição da empresa sob escrutínio regulatório, o que pode afetar a confiança dos usuários e, por extensão, influenciar negativamente a participação de mercado e a percepção pública.

Outras empresas do setor de tecnologia, particularmente aquelas que operam no Brasil ou que coletam e processam dados de cidadãos brasileiros, também precisarão revisar suas operações. Esta decisão serve como um lembrete crítico da necessidade de aderência estrita às leis de proteção de dados, sublinhando que a ANPD está ativa e disposta a tomar medidas punitivas contra práticas consideradas prejudiciais aos direitos dos titulares de dados.

Influência em políticas de privacidade e práticas de desenvolvimento de IA

A nível global, a decisão da ANPD pode ter um efeito cascata, incentivando outras jurisdições a adotarem posturas semelhantes na regulamentação da IA e na proteção de dados. Isso pode levar a uma padronização mais rígida das práticas de privacidade e uso de dados em IA forçando as empresas a adotarem uma abordagem mais centrada no usuário e orientada pela ética para o desenvolvimento de tecnologias.

A longo prazo, a decisão pode estimular a inovação responsável dentro do campo da IA. Empresas poderiam ser incentivadas a desenvolver novas metodologias de treinamento de IA que requerem menos dados pessoais ou que utilizem técnicas de anonimização e pseudonimização. Além disso, a decisão reforça a importância da transparência e do consentimento do usuário, elementos que podem se tornar ainda mais centrais nas estratégias de desenvolvimento de produtos tecnológicos.

A discussão em torno da recente decisão da ANPD contra a Meta Platforms Inc. reflete uma problemática central no mundo contemporâneo: a necessidade de equilibrar a inovação tecnológica com a proteção de dados pessoais. Este caso destaca não apenas os desafios inerentes ao rápido avanço da IA, mas também a grande importância de regulamentações que salvaguardem os direitos fundamentais dos indivíduos.

Equilíbrio entre inovação e proteção de dados

As tecnologias de IA, ao transformar setores inteiros, oferecem imensas oportunidades para o crescimento econômico e o bem-estar social. Contudo, essas mesmas tecnologias podem também implicar riscos significativos para a privacidade e a segurança dos dados pessoais. A decisão da ANPD ilustra o papel crítico que as entidades reguladoras desempenham em manter esse equilíbrio, assegurando que a inovação não ocorra à custa de direitos individuais.

Perspectivas futuras sobre a regulação da IA

Olhando para o futuro, é provável que a regulação da IA se torne ainda mais rigorosa, tanto no Brasil quanto globalmente. A tendência é que as leis de proteção de dados se fortaleçam em resposta às novas demandas impostas pelo desenvolvimento tecnológico e pela crescente digitalização de nossas vidas. A decisão da ANPD pode servir como um precedente influente, incentivando a implementarem ou aprimorarem regulamentações que diretamente abordem os desafios específicos impostos pelo uso de IA, especialmente em contextos que envolvem grandes volumes de dados pessoais.

Além disso, espera-se que as empresas que desenvolvem e implementam soluções baseadas em IA aumentem seu foco em estratégias de conformidade e em práticas de desenvolvimento ético. Isso pode incluir a adoção de princípios de IA responsável, o fortalecimento de medidas de segurança de dados, e o investimento em tecnologias que promovam a transparência e permitam um controle mais efetivo dos usuários sobre seus dados.

Considerações finais

Em última análise, a interação entre inovação tecnológica e regulamentação de privacidade é dinâmica e requer uma vigilância contínua. A decisão da ANPD reforça a necessidade de um diálogo contínuo entre reguladores, empresas de tecnologia, acadêmicos e a sociedade civil para assegurar que os benefícios da inteligência artificial sejam realizados de forma que respeite e proteja a privacidade e a integridade dos dados pessoais. As decisões que tomamos hoje definirão o cenário regulatório e tecnológico do amanhã, influenciando não apenas a forma como interagimos com a tecnologia, mas também como ela molda nossa sociedade.

Publicado em

CIBERAMEAÇAS COM IA LEVAM EMPRESAS A AUMENTAR INVESTIMENTOS EM SEGURANÇA NA NUVEM

Com o aumento dos ataques cibernéticos baseados em inteligência artificial (IA), as empresas brasileiras estão priorizando a segurança na nuvem. De acordo com o Relatório de Segurança na Nuvem de 2024 da Fortinet, 61% das empresas planejam aumentar seus investimentos em segurança na nuvem nos próximos 12 meses.

Conduzido pela Cybersecurity Insiders, o estudo destaca que a crescente adoção de ambientes híbridos e multicloud, combinada com o aumento das ameaças cibernéticas baseadas em IA, está impulsionando a busca por medidas de proteção mais robustas.

Riscos e Necessidade de Investimento

As empresas estão cada vez mais conscientes dos riscos associados à nuvem e da necessidade de implementar medidas de segurança mais eficazes. Entre os principais fatores que motivam o aumento dos investimentos estão:

  1. Proteção de Dados Confidenciais: Com o armazenamento crescente de dados confidenciais na nuvem, as empresas se tornam alvos atrativos para cibercriminosos. Investir em segurança na nuvem é essencial para proteger esses dados contra acessos não autorizados, vazamentos e outras violações.
  2. Conformidade com Regulamentações: As regulamentações sobre segurança de dados estão cada vez mais rigorosas, exigindo que as empresas adotem medidas adequadas para proteger os dados de seus clientes. O investimento em segurança na nuvem é crucial para atender a esses requisitos e evitar penalidades.
  3. Combate a Ameaças Baseadas em IA: Com a sofisticação crescente das ameaças cibernéticas, impulsionadas pelo uso de IA por cibercriminosos, as empresas precisam investir em segurança na nuvem para se proteger contra essas novas ameaças.

Prioridade Global e Desafios

A segurança na nuvem é uma prioridade para empresas e instituições globais. Em 2024, 96% das organizações relataram preocupação moderada ou extrema com a segurança na nuvem. Esta preocupação crescente reflete a necessidade de proteger informações confidenciais e cumprir padrões regulamentares em um cenário cada vez mais digital.

A adoção da nuvem é vista como uma estratégia para otimizar custos e liberar recursos. No terceiro trimestre de 2023, contratos anuais de nuvem geraram US$ 10,3 bilhões globalmente, principalmente entre grandes e médias empresas. Um aumento de 37% nos investimentos em segurança está planejado para enfrentar os desafios técnicos e de recursos na implementação de ambientes multinuvem.

No entanto, a implementação consistente de segurança em ambientes multinuvem enfrenta desafios significativos. Questões de segurança e conformidade são as principais preocupações para 56% das organizações, atuando como barreiras para uma adoção mais rápida das estratégias multicloud. Além disso, desafios técnicos e restrições de recursos também são obstáculos relevantes. A falta de pessoal com experiência na nuvem é uma preocupação crítica para 93% dos entrevistados.

Soluções de Plataforma Unificada

Para superar esses desafios, 95% das organizações acreditam que uma plataforma unificada de segurança na nuvem, com um único painel de controle, seria benéfica. A simplificação e automação das operações de segurança são vistas como essenciais para melhorar a proteção e a eficiência em ambientes híbridos e multicloud.

O Relatório de Segurança na Nuvem de 2024, baseado em uma pesquisa com 927 profissionais de todo o mundo, oferece uma visão detalhada das tendências atuais em segurança na nuvem e destaca a necessidade urgente de investir em soluções de segurança robustas e abrangentes.

Publicado em

O CRESCIMENTO DOS ATAQUES CIBERNÉTICOS NO BRASIL E A INFLUÊNCIA DA INTELIGÊNCIA ARTIFICIAL

Entre 2022 e 2023, o Brasil registrou uma redução significativa no número total de ataques cibernéticos, caindo de 103 bilhões para 60 bilhões de tentativas. No entanto, esse declínio esconde uma mudança importante no perfil dos ataques, com a inteligência artificial (IA) desempenhando um papel cada vez mais central. Atualmente, mais da metade dos ataques recentes contra empresas brasileiras envolve algum uso de IA generativa.

Essas informações são oriundas do estudo “The State of Cybersecurity in LATAM 2024”, realizado pela FortiGuard Labs da Fortinet. Segundo o relatório, 54% das empresas brasileiras relataram um aumento nas tentativas de violações de segurança em 2023, em comparação com anos anteriores. Esse cenário tem exacerbado o estresse das equipes de TI, dado o aumento na sofisticação e na precisão das ameaças.

É imperativo que as empresas brasileiras compreendam a evolução do cenário de ameaças cibernéticas e invistam em soluções integradas de segurança, como o blockchain, para se protegerem contra ataques cada vez mais sofisticados. As organizações precisam estar preparadas para enfrentar ameaças que se tornam gradualmente mais complexas com o avanço da tecnologia.

Especialistas apontam que a manutenção constante de processos é essencial. À medida que as organizações implementam algoritmos de IA, novos pontos de vulnerabilidade surgem, sendo explorados por cibercriminosos. A necessidade urgente de proteção é clara: as empresas devem adotar uma postura proativa na defesa de seus dados e sistemas.

O uso crescente de IA por cibercriminosos sublinha a importância de uma abordagem ética e responsável no desenvolvimento e implementação dessas tecnologias. Para enfrentar os ciberataques, é vital investir em soluções de segurança avançadas e em constante atualização, além de promover uma cultura organizacional de conscientização e treinamento em cibersegurança para todos os colaboradores.

A complexidade das ameaças, especialmente com o uso crescente da inteligência artificial, exige que as empresas adotem práticas de segurança de dados robustas, como criptografia e verificação da integridade dos dados, para evitar adulterações ou corrupções que possam comprometer os resultados da IA.

Embora a inteligência artificial ofereça inúmeras oportunidades, é fundamental reconhecer e mitigar os desafios emergentes em termos de segurança cibernética. É essencial que líderes empresariais priorizem investimentos em cibersegurança e adotem medidas proativas para se protegerem contra ameaças cada vez mais sofisticadas.

Publicado em

DESAFIOS DE COMPLIANCE NO SETOR DE TECNOLOGIA E TELECOMUNICAÇÕES

As empresas de tecnologia e telecomunicações estão na linha de frente dos desafios de compliance, devido à natureza altamente regulada de suas operações e ao vasto volume de dados pessoais que tratam diariamente. A gestão desses dados acarreta não apenas riscos regulatórios, mas também a possibilidade de incidentes de segurança que podem ter consequências significativas.

Para garantir maior eficiência e otimização, muitas empresas terceirizam parte de suas operações. Contudo, essa prática exige uma avaliação criteriosa dos terceiros contratados para assegurar que fornecedores e parceiros também estejam alinhados com as melhores práticas de compliance. Além disso, a natureza transfronteiriça das operações dessas empresas demanda a observância das regulamentações de diversos países, elevando o nível de complexidade e a necessidade de um programa de compliance robusto e integrado.

Consequências da Não Conformidade

A não conformidade com as regras de compliance no ambiente digital pode resultar em severas sanções e ações judiciais. Empresas que falham em proteger os dados pessoais podem enfrentar multas expressivas, proibições operacionais e outras penalidades administrativas. Além dos impactos financeiros, as empresas também podem sofrer danos irreparáveis à sua reputação e marca.

Desenvolvimento de Programas de Compliance

Desenvolver e implementar programas de compliance eficazes em um ambiente digital em constante evolução é crucial. O comprometimento da liderança é o primeiro passo fundamental para o sucesso de qualquer programa de compliance. A liderança deve compreender a importância do tema e alocar recursos adequados para manter um programa robusto e eficaz.

A criação de políticas e procedimentos de governança é essencial. Esses documentos devem ser amplamente divulgados e implementados de forma precisa no dia a dia das atividades empresariais.

Educação Digital e Governança Corporativa

A educação digital é outra peça-chave para a conformidade em um ambiente digital. Empresas têm a obrigação de educar os usuários sobre seus direitos e práticas de segurança para proteger dados pessoais. Esse esforço deve ser transparente e fornecer orientações claras sobre como os usuários podem proteger suas informações enquanto utilizam os serviços da empresa.

Avaliação de Riscos e Medidas Técnicas

As empresas devem estar constantemente atentas aos riscos de violação da privacidade dos dados. Avaliações periódicas dos riscos e impactos são essenciais para identificar vulnerabilidades. Medidas técnicas e organizacionais, como controles de acesso, autenticação multifatorial, gerenciamento de privilégios, monitoramento de atividades, criptografia e sistemas de detecção de ameaças, são cruciais para garantir a segurança dos dados.

Transferências Internacionais de Dados

Para transferências internacionais de dados, é necessário garantir que os dados sejam protegidos conforme os padrões regulatórios de cada localidade. Cláusulas contratuais robustas devem ser implementadas para assegurar o tratamento adequado dos dados e permitir auditorias regulares das práticas de segurança e conformidade.

Inovação e Tecnologia no Compliance

As novas tecnologias são ferramentas fundamentais para a inovação nos processos de compliance. Análises preditivas podem examinar grandes conjuntos de dados para identificar padrões e possíveis violações de compliance. Tecnologias avançadas também facilitam auditorias digitais, permitindo uma coleta e análise mais eficiente de evidências em casos de incidentes de segurança. Isso não apenas mitiga danos aos titulares de dados, mas também assegura a conformidade regulatória, atendendo princípios como o da responsabilização e prestação de contas previstos na Lei Geral de Proteção de Dados (LGPD).

A complexidade do ambiente digital e as crescentes exigências regulatórias impõem um desafio significativo às empresas de tecnologia e telecomunicações. No entanto, com um compromisso firme da liderança, políticas bem estruturadas, educação contínua e uso de tecnologias avançadas, é possível desenvolver um programa de compliance eficaz que proteja dados pessoais e sustente a confiança e a integridade da empresa.

Publicado em

COMO A VENDA DE INFORMAÇÕES SENSÍVEIS AFETA OS CONSUMIDORES

A prática de vender dados sensíveis de consumidores para multinacionais de pesquisa de mercado tem gerado crescente preocupação entre especialistas em direitos do consumidor, especialmente no contexto da Lei Geral de Proteção de Dados (LGPD) no Brasil. Empresas estão utilizando o CPF dos consumidores para obter informações detalhadas sobre suas prescrições médicas, que são depois repassadas para empresas privadas, possibilitando que estas tenham acesso a dados como o tipo de medicamento, classe terapêutica, dosagem, e muito mais.

Esse conjunto de informações é transformado em relatórios que ajudam as indústrias farmacêuticas a otimizar suas estratégias de vendas, marketing, e até mesmo identificar oportunidades para novos lançamentos de produtos. Ao fornecer o CPF nas farmácias para obter descontos, os consumidores, muitas vezes sem saber, estão contribuindo para a criação de um histórico de compras que é vendido para empresas de pesquisa de mercado.

Atualmente, algumas redes privadas possuem dados de milhões de brasileiros, uma quantidade significativamente maior do que a de programas governamentais. Isso ocorre porque os dados pessoais, especialmente os sensíveis, são extremamente valiosos para as empresas. Esses dados permitem a criação de propagandas direcionadas e outras estratégias de marketing altamente eficazes.

A LGPD exige que as empresas sejam transparentes sobre suas políticas de compartilhamento de dados, mas a realidade é que nem todas seguem essas diretrizes de forma adequada. Farmácias e outras empresas devem informar claramente como os dados dos consumidores serão usados e garantir que o consentimento seja obtido de forma explícita.

Uma questão comum é se os consumidores perdem os descontos se não fornecerem o CPF. A resposta é não. As farmácias podem e devem conceder o desconto mesmo que o cliente se recuse a fornecer seus dados pessoais. Se a farmácia negar o desconto sem o CPF, o consumidor tem o direito de denunciar ao Procon. É aconselhável sempre perguntar o preço do produto com e sem o desconto antes de fornecer qualquer informação pessoal.

Para aqueles preocupados com o uso indevido de seus dados, é possível consultar algumas das principais redes de farmácias para verificar quais informações elas possuem. Essa prática de solicitar o CPF para descontos pode ser considerada abusiva sob a LGPD, que exige consentimento explícito e transparência no compartilhamento de informações pessoais.

A Agência Nacional de Proteção de Dados (ANPD) tem monitorado essas práticas desde 2020, e o Instituto Brasileiro de Defesa do Consumidor (Idec) alerta para os riscos associados ao vazamento e uso indevido desses dados. O desconto em medicamentos não deve comprometer a liberdade do consumidor de decidir sobre o compartilhamento de suas informações.

Ademais, a Agência Nacional de Vigilância Sanitária (Anvisa) estabelece que farmácias e drogarias não devem ultrapassar o preço máximo permitido pela Câmara de Regulação do Mercado de Medicamentos (CMED), cujo preço máximo pode ser verificado no site da Anvisa. É fundamental que os consumidores estejam cientes de seus direitos e das práticas de proteção de dados para tomar decisões informadas sobre o compartilhamento de suas informações pessoais.

Publicado em

“Invasão Digital: Facebook da Prefeitura no Espírito Santo Exibe Conteúdo Sexual Após Ser Hackeado”

A Prefeitura de Castelo, localizada no sul do Espírito Santo, sofreu um ataque cibernético em seu perfil oficial do Facebook. A partir do dia 6 de maio, conteúdos de natureza sexual começaram a ser divulgados indevidamente pelos hackers.

Até a presente data, 25 de maio, as publicações inapropriadas continuam sendo feitas. Em resposta ao incidente, dois dias após o início das postagens indevidas, a administração municipal emitiu um comunicado por meio do Instagram. No aviso, informaram que o perfil havia sido comprometido e solicitaram desculpas pelo ocorrido.

Além disso, a Prefeitura de Castelo apelou à população para que ajudasse a combater a violação reportando a conta hackeada.

www.securitylgpd.com

PROTEJA SUAS REDES SOCIAIS

Proteger sua conta do Facebook de ataques cibernéticos é crucial para manter sua segurança digital. Aqui estão algumas dicas práticas para ajudar a evitar que sua conta seja hackeada:

  1. Use uma senha forte e única: Evite senhas simples ou que já tenham sido usadas em outras contas. Combine letras maiúsculas e minúsculas, números e símbolos para criar uma senha complexa.
  2. Ative a autenticação de dois fatores (A2F): Essa é uma das medidas de segurança mais eficazes. Mesmo que alguém consiga sua senha, ainda precisará de um código de acesso enviado ao seu telefone para entrar na conta.
  3. Mantenha seu e-mail seguro: Garanta que o e-mail associado à sua conta do Facebook também esteja protegido, pois é um ponto de entrada para redefinir sua senha.
  4. Revise as configurações de segurança e login: Regularmente, verifique as configurações de segurança do Facebook para qualquer atividade suspeita e assegure-se de que apenas dispositivos e sessões reconhecidos estão conectados à sua conta.
  5. Evite clicar em links suspeitos: Hackers frequentemente usam links que parecem legítimos para roubar suas informações. Verifique sempre a URL antes de clicar e não insira seus dados em sites que não pareçam confiáveis.
  6. Atualize seu software regularmente: Mantenha seu sistema operacional e aplicativos, incluindo o aplicativo do Facebook, atualizados para proteger-se contra vulnerabilidades de segurança.
  7. Use um gerenciador de senhas: Para ajudar a gerenciar e proteger suas senhas, considere o uso de um gerenciador de senhas confiável.
  8. Eduque-se sobre phishing: Esteja ciente de técnicas de phishing que podem tentar enganá-lo para que você revele informações pessoais ou de login. Desconfie de mensagens ou e-mails que solicitam informações confidenciais.
  9. Limite as informações compartilhadas online: Quanto menos informações pessoais você compartilhar, menor será o risco de ser alvo de hackers.

Implementando essas medidas, você aumentará significativamente a segurança da sua conta no Facebook e reduzirá o risco de invasões indesejadas.

www.securitylgpd.com

Publicado em

REGULAMENTAÇÃO DA IA: LIÇÕES DA UNIÃO EUROPEIA E PERSPECTIVAS PARA O BRASIL

Em 10 de abril de 2018, vinte e quatro Estados-Membros da União Europeia assinaram um termo de cooperação durante o evento “Digital Day 2018” para tratar da inteligência artificial (IA). Em 25 de abril do mesmo ano, a Comissão Europeia emitiu uma comunicação sobre IA, sugerindo o avanço da capacidade tecnológica e industrial da União Europeia em prol da IA, a preparação para mudanças socioeconômicas decorrentes dessa tecnologia e a criação de um marco regulatório eficaz, baseado em valores democráticos e na proteção dos direitos fundamentais, para garantir o desenvolvimento ético da IA.

A Comissão Europeia solicitou que os Estados-Membros coordenassem planos estratégicos nacionais para a implementação da IA até o final de 2018. Na ocasião, foi criado o Grupo de Peritos de Alto Nível em Inteligência Artificial (AI HLEG), composto por pesquisadores, acadêmicos, representantes da indústria e da sociedade civil. Paralelamente, foi estabelecida a “Aliança Europeia para a IA” para fomentar a participação democrática, incluindo audiências públicas sobre diversos temas relacionados à IA.

Em 18 de dezembro de 2018, o AI HLEG submeteu à consulta pública o primeiro esboço das “Diretrizes Éticas para a Fiabilidade da Inteligência Artificial”. Após debates intensos, a versão final foi apresentada em 8 de abril de 2019, intitulada “Ethics Guidelines for Trustworthy AI”. Este documento delineou quatro princípios éticos fundamentais:

  1. Respeito à autodeterminação humana: A IA deve respeitar os direitos e garantias fundamentais, bem como a democracia.
  2. Prevenção de danos: Devem ser adotadas medidas robustas para evitar danos aos seres humanos.
  3. Justiça: Garantir uma distribuição equitativa dos benefícios e custos, eliminando qualquer tipo de preconceito.
  4. Transparência e clareza: Os sistemas de IA devem ser compreensíveis para os operadores humanos.

Além dos princípios, foram apresentados requisitos para a fiabilidade da IA, abrangendo supervisão humana, robustez técnica, privacidade e proteção de dados, transparência, diversidade, bem-estar social e ambiental, e prestação de contas.

Em 7 de dezembro de 2018, a União Europeia estabeleceu um plano coordenado de medidas para a implementação da IA, incentivando os Estados-Membros a elaborarem planos nacionais até meados de 2019. Posteriormente, em 19 de fevereiro de 2020, a Comissão Europeia lançou o relatório “White Paper on Artificial Intelligence: an European approach to excellence and trust”, reforçando as diretrizes éticas e destacando a necessidade de regulação da responsabilidade civil por danos causados por produtos e serviços de IA. Sugeriu-se a revisão da “Product Liability Directive” de 1985, para abordar as complexidades da IA, como a dificuldade de provar defeitos de programação em tecnologias como carros autônomos.

Na mesma data, a Comissão Europeia aprovou o plano estratégico para os dados, prevendo um aumento significativo no volume de dados na era do Big Data. Este plano destacou a cooperação internacional necessária para a aplicação de medidas regulatórias devido à circulação transfronteiriça de dados.

Nos Estados Unidos, o “Future of AI Act” de 2017 propôs diretrizes éticas para o desenvolvimento de IA, sem abordar diretamente a área da saúde. Documentos recentes, como o “Artificial Intelligence Act” europeu e o “Algorithmic Accountability Act” norte-americano, evitam discutir a terminologia de “inteligência”, preferindo referir-se a “sistemas decisionais automatizados” e reafirmando a importância de parâmetros éticos para o desenvolvimento de algoritmos.

No Brasil, várias iniciativas legislativas buscaram regulamentar a IA, mas com propostas inicialmente superficiais. Em fevereiro de 2022, foi instituída uma comissão de juristas para elaborar um substitutivo sobre IA, resultando no Projeto de Lei nº 2.338/2023. Este projeto, inspirado na abordagem europeia, estratifica soluções conforme o grau de risco de cada atividade de IA.

Desde sua apresentação, o projeto recebeu diversas emendas parlamentares e está sendo analisado pela Comissão Temporária Interna sobre Inteligência Artificial no Brasil, um fórum multissetorial que garante regulamentações abrangentes e eficazes, equilibrando inovação tecnológica e proteção de direitos fundamentais. A versão mais recente, proposta em abril de 2024, reflete uma preocupação com a parametrização ética, alinhando-se aos princípios europeus.

A aprovação do Regulamento Geral Europeu sobre IA representa um marco significativo, baseado em princípios éticos que contribuem para o debate sobre responsabilidade civil. Este esforço europeu, resultado de anos de discussões, serve de exemplo inspirador para outras nações, incluindo o Brasil, onde os trabalhos legislativos sobre IA continuam em andamento, merecendo atenção e acompanhamento cuidadoso.

Publicado em

ENTENDA AS NOVAS DIRETRIZES E DESAFIOS COM O GUIA DA ANPD

Recentemente, a Autoridade Nacional de Proteção de Dados (ANPD) lançou o “Guia Orientativo – Hipóteses legais de tratamento de dados pessoais – Legítimo Interesse”, que aprofunda o entendimento sobre a aplicação da Lei Geral de Proteção de Dados Pessoais (LGPD). Este guia detalha o legítimo interesse (LI), uma base legal que autoriza o tratamento de dados pessoais (não sensíveis) para atender interesses legítimos do controlador ou de terceiros, desde que esses interesses não violem os direitos e liberdades fundamentais dos titulares dos dados.

O guia apresenta interpretações da ANPD sobre o uso do LI, incluindo exemplos práticos e um modelo de teste de balanceamento. Este teste é crucial para que as empresas possam demonstrar um equilíbrio adequado entre os interesses envolvidos, garantindo que o tratamento dos dados seja proporcional e seguro.

A adoção da base do legítimo interesse representa um desafio para as empresas, que precisam realizar o teste de balanceamento para assegurar a proporcionalidade e a segurança no tratamento dos dados pessoais. Apesar de a minuta inicial do documento sugerir a obrigatoriedade do registro do teste, a versão final do guia não confirma essa exigência, mas indica que o registro contribui para a transparência e a prestação de contas, além de permitir a avaliação da conformidade pela ANPD.

O guia ressalta que os controladores devem avaliar os riscos e a necessidade de registrar o teste de balanceamento caso a caso, sendo obrigatório apenas no tratamento de dados de crianças e adolescentes baseado no legítimo interesse.

O documento também detalha os passos que o agente de tratamento deve seguir, desde a identificação da natureza dos dados até a avaliação dos interesses do controlador ou de terceiros. A ANPD considera a coletividade como um terceiro relevante, permitindo a aplicação do conceito de legítimo interesse em situações que beneficiem a sociedade como um todo, desde que respeitados os preceitos legais.

Para que o legítimo interesse seja válido, o controlador deve identificar e justificar o interesse, garantindo sua compatibilidade com as regras jurídicas, evitando situações especulativas ou futuras, e vinculando-o a finalidades legítimas e explícitas. O guia exemplifica a aplicação do legítimo interesse, permitindo que instituições de ensino enviem promoções aos seus alunos e professores, desde que observadas as disposições legais.

Apesar da clareza do guia, a aplicação do legítimo interesse é passível de questionamento, tanto pela ANPD quanto pelos titulares dos dados. Portanto, é essencial que os controladores sigam rigorosamente as orientações do guia, assegurando transparência e mecanismos que permitam aos titulares exercerem seus direitos.

O “Guia Orientativo – Hipóteses legais de tratamento de dados pessoais – Legítimo Interesse” da ANPD é um marco importante na regulamentação do tratamento de dados pessoais no Brasil, trazendo clareza e novos desafios para as empresas na implementação da LGPD.

Publicado em

NOVA RESOLUÇÃO DO TSE IMPÕE REGRAS PARA USO DE IA NA PROPAGANDA ELEITORAL

Recentemente, o Tribunal Superior Eleitoral (TSE) aprovou uma nova resolução que impactará a propaganda eleitoral para as eleições municipais de 2024, especificamente abordando o uso de inteligência artificial (IA), proteção de dados e fake news. A Resolução Nº 23.732/24 altera a Resolução nº 23.610/19 e traz à tona questões cruciais sobre a identificação e rotulagem de conteúdo sintético multimídia em peças publicitárias.

Uma das mudanças mais notáveis é a exigência de rotulagem de qualquer peça publicitária que utilize IA. Esta determinação visa informar o público sobre o uso de tecnologia avançada na criação de imagens, textos ou vídeos. No entanto, a aplicação prática dessa exigência gera dúvidas, pois a IA pode ser utilizada em várias fases do desenvolvimento publicitário, desde a pesquisa até a produção final. A resolução esclarece que o rótulo deve ser aplicado ao conteúdo final veiculado ao público, garantindo transparência sobre o uso de IA no material divulgado.

Além disso, o uso de chatbots e avatares foi restringido, proibindo qualquer simulação de conversas com candidatos ou pessoas reais, com o objetivo de evitar a disseminação de informações falsas ou enganosas. A vedação ao uso de deepfakes também é destacada, proibindo a utilização de qualquer conteúdo artificialmente gerado ou modificado que possa influenciar negativamente o processo eleitoral.

A resolução também aborda a proteção de dados, classificando campanhas em cidades com menos de 200.000 eleitores como agentes de tratamento de pequeno porte, aplicando-se as disposições da Resolução CD/ANPD nº 2 de 2022. Há uma exigência de registro detalhado das operações de tratamento de dados, incluindo informações sobre o tipo de dado, sua origem, categorias de titulares, finalidade e medidas de segurança adotadas.

Outra medida significativa é a exigência de um relatório de impacto à proteção de dados (RIPD) para campanhas que realizem tratamento de dados de alto risco, especialmente aquelas que envolvem tecnologias inovadoras ou dados sensíveis. Esse relatório deve ser elaborado pela candidata ou candidato e pelo partido político, detalhando os tipos de dados coletados, os riscos identificados, as metodologias de tratamento e as medidas de mitigação de riscos.

Essas regulamentações são essenciais para garantir que a IA e outras tecnologias emergentes sejam usadas de maneira responsável no contexto eleitoral, preservando a integridade do processo democrático e protegendo os direitos dos eleitores. Em um cenário global onde o uso irresponsável da IA em campanhas eleitorais tem sido reportado, como em casos nos EUA onde telefonemas automatizados enganam eleitores, a iniciativa do TSE representa um avanço significativo na busca por um processo eleitoral mais justo e transparente.

Publicado em

RISCOS E IMPLICAÇÕES DO TRATAMENTO DE DADOS MÉDICOS

A proteção de dados pessoais é um tema central quando se fala em prescrição médica, especialmente porque as informações contidas nesses documentos são consideradas dados pessoais sensíveis, conforme a Lei Geral de Proteção de Dados (LGPD), Lei Nº 13.709/18. A recente revelação de que a indústria farmacêutica monitora receitas médicas sem consentimento coloca em evidência uma possível violação sistemática do direito à proteção de dados dos médicos.

Conforme noticiado, o procedimento envolve a captura e comercialização de dados de receitas médicas pelas indústrias farmacêuticas. Quando uma receita é registrada no sistema da farmácia, empresas especializadas acessam esses registros, processam as informações e as vendem para as farmacêuticas. Com esses dados, é possível traçar um perfil dos médicos e influenciá-los a prescrever os medicamentos produzidos por essas indústrias. Esse ciclo se repete quando a prescrição influenciada é registrada na farmácia, que é remunerada pelo fornecimento dos dados. Estima-se que pelo menos 250 milhões de receitas sejam processadas anualmente desta forma.

Esse tipo de atividade representa um significativo tratamento de dados pessoais. Segundo a LGPD, dado pessoal é qualquer informação relacionada a uma pessoa identificada ou identificável. Assim, o medicamento prescrito em uma receita médica torna-se um dado pessoal quando associado ao nome e CRM do médico.

As operações de coleta, armazenamento, compartilhamento, classificação e criação de perfis de médicos devem estar em conformidade com a LGPD, ou seja, baseadas em uma das hipóteses legais para o tratamento de dados pessoais, com finalidades legítimas e informadas aos titulares dos dados. Os dados coletados devem ser adequados, necessários e relevantes para as finalidades especificadas, e as operações devem ser transparentes, evitando discriminações e garantindo a prestação de contas.

Os médicos devem ser informados sobre seus direitos garantidos pela LGPD, incluindo o livre acesso aos dados, a forma de tratamento, a duração desse tratamento, a identidade do responsável pelo tratamento, o uso compartilhado dos dados, e a finalidade do compartilhamento. Eles têm o direito de solicitar às farmácias, laboratórios ou empresas intermediárias uma declaração completa que indique a origem dos dados, os critérios utilizados e as finalidades do tratamento.

Além disso, o uso posterior dos dados pessoais para fins diferentes da finalidade original não é permitido sem a devida conformidade com a LGPD. A finalidade original das informações constantes da prescrição é a aquisição do medicamento pelo paciente na farmácia, e qualquer uso diverso disso deve ser devidamente justificado e conforme a lei.

No que diz respeito aos compartilhamentos, tanto farmácias quanto empresas intermediárias e indústrias farmacêuticas devem ser capazes de justificar a base legal para o tratamento de dados e garantir que esse tratamento seja legítimo, específico e informado aos titulares dos dados.

Essa atividade de tratamento de dados é de alto risco devido ao volume e à escala dos dados pessoais envolvidos, ao monitoramento dos titulares e à tomada de decisões automatizadas para criar perfis de médicos. O objetivo final de influenciar as prescrições médicas é particularmente problemático, pois pode levar a decisões que não refletem a melhor opção de tratamento para o paciente, mas sim a influência comercial sobre o médico.

Segmentar médicos por especialidade e média de preço dos medicamentos que prescrevem, e usar essas informações para abordagens comerciais, pode comprometer a autonomia dos médicos e representar uma significativa limitação do exercício de direitos. Isso caracteriza infrações graves à LGPD, especialmente quando há intenção de vantagem econômica, ausência de base legal para o tratamento de dados, e tratamento com efeitos discriminatórios.

O direito à proteção de dados inclui a liberdade e a autonomia na tomada de decisões, e o princípio da transparência é fundamental para equilibrar a relação entre agentes de tratamento e titulares dos dados. Influenciar decisões de maneira furtiva, sem o conhecimento do titular, contraria os princípios de boa fé e lealdade.

O princípio da transparência, vinculado aos princípios de boa fé e “accountability”, deve ser observado durante todo o ciclo de vida do tratamento de dados. Ele garante que o titular dos dados esteja ciente do uso de suas informações e possibilita o controle sobre o uso dos dados, bem como a responsabilização dos agentes de tratamento em casos de abuso ou uso ilícito. A proteção de dados não é apenas uma questão de conformidade legal, mas um imperativo ético para assegurar a confiança e a integridade na relação entre médicos, pacientes e a indústria farmacêutica.