Publicado em

COMO ALINHAR PRÁTICAS DO SETOR FARMACÊUTICO À LGPD

A Lei Geral de Proteção de Dados (LGPD) consolidou princípios que buscam garantir o tratamento responsável e transparente de dados pessoais. No setor farmacêutico, que lida com informações de saúde de alta sensibilidade, a conformidade com essas diretrizes é não apenas uma exigência legal, mas também um fator de confiança para o consumidor.

A Autoridade Nacional de Proteção de Dados (ANPD) tem reforçado sua atuação fiscalizatória, ampliando a exigência de ajustes internos e impondo medidas corretivas em empresas que não observam os requisitos da lei. Esse movimento reflete a necessidade de se adotar processos claros, políticas consistentes e práticas proporcionais no tratamento de dados pessoais.

Irregularidades identificadas

Em 2025, a ANPD concluiu investigações no setor farmacêutico envolvendo redes de farmácias, federações e programas de fidelidade. A apuração revelou falhas estruturais significativas, como políticas de privacidade desatualizadas ou inexistentes, práticas pouco transparentes e ausência de informações claras ao consumidor. Em termos simples, os clientes eram convidados a fornecer dados sem compreender plenamente como seriam utilizados.

A exigência de CPF para liberação de descontos foi um dos pontos de destaque. Essa prática impede que o consumidor exerça liberdade real de escolha quanto ao compartilhamento de suas informações. Do mesmo modo, a coleta de dados biométricos para autenticação foi considerada desproporcional quando outros mecanismos, menos invasivos, poderiam ser adotados.

Impactos para o setor

A análise da Autoridade mostrou que programas de fidelização, quando mal estruturados, podem gerar inferências sobre o estado de saúde do consumidor. Além da ANPD, o Ministério Público também instaurou procedimentos para apurar os riscos relacionados ao tratamento de dados nessa área, demonstrando que a fiscalização não se limita a um único órgão. Esse alinhamento entre autoridades reforça a necessidade de adequação imediata.

A não conformidade traz riscos concretos: desde sanções administrativas e multas até danos reputacionais de difícil reparação. O comprometimento da imagem e a perda de confiança podem, em alguns casos, ser mais impactantes do que a própria penalidade financeira.

Caminhos para adequação

Para o setor farmacêutico, o desafio é transformar exigências legais em práticas efetivas. Isso exige auditorias internas capazes de mapear fluxos de dados, revisão periódica das políticas de privacidade e adoção de controles técnicos que assegurem integridade, confidencialidade e disponibilidade das informações.

O investimento em treinamento das equipes e em soluções tecnológicas de proteção de dados deve ser contínuo. O monitoramento permanente das operações e a melhoria constante dos processos são medidas que fortalecem a governança e reduzem o risco de novas desconformidades.

Publicado em

CIBERSEGURANÇA EM TRANSFORMAÇÃO: PRIORIDADES ESTRATÉGICAS PARA OS PRÓXIMOS ANOS

Nos próximos anos, a segurança digital será um dos eixos mais determinantes para a sustentabilidade das organizações. A integração da Inteligência Artificial em praticamente todas as áreas de atividade, somada à proliferação de dispositivos conectados e à sofisticação das ameaças, impõe novas formas de pensar a proteção de dados e sistemas.

Um estudo recente identifica oito áreas que devem orientar a estratégia de cibersegurança. Entre elas, destaca-se o fortalecimento do papel dos responsáveis pela segurança da informação, cuja função se torna cada vez mais complexa diante das exigências regulatórias, da responsabilidade pessoal envolvida e da necessidade de coordenar equipes multidisciplinares. Para que essa função seja efetiva, é essencial assegurar autonomia decisória e visão integrada dos riscos.

Outro ponto de destaque é a carência de profissionais especializados, que ainda representa um obstáculo relevante. A resposta passa por encarar os colaboradores como a primeira linha de defesa, o que exige programas contínuos de capacitação, além de incentivo à diversidade e inclusão, fatores que fortalecem a cultura organizacional de segurança.

A confiança nos sistemas de Inteligência Artificial também assume papel central. Isso inclui estabelecer mecanismos sólidos de governança, políticas claras de uso de dados e estratégias para mitigar riscos relacionados a ferramentas não autorizadas. A IA, por outro lado, oferece oportunidades valiosas para monitoramento em tempo real e automação de processos de proteção.

A gestão da identidade digital ganha relevância diante de falsificações sofisticadas, como os deepfakes. Torna-se indispensável avançar em métodos de autenticação robustos, com uso de biometria e integração de múltiplas camadas de verificação. Soma-se a isso a necessidade de consolidar plataformas de segurança, reforçar a proteção em ecossistemas de dispositivos inteligentes e adotar a resiliência como princípio desde a concepção de produtos e serviços.

O relatório ainda chama atenção para desafios adicionais, como a proteção de ambientes em nuvem, a preparação frente à computação quântica e o enfrentamento da desinformação. O ambiente regulatório, cada vez mais complexo e dinâmico, exige das organizações capacidade de adaptação ágil, conciliando o cumprimento das normas com a eficiência de suas defesas digitais.

Esse conjunto de prioridades evidencia que a segurança da informação deixou de ser apenas uma função técnica e passou a integrar a própria estratégia de negócios, influenciando diretamente a confiança de clientes, parceiros e da sociedade.

Publicado em

A EXCLUSÃO DE DADOS PESSOAIS NO BRASIL: O QUE A LGPD GARANTE AO TITULAR

O avanço da tecnologia da informação trouxe para o centro das relações sociais e econômicas um bem intangível, mas extremamente valioso: os dados pessoais. Nesse novo paradigma, ganha relevância a discussão sobre até que ponto o titular pode controlar as informações que circulam a seu respeito, sobretudo no ambiente digital.

Origem do conceito e influências internacionais

O chamado “direito ao esquecimento digital” ganhou contornos jurídicos na Europa, quando tribunais reconheceram a possibilidade de cidadãos exigirem a retirada de links com informações antigas ou desatualizadas, ainda que lícitas. Posteriormente, esse entendimento foi incorporado ao regulamento europeu de proteção de dados, que prevê expressamente o “direito ao apagamento”.

O tratamento da questão na legislação brasileira

No Brasil, embora a expressão “direito ao esquecimento” não conste da legislação, a Lei Geral de Proteção de Dados trouxe dispositivos que permitem ao titular solicitar a eliminação de seus dados, especialmente quando o tratamento se dá com base no consentimento.

O artigo 18 assegura esse direito de forma clara, e o artigo 16 complementa ao estabelecer limites temporais e hipóteses de conservação de informações. Assim, mesmo sem a nomenclatura europeia, o ordenamento brasileiro contempla a ideia de exclusão de dados, aproximando-se da lógica do direito ao esquecimento.

O contraponto com outros direitos fundamentais

Nem toda pretensão de exclusão pode ser atendida de maneira automática. A legislação impõe limites quando o interesse público, a liberdade de expressão ou a necessidade de cumprimento de obrigação legal se sobrepõem ao direito individual à eliminação de dados.

O equilíbrio exige análise caso a caso, observando critérios como a atualidade da informação, sua relevância social e o papel desempenhado pela pessoa envolvida. É a aplicação concreta do princípio da proporcionalidade na ponderação entre privacidade e liberdade de expressão.

A jurisprudência brasileira e seus contornos

O Supremo Tribunal Federal, ao julgar o tema do direito ao esquecimento, concluiu que ele não encontra amparo direto na Constituição quando se trata da divulgação de fatos verídicos e lícitos. Contudo, esse posicionamento não elimina a possibilidade de responsabilização por abusos, nem afasta a aplicação das garantias trazidas pela LGPD, que regula de maneira específica o tratamento de dados pessoais.

Na prática, permanece o espaço para que o direito de eliminação previsto na LGPD seja aplicado de forma autônoma, especialmente em situações de consentimento revogado, anonimização ou bloqueio de informações.

Os desafios tecnológicos

Implementar o apagamento de dados não é tarefa simples. A natureza descentralizada da internet, a facilidade de replicação de informações, a possibilidade de reidentificação por meio da inteligência artificial e a imutabilidade de tecnologias como o blockchain são obstáculos relevantes.

Essas barreiras demandam soluções técnicas, como mecanismos de controle de acesso mais sofisticados, práticas de descarte seguro e métodos de “desaprendizado” em sistemas de inteligência artificial. O avanço normativo, portanto, precisa caminhar ao lado do desenvolvimento tecnológico.

O direito à eliminação de dados, ainda que não receba no Brasil a nomenclatura de “direito ao esquecimento digital”, existe e se encontra positivado na LGPD. Sua efetividade depende não apenas da interpretação constitucional e legal, mas também do compromisso dos agentes que tratam dados pessoais em implementar práticas que respeitem a dignidade da pessoa humana.

Em última análise, a comparação entre a legislação europeia e a brasileira revela mais convergências do que divergências: ambas buscam colocar o indivíduo no centro das decisões sobre seus próprios dados. O desafio brasileiro é consolidar uma cultura de proteção de dados capaz de transformar a letra da lei em garantia concreta.

Publicado em

BIOMETRIA E LGPD: DESAFIOS REGULATÓRIOS E RESPONSABILIDADES NO USO DE DADOS SENSÍVEIS

O tratamento de dados biométricos — que envolve impressões digitais, reconhecimento facial e de íris, geometrias corporais, padrões de voz e até traços comportamentais como a forma de digitar ou caminhar — está no centro do debate regulatório brasileiro. A discussão é indispensável para apoiar futuras normas da Autoridade Nacional de Proteção de Dados (ANPD), especialmente diante da digitalização acelerada e do avanço de práticas de fraude cada vez mais sofisticadas.

Um dos pontos sensíveis está na autenticação segura. Com o vazamento massivo de dados cadastrais e a utilização de inteligência artificial por grupos criminosos, a possibilidade de simulação de identidade tornou-se mais concreta. Surge, então, a questão: como assegurar que a pessoa, no ambiente digital, é de fato quem afirma ser?

Funções da biometria no ecossistema digital

A biometria já desempenha papel central em diferentes áreas:

  • Autenticação em serviços digitais;
  • Controle de acesso físico e lógico em empresas e sistemas críticos;
  • Prevenção e detecção de fraudes, principalmente em abertura de contas, concessão de crédito, validação de identidade e transações eletrônicas.

Ainda assim, não se trata de uma solução isenta de riscos. Enquanto senhas podem ser alteradas, dados como rosto, íris e impressões digitais não podem ser substituídos. Isso amplia a responsabilidade das organizações que utilizam tais recursos.

Pontos que devem orientar a futura regulação

A atuação normativa da ANPD deverá enfrentar questões relevantes, entre elas:

  1. Segurança e prevenção a fraudes: reforçar a proteção sem criar vulnerabilidades adicionais ou discriminações sistêmicas.
  2. Biometria comportamental e tradicional: delimitar critérios distintos entre dados físicos (digital, íris, face) e dados de comportamento (voz, digitação, postura).
  3. Hipóteses legais de tratamento: analisar contextos em que o consentimento não seja adequado como base jurídica.
  4. LGPD e prevenção à fraude: estabelecer parâmetros claros para a aplicação do art. 11, II, “g”.
  5. Reconhecimento facial: projetar mecanismos confiáveis, reduzindo falsos positivos e negativos.
  6. Riscos de violação: definir requisitos técnicos e organizacionais obrigatórios para mitigar vazamentos e fraudes de identidade.
  7. Negativa do titular: determinar em que situações a recusa em fornecer biometria pode resultar em limitações proporcionais e transparentes.

Biometria e setores regulados

Alguns segmentos já exigem identificação biométrica, como o de apostas. A Lei Geral de Proteção de Dados reconhece tais dados como sensíveis, mas admite seu uso para prevenção à fraude e proteção dos próprios titulares.

Diante disso, a biometria pode ser aliada da segurança digital, desde que empregada com rigor técnico, transparência e respeito aos direitos fundamentais. Cabe às empresas adotar práticas sólidas de governança e proteção da informação, não apenas para resguardar as pessoas, mas também para reduzir seus riscos jurídicos.

Publicado em

PROTEÇÃO DE DADOS NO BRASIL: O QUE APRENDEMOS EM SETE ANOS DE LGPD

No último dia 14 de agosto, a Lei Geral de Proteção de Dados completou sete anos de existência. Mais do que uma data comemorativa, esse marco convida à reflexão sobre a efetividade do diploma legal que, desde sua origem, se propôs a garantir maior proteção à privacidade e ao uso responsável das informações pessoais no Brasil.

Apesar dos avanços inegáveis, como a criação da Autoridade Nacional de Proteção de Dados e a consolidação de princípios jurídicos aplicáveis ao tratamento de dados, ainda paira a dúvida sobre o real alcance da legislação diante da velocidade das transformações tecnológicas. Grandes plataformas digitais seguem acumulando informações valiosas sobre hábitos de consumo, preferências culturais e padrões de comportamento, o que nos leva a questionar se o respeito às normas é suficiente ou se, na prática, prevalece a lógica do mercado sobre a garantia dos direitos fundamentais.

A persistência de práticas abusivas, como a proliferação de ligações não solicitadas, ofertas comerciais invasivas e o uso indiscriminado de cadastros, evidencia falhas de fiscalização e limitações estruturais na aplicação das sanções. Se a lei foi concebida para assegurar transparência e responsabilização, o cidadão ainda não sente plenamente esses efeitos em seu cotidiano.

É preciso reconhecer que a LGPD representa um avanço jurídico significativo, mas sua efetividade depende da combinação de três fatores: fiscalização rigorosa, comprometimento empresarial com a ética digital e participação ativa da sociedade na defesa de seus direitos. Sem isso, a promessa de autonomia e segurança continuará a se distanciar da realidade.

Sete anos após sua criação, a lei permanece como um ponto de partida. O verdadeiro desafio está em transformá-la em prática concreta, capaz de equilibrar inovação tecnológica e respeito à privacidade. Em tempos em que dados pessoais são ativos de alto valor, não basta legislar: é necessário implementar mecanismos que convertam o texto normativo em proteção efetiva.

Publicado em

CINCO ANOS DA LGPD: PRIVACIDADE CONSOLIDADA E NOVOS DESAFIOS PARA A RESPONSABILIDADE DIGITAL

A Lei Geral de Proteção de Dados Pessoais completou cinco anos de vigência e já se firmou como um dos pilares do ambiente digital brasileiro. Sua importância vai além do cumprimento de requisitos técnicos: trata-se de um marco jurídico que institucionalizou o direito à privacidade em um país onde o tratamento de dados pessoais, até então, ocorria de forma difusa, sem diretrizes claras e com escassa fiscalização.

A evolução da cultura de proteção de dados

A criação da Autoridade Nacional de Proteção de Dados (ANPD), a inclusão da proteção de dados no rol de direitos fundamentais e a adoção de práticas de governança como relatórios de impacto e mapeamentos de dados demonstram a maturidade adquirida nesse período. Grandes organizações incorporaram a privacidade às suas estratégias de negócios, e mesmo que órgãos públicos e pequenas empresas ainda enfrentem limitações estruturais, a pauta começa a se expandir para além do setor corporativo.

Responsabilidade ampliada das plataformas digitais

A recente decisão do Supremo Tribunal Federal que atribui responsabilidade às plataformas digitais por conteúdos ilícitos publicados por terceiros representa um desdobramento natural dessa lógica. Embora a discussão esteja centrada na esfera da liberdade de expressão, não se pode ignorar que a exigência de uma postura ativa das empresas na moderação de conteúdo dialoga diretamente com princípios centrais da LGPD, como responsabilidade, segurança e prevenção. O antigo modelo de inércia das plataformas cede lugar a uma exigência de diligência.

Entre avanços e desafios

Se, no início, a LGPD foi vista como entrave burocrático, hoje está claro que se trata de uma infraestrutura regulatória essencial para o funcionamento ético da economia digital. Ainda assim, os obstáculos permanecem. O risco de remoções preventivas excessivas e a possibilidade de comprometer a liberdade de expressão exigem que a ANPD atue em harmonia com o Judiciário, assegurando equilíbrio na aplicação das normas.

Outro desafio evidente é a desigualdade de maturidade entre setores. Enquanto corporações estruturaram departamentos inteiros de compliance digital, microempresas e entidades públicas ainda sofrem com a falta de recursos técnicos e humanos. A tentativa de simplificação normativa, como a trazida pela Resolução nº 15/2024, é relevante, mas insuficiente diante da dimensão dos problemas.

Perspectivas para o futuro

A lei brasileira segue em convergência com normas internacionais, sobretudo com a legislação europeia, e já compartilha pontos como bases legais, alcance extraterritorial e garantias de direitos aos titulares. No entanto, há espaço para evoluir na regulação de algoritmos, na harmonização com outros regimes jurídicos e na definição de prazos e procedimentos mais claros para incidentes de segurança.

Os cinco anos da LGPD confirmam que a proteção de dados não é mais uma pauta acessória, mas parte da estrutura essencial da vida digital. A responsabilização das plataformas digitais é apenas um reflexo desse novo padrão, no qual privacidade, transparência e segurança passaram a integrar a própria lógica das interações online. Proteger dados significa, ao mesmo tempo, resguardar direitos individuais, prevenir abusos e fortalecer as bases de confiança necessárias à democracia no espaço digital.

Publicado em

TRANSPARÊNCIA E CAPACITAÇÃO: PILARES PARA REDUZIR RISCOS CIBERNÉTICOS NO SETOR DE SAÚDE

No setor de saúde, a segurança da informação enfrenta um desafio singular: proteger dados extremamente sensíveis em um ambiente que exige agilidade operacional e, muitas vezes, convive com sistemas legados. Essa combinação cria condições favoráveis para que criminosos digitais direcionem ataques a hospitais, laboratórios, farmácias e demais organizações da área.

Ainda que a Lei Geral de Proteção de Dados (LGPD) tenha impulsionado investimentos relevantes em tecnologia, é evidente que apenas recursos tecnológicos não bastam. Grande parte dos incidentes de segurança decorre de falhas humanas ou comportamentos inseguros. A engenharia social e o phishing seguem como vetores predominantes, explorando a falta de atenção ou de preparo dos usuários.

Uma estratégia eficaz de proteção exige integração de dados e processos. Centralizar informações provenientes de canais distintos — como plataformas digitais, sistemas de atendimento e pontos físicos — reduz a superfície de ataque e facilita a gestão de riscos. Quanto mais fragmentada for a base de dados, maior a probabilidade de falhas e brechas de segurança.

Entre as medidas que demonstram bons resultados, destacam-se:

  • Aplicação consistente de criptografia em dados sensíveis e realização periódica de testes de intrusão para identificar vulnerabilidades.
  • Disponibilização de portais de transparência, permitindo que titulares consultem, atualizem ou solicitem a exclusão de seus dados pessoais.
  • Atuação preventiva de comitês especializados em segurança para avaliar riscos antes da implementação de novos projetos ou campanhas.
  • Simulações práticas de incidentes para treinar equipes, aperfeiçoando tanto a resposta técnica quanto a comunicação com usuários e clientes.

A forma como a organização reage a um incidente influencia diretamente a preservação da confiança. Posturas transparentes, com comunicação objetiva e tempestiva, transmitem comprometimento e fortalecem a credibilidade institucional.

No contexto da saúde, a segurança da informação deixou de ser tratada como formalidade e passou a integrar a estratégia central das empresas. A questão não é mais se um ataque ocorrerá, mas quando. Estar preparado para esse momento é o que definirá a capacidade de continuidade das operações sem comprometer a integridade de pacientes e dados.

Publicado em

GOVERNANÇA DE IA: O QUE FALTA PARA AS EMPRESAS USAREM ESSA TECNOLOGIA COM SEGURANÇA?

A maturidade da governança de Inteligência Artificial (IA) ainda é incipiente no mundo corporativo. Segundo o estudo “State of AI Application Strategy 2025”, apenas 2% das empresas analisadas alcançaram um modelo de governança considerado pleno para o uso da IA. Outros 21% foram classificados como pouco preparados, indicando um caminho ainda longo para estruturas organizadas de uso ético, seguro e estratégico dessa tecnologia.

A implementação da LGPD trouxe consigo a figura do Encarregado de Proteção de Dados (DPO), mas isso não significou, necessariamente, o avanço automático da governança de dados nas organizações. Enquanto grandes empresas estruturam internamente suas estratégias com profissionais dedicados, o segmento de pequenas e médias empresas frequentemente recorre a serviços terceirizados de DPO, muitas vezes vinculados a empresas que também atuam com segurança da informação. Esse modelo, embora viável, limita a profundidade e abrangência das ações de governança, principalmente diante das novas exigências trazidas pela IA.

A realidade é que a IA demanda uma abordagem mais ampla e especializada. A estruturação de políticas voltadas exclusivamente aos dados estruturados já não é suficiente. As organizações precisam lidar com fluxos intensos de dados não estruturados, que não apenas alimentam sistemas baseados em IA, mas também são responsáveis por gerar novas camadas de dados. Essa dinâmica exige mecanismos de rotulagem, classificação e descoberta em larga escala, muitas vezes em tempo real, como nas soluções baseadas em RAG (retrieval-augmented generation), que permitem a implementação de políticas de governança diretamente nos fluxos entre modelos de linguagem.

Neste contexto, o papel do Chief Data Officer (CDO) ganha relevância. Esse profissional tem a missão de integrar a gestão de dados às estratégias corporativas, promovendo conselhos de governança multifuncionais e conectando os indicadores de desempenho dos negócios às métricas de conformidade e ética no uso de dados. Contudo, apenas 24% das empresas ouvidas no estudo realizam a rotulagem contínua dos dados utilizados em aplicações de IA – etapa fundamental para uma governança estruturada. As demais operam com transparência reduzida, o que implica riscos tanto de exposição indevida quanto de ataques cibernéticos.

Outro desafio apontado é a adoção da multicloud. Embora seja cada vez mais comum que empresas operem com múltiplas nuvens públicas – com média de quatro ambientes distintos – essa prática amplia a complexidade da gestão de dados e segurança. A multiplicidade de regras, modelos de cobrança e políticas de proteção em cada provedor requer não apenas ferramentas robustas, mas uma estratégia de orquestração unificada. Muitas empresas, ao mesmo tempo que migram aplicações para ambientes privados ou colocation, continuam a contratar novas soluções em nuvens públicas, o que torna a visibilidade e o controle ainda mais desafiadores.

Soluções que centralizam a gestão de segurança distribuída vêm sendo adotadas para mitigar esses riscos. A ideia é aplicar, de um ponto único, regras que se estendam a todas as nuvens envolvidas, com uso de análise comportamental, machine learning e IA. Essa abordagem permite controle granular, independentemente da infraestrutura utilizada.

No aspecto da proteção da IA em si, a segurança vai além da camada tradicional de rede. Os firewalls clássicos perdem efetividade diante da complexidade semântica dos dados manipulados por modelos de linguagem. Soluções mais modernas operam em camadas superiores, como a de aplicações e APIs, e incorporam filtros semânticos, capazes de avaliar o contexto e o conteúdo que transita entre os usuários e as IAs públicas ou privadas. Esses mecanismos são úteis tanto para controlar o que pode ser enviado a um sistema como o ChatGPT, quanto para garantir que as respostas geradas respeitem critérios de privacidade e integridade definidos pelas regras de negócio da própria empresa.

Esse tipo de proteção torna-se essencial em um momento em que as organizações utilizam massivamente IAs públicas, mesmo quando estão desenvolvendo soluções internas. O controle sobre esse fluxo de informações deve ser refinado e contextualizado, evitando que dados confidenciais sejam inadvertidamente compartilhados ou que interações com clientes e investidores violem diretrizes internas.

A governança da IA, portanto, não se resume à conformidade legal. Trata-se de uma camada estratégica de gestão de riscos, ética e performance, que exige profissionais qualificados, processos bem definidos e soluções tecnológicas adaptadas a um ambiente de dados cada vez mais complexo.

Publicado em

VAZAMENTOS DE DADOS EXPÕEM FRAGILIDADE DAS EMPRESAS BRASILEIRAS FRENTE À LGPD

O Brasil ocupa atualmente a sétima posição entre os países com maior número de vazamentos de dados no mundo. Em 2024, o número de incidentes aumentou 24 vezes em relação ao ano anterior, de acordo com levantamento internacional. Além disso, registros de cookies de usuários brasileiros ultrapassam a marca dos 7 bilhões na dark web, evidenciando uma profunda exposição digital.

Embora a Lei Geral de Proteção de Dados Pessoais (LGPD) represente um avanço normativo importante, sua efetividade esbarra em limitações práticas. Muitas empresas, especialmente de pequeno e médio porte, ainda não compreendem a amplitude das exigências legais, tratando a segurança da informação como uma simples aquisição de software. Esse equívoco compromete a capacidade de resposta às obrigações previstas em lei, que incluem políticas internas, registro de operações, controle de acessos, planos de resposta a incidentes e gestão contínua de riscos.

A ausência de uma cultura digital consolidada, somada à falta de orientação prática sobre como implementar a LGPD, tem contribuído para esse quadro. A norma impõe deveres técnicos e administrativos, mas não oferece um guia operacional direto, o que gera insegurança jurídica e interpretações incompletas sobre como garantir a conformidade.

A violação de dados, mesmo quando causada por terceiros, não isenta a empresa de responsabilidade se ficar demonstrada a omissão quanto aos deveres mínimos de proteção. O artigo 46 da LGPD exige a adoção de medidas eficazes de segurança, e sua comprovação em eventual fiscalização ou ação judicial. Ferramentas como logs de auditoria, mecanismos de autenticação robustos, soluções de gestão da privacidade e canais internos de denúncia contribuem para esse processo, mas só são eficazes se inseridas em um programa estruturado de governança de dados.

Transformar a conformidade com a LGPD em uma prática rotineira, integrada à estratégia da empresa, não é apenas uma questão regulatória. É uma medida que fortalece a reputação, reduz vulnerabilidades e permite ao negócio operar com maior previsibilidade. Em tempos de exposição constante, investir em segurança da informação deixou de ser diferencial para tornar-se condição elementar de continuidade empresarial.

Publicado em

ADOÇÃO DA LGPD IMPULSIONA VOLUME DE DECISÕES JUDICIAIS NO BRASIL

Entre outubro de 2023 e outubro de 2024, o número de decisões judiciais envolvendo a Lei Geral de Proteção de Dados praticamente dobrou no Brasil, saltando de 7.503 para 15.921. Em um terço desses casos, a LGPD foi tratada como questão central, evidenciando o amadurecimento da discussão jurídica sobre proteção de dados no país.

Esse aumento pode ser atribuído a múltiplos fatores. A maior frequência de incidentes de segurança, como vazamentos de dados, tem levado titulares a buscar o Judiciário para a reparação de danos. Além disso, a atuação mais firme da Autoridade Nacional de Proteção de Dados tem impulsionado o cumprimento das normas legais e estimulado ações judiciais. A própria jurisprudência vem se consolidando, com decisões mais objetivas e previsíveis, o que encoraja novos litígios. Soma-se a isso uma população mais bem informada sobre seus direitos, especialmente no ambiente digital.

Os temas mais recorrentes nesses processos incluem indenizações por danos morais decorrentes de vazamento de dados, uso indevido de informações pessoais, campanhas publicitárias realizadas sem base legal válida, coleta e tratamento indevidos de dados biométricos em departamentos de recursos humanos, além de fraudes financeiras e golpes facilitados por falhas na proteção de dados.

Para as organizações, o caminho mais prudente é investir na prevenção. A revisão constante de processos internos, a capacitação adequada de profissionais responsáveis pela proteção de dados, a documentação de decisões e medidas adotadas, bem como o uso de tecnologias que apoiem a conformidade legal, são medidas que reduzem significativamente os riscos. A transparência com os titulares e a prontidão para auditorias externas também reforçam a confiança e podem evitar litígios.

A adoção de boas práticas jurídicas e tecnológicas não apenas reduz a exposição a processos, mas contribui para uma cultura organizacional mais comprometida com a ética digital e a responsabilidade no tratamento de dados pessoais.

Publicado em

NOVA INTELIGÊNCIA ARTIFICIAL INTEGRA COMPLIANCE, PROPÓSITO E VALIDAÇÃO EM AMBIENTES EMPRESARIAIS

Está prevista para agosto de 2025 a chegada ao mercado de uma inteligência artificial corporativa desenvolvida no Brasil, com proposta técnica centrada na prevenção de riscos reputacionais, violações de compliance e falhas de integridade em campanhas digitais. A ferramenta será apresentada oficialmente durante um evento nacional voltado à inovação e à sustentabilidade, com a presença de representantes de grandes empresas do setor de bens de consumo.

A arquitetura da IA foi construída com o objetivo de superar padrões problemáticos observados em sistemas tradicionais, como respostas aduladoras, omissões deliberadas, procrastinação lógica e ausência de mecanismos rastreáveis de controle. Em contraposição a esse modelo, a nova proposta traz uma estrutura programada para funcionar com base em códigos éticos modulares, validações sucessivas e ciclos de feedback que integram elementos como escuta ativa e silêncio deliberado.

Diferentemente de modelos que operam com base probabilística, essa inteligência foi desenhada para atuar a partir de um propósito estruturado, alinhado a um protocolo de autoajuste que visa garantir confiabilidade e auditabilidade em cada decisão. O sistema também adota um motor interno de compliance, responsável por assegurar que nenhuma ação ocorra sem que haja clareza sobre a finalidade, documentação completa e aderência aos princípios que regem a aplicação da tecnologia.

Entre os principais componentes da ferramenta, destacam-se os mecanismos de microchecagem de intenção, que analisam a consistência de comandos antes da execução, e os rituais programados de verificação, que sustentam o compromisso com a responsabilidade técnica e institucional. Todo o processo é passível de auditoria, permitindo rastrear decisões e corrigir desvios, o que reduz significativamente a possibilidade de falhas operacionais ou éticas.

A proposta se mostra especialmente adequada para ambientes empresariais sujeitos a normativas rigorosas, nos quais falhas comunicacionais ou operacionais podem gerar impactos jurídicos e financeiros expressivos. O sistema será licenciado para empresas, entidades públicas e equipes técnicas que desejem integrar a inteligência artificial ao cotidiano de forma segura, respeitosa e alinhada a valores institucionais.

No campo das aplicações práticas, a tecnologia atua na automatização de tarefas, personalização de conteúdos, análise de dados para tomada de decisão, geração de materiais de comunicação e monitoramento de conformidade regulatória. Sua base técnica contempla ainda o acompanhamento de mudanças legais e a implementação de padrões de governança voltados ao uso responsável de dados em campanhas publicitárias e operações digitais.

A proposta central é demonstrar que é possível inovar com responsabilidade, protegendo ativos intangíveis das organizações como reputação, coerência institucional e a confiança do público. O sistema foi concebido a partir da sistematização de falhas observadas no mercado, registradas e transformadas em diretrizes de desenvolvimento. Não se apresenta como uma promessa abstrata, mas como uma resposta técnica às limitações já identificadas na aplicação de inteligências artificiais em contextos sensíveis.

Publicado em

ARMAZENAMENTO PERMANENTE DE CONVERSAS: ATÉ ONDE A TECNOLOGIA PODE IR COM SEUS DADOS?

Uma decisão judicial proferida nos Estados Unidos reacendeu discussões importantes sobre a forma como plataformas de inteligência artificial tratam as interações com seus usuários. Ao determinar que uma popular ferramenta de IA poderá manter registros indefinidos das conversas realizadas, o tribunal lança luz sobre um tema que já preocupa profissionais do Direito, da tecnologia e da proteção de dados: a guarda permanente de informações pessoais em ambientes digitais.

Essa mudança de postura na retenção de dados exige atenção não apenas dos usuários, mas também das autoridades reguladoras e das empresas que operam sistemas baseados em inteligência artificial. A partir do momento em que essas interações deixam de ser transitórias e passam a integrar bancos de dados permanentes, surgem questionamentos legítimos sobre os limites éticos e legais para o uso, a reutilização e até mesmo a análise desses conteúdos.

Ainda que alguns entendam essa medida como um avanço no sentido da transparência e da melhoria de serviços, é preciso considerar os riscos envolvidos. A depender da forma como esses dados forem utilizados, armazenados e compartilhados, pode-se comprometer não apenas a privacidade dos indivíduos, mas também a confiança no uso da tecnologia.

No Brasil, a Lei Geral de Proteção de Dados Pessoais (LGPD) já prevê diretrizes claras quanto à necessidade de informar os titulares sobre o tratamento de seus dados, além de garantir direitos como acesso, retificação e exclusão. A decisão norte-americana levanta, portanto, a reflexão sobre como essas garantias se mantêm válidas quando o processamento de informações ocorre fora do território nacional, por plataformas com alcance global.

De forma semelhante, o Regulamento Geral sobre a Proteção de Dados (GDPR), vigente na União Europeia, reforça o direito do cidadão à autodeterminação informativa. A diferença de posturas entre jurisdições, no entanto, pode provocar um descompasso no grau de proteção efetiva assegurado aos usuários.

Outro ponto delicado está no impacto dessa decisão sobre a relação entre o usuário e a plataforma. Em um contexto onde a segurança das informações se tornou um ativo tão valioso quanto os próprios dados, a ausência de clareza sobre os critérios de retenção e uso pode afastar o público da tecnologia — justamente no momento em que ela se insere com mais intensidade no cotidiano.

Cabe, portanto, às empresas e aos legisladores ampliarem o debate sobre governança algorítmica, transparência e proteção de dados. A evolução tecnológica não pode se dar de forma dissociada da responsabilidade jurídica e ética no trato das informações que pertencem, em última instância, aos próprios cidadãos.

Este momento exige reflexão, responsabilidade e, sobretudo, um esforço conjunto para que o progresso da inteligência artificial se dê com respeito à privacidade, à liberdade e aos direitos fundamentais. Não se trata de frear a inovação, mas de garantir que ela sirva às pessoas, e não o contrário.