Publicado em

USO DE DADOS NA INTELIGÊNCIA ARTIFICIAL: X CORP TEM PRAZO PARA ESCLARECIMENTOS À ANPD

A Autoridade Nacional de Proteção de Dados (ANPD) intensifica sua atuação sobre o uso de dados pessoais na X Corp, anteriormente conhecida como Twitter. Em resposta às recentes alterações nos termos de uso da plataforma, a ANPD convocou a empresa para esclarecer a inclusão de dados dos usuários no treinamento de inteligência artificial. A X Corp tem até 15 de novembro de 2024 para se manifestar, após a convocação formal ocorrida na última segunda-feira.

A investigação, iniciada em julho deste ano, visa assegurar que as práticas da X Corp estejam em conformidade com a Lei Geral de Proteção de Dados (LGPD). A urgência da ANPD em obter respostas decorre da iminência das novas políticas de uso de dados da plataforma, que em breve entrarão em vigor. Segundo a autoridade, a ausência de resposta à convocação pode caracterizar obstrução de fiscalização, uma infração grave conforme a LGPD, indicando que, na falta de colaboração, a ANPD agirá com as informações que tiver à disposição.

É muito importante destacar as potenciais consequências caso a X Corp não atenda às exigências da autoridade. Em caso de desrespeito à LGPD, a plataforma pode enfrentar sanções, incluindo multas substanciais e até a suspensão de serviços no Brasil. O uso de dados pessoais para IA deve ser precedido de consentimento claro e informado, em linha com as exigências rigorosas da legislação brasileira de proteção de dados.

A expectativa recai agora sobre como a X Corp responderá às demandas, especialmente em um contexto em que a transparência e a adequação às normativas da LGPD são essenciais. A ausência de uma manifestação oficial até o momento levanta questionamentos sobre a postura da empresa, mas espera-se que ela busque ajustar-se às exigências locais, evitando sanções que poderiam afetar sua operação no Brasil.

Publicado em

COMO PROTEGER DADOS EM AMBIENTES DE NUVEM HÍBRIDA E INTELIGÊNCIA ARTIFICIAL

Em tempos de transformação digital acelerada, a segurança cibernética se destaca como um pilar essencial para empresas e governos que buscam se manter à frente das ameaças. Outubro, conhecido como o mês de conscientização em segurança cibernética, serve de alerta para que organizações de todos os portes revisem e fortaleçam suas práticas de proteção. Em um cenário tecnológico que avança rapidamente, os novos modelos de armazenamento e análise de dados, como a nuvem híbrida e a inteligência artificial (IA), trazem à tona tanto oportunidades quanto desafios significativos.

A nuvem híbrida, combinando nuvens públicas e privadas, surge como uma solução prática para muitas empresas. Esse modelo permite que organizações escalem rapidamente, tirando proveito da flexibilidade da nuvem pública, ao mesmo tempo em que mantêm informações sensíveis e processos críticos em servidores privados, onde o controle e a segurança podem ser mais rigorosos. Essa abordagem híbrida promove a uniformidade na experiência de uso e facilita a gestão de dados ao longo de diferentes ambientes, o que contribui para uma melhor proteção contra incidentes.

A IA, por sua vez, adiciona um novo nível de complexidade. Capaz de analisar grandes volumes de dados e automatizar uma variedade de processos, a IA pode aumentar significativamente a eficiência operacional e gerar insights valiosos. Porém, com essa implementação vêm questões fundamentais de segurança. Sistemas de IA, por sua própria natureza, são alvos atrativos para ataques, exigindo políticas de proteção que preservem a integridade e a confidencialidade dos dados. Esse avanço tecnológico requer uma vigilância constante, uma vez que a IA também apresenta vulnerabilidades, como as que permitem adulterações e acessos não autorizados a dados.

Em um cenário que só aumenta em complexidade, um estudo recente indicou que quase 80% das empresas brasileiras registraram incidentes de segurança nos últimos 12 meses. O impacto das tecnologias emergentes, como a IA generativa, é uma preocupação crescente para muitos, que receiam o surgimento de novos desafios relacionados à privacidade e segurança.

Para que a tecnologia continue a impulsionar a inovação de forma segura, as equipes de TI precisam de soluções avançadas que permitam proteger dados em ambientes complexos, como a nuvem híbrida, sem comprometer a continuidade dos negócios. As práticas de segurança devem acompanhar o ritmo acelerado da inovação, especialmente quando se trata de integração de IA e de ambientes híbridos, onde é essencial monitorar e proteger sistemas de forma eficaz.

A segurança cibernética não deve ser vista como uma meta, mas como um processo contínuo e dinâmico, que exige a adaptação constante das práticas e tecnologias de defesa. Este mês de conscientização nos lembra da importância de manter uma abordagem integrada e flexível que atenda a todas as frentes de proteção e inovar de maneira responsável. Com uma estratégia sólida, que une os recursos da nuvem híbrida e as capacidades da IA, é possível criar um ambiente digital mais seguro e sustentável para todos os setores.

Publicado em

SEGURANÇA DIGITAL DE CRIANÇAS E ADOLESCENTES: DESAFIOS E RESPONSABILIDADES PARA EMPRESAS E SOCIEDADE

A Autoridade Nacional de Proteção de Dados (ANPD) tem se mostrado firme na aplicação da Lei Geral de Proteção de Dados (LGPD). No entanto, certos temas complexos ainda exigem definições regulatórias mais específicas, sendo a proteção de dados de menores um dos assuntos prioritários. Por envolver um público particularmente vulnerável, é esperado que a ANPD desenvolva diretrizes exclusivas para os agentes de tratamento de dados relativos a crianças e adolescentes.

No planejamento regulatório da ANPD, a proteção de dados de menores é uma questão estratégica, sendo trabalhada pela Coordenação Geral de Fiscalização nos próximos anos. Entretanto, a exposição significativa de jovens a ambientes digitais, como redes sociais, aplicativos e plataformas de jogos, exige uma resposta coletiva e antecipada. Empresas, educadores, e os próprios pais precisam se mobilizar para prevenir riscos à privacidade dos menores, visto que a coleta de dados em massa já é uma realidade que demanda responsabilidade compartilhada.

Com a LGPD, o Brasil avançou em seu compromisso com a segurança dos dados de jovens, mas há uma necessidade crescente de maior coordenação entre reguladores, empresas e usuários para promover práticas seguras de tratamento de dados pessoais. Recentemente, a ANPD ampliou as bases legais para o tratamento de dados de menores, além do consentimento dos responsáveis, exigindo agora atenção especial para a governança de dados e comprovações de conformidade, dada a possibilidade de sanções mais severas.

Empresas de diversos setores, inclusive as que não lidam diretamente com dados de crianças e adolescentes, devem adotar políticas de proteção adequadas. Falhas na segurança podem resultar em sanções administrativas e judiciais, além de impactar a credibilidade e a confiança pública nas organizações. Contudo, muitos ainda precisam fortalecer seus controles de segurança, investir em tecnologia e capacitar seus colaboradores para atender de forma satisfatória às exigências da LGPD.

Entre as práticas recomendadas, destacam-se a adoção de políticas de uso de dados pessoais claras e acessíveis, mapeamento contínuo das informações mantidas e criptografia dos dados. Adicionalmente, auditorias regulares de segurança, capacitação do pessoal, monitoramento de riscos e um plano ágil de resposta a incidentes de segurança são medidas essenciais para minimizar as ameaças à privacidade dos menores.

A atuação proativa do DPO (Encarregado de Proteção de Dados) é fundamental nesse contexto. Além de priorizar a segurança dos dados dos menores, o DPO deve promover a educação sobre os riscos e zelar pelo cumprimento rigoroso das normas legais. A transparência nas políticas de privacidade, o reforço da segurança da informação, a minimização no tratamento dos dados e a proteção dos direitos dos titulares são aspectos que devem pautar o tratamento de dados de crianças e adolescentes.

Publicado em

INTELIGÊNCIA ARTIFICIAL NO BRASIL: A GOVERNANÇA TECNOLÓGICA QUE TRANSFORMA O MERCADO BRASILEIRO

No cenário atual, a inteligência artificial (IA) está rapidamente consolidando seu papel no Brasil, principalmente em compliance e integridade, com grande parte das empresas investindo em soluções que integram essa tecnologia. O Relatório de Integridade Global 2024, produzido pela EY, aponta que mais de metade das empresas brasileiras (51%) já utiliza IA em suas operações, um índice significativamente superior à média global de 29%. Esse diferencial revela um movimento proativo do mercado nacional em relação a novos recursos tecnológicos para aprimorar práticas de governança e monitoramento.

Entre as empresas brasileiras que adotaram IA, impressionantes 92% se mostram atentas aos riscos inerentes, implementando políticas que asseguram o uso ético e seguro dos algoritmos, contemplando questões de segurança da informação, privacidade e integridade dos dados. Esse esforço é essencial para mitigar o risco de alucinação da IA generativa, garantindo que os processos automatizados sejam submetidos a supervisão humana e que as decisões baseadas em IA sejam seguras e confiáveis.

A governança da IA em mercados emergentes, como o Brasil, demonstra estar à frente dos países desenvolvidos. Dados do estudo mostram que quatro em cada dez empresas desses mercados já adotaram diretrizes específicas para a gestão da IA, revelando uma maturidade elevada tanto no uso quanto no entendimento da tecnologia. Em termos de preparação, 51% dos executivos em mercados emergentes receberam treinamento ou orientações de suas empresas sobre o uso seguro da IA, enquanto na América do Sul, 54% afirmam ter esse suporte — números que superam amplamente as médias da Europa Ocidental (35%), América do Norte (32%) e Oceania (28%).

Os departamentos de jurídico e compliance destacam que a IA trouxe melhorias significativas no monitoramento ativo, na análise avançada de riscos e na evolução dos processos de conformidade. Segundo o relatório, as principais áreas beneficiadas incluem coleta e análise de dados para correlação de riscos, com 40% dos respondentes destacando essa função, seguido pelo monitoramento ativo, com 37%, e a pontuação de riscos, com 34%. Além disso, ao cruzar dados internos com informações regulatórias, a IA identifica possíveis lacunas de conformidade, fortalecendo a gestão preventiva de riscos.

Porém, nem tudo é positivo. Desafios para a implementação plena da IA ainda persistem, especialmente em relação à consistência e qualidade dos dados e à falta de expertise interna em tecnologia. Para que a IA gere o máximo valor, é fundamental que as empresas assegurem o alinhamento das ferramentas de IA com diretrizes internas e requisitos legais, e que a tecnologia seja apoiada por uma base sólida de dados de qualidade.

O Relatório de Integridade Global 2024 da EY teve como base uma pesquisa global com 5.464 executivos e colaboradores de grandes organizações de 53 países, realizada entre outubro de 2023 e janeiro de 2024. Em complemento, a EY desenvolveu a série “IA aplicada aos negócios”, que explora práticas seguras e orientações para as empresas interessadas em adotar a tecnologia. Temas como uso tributário da IA, compliance, governança de dados e monitoramento ambiental são explorados, ressaltando a importância da IA para os negócios e a necessidade de uma estratégia sólida de governança.

A adoção da IA no Brasil reflete o crescente entendimento das empresas de que, para usufruir dos benefícios dessa tecnologia sem comprometer sua integridade e reputação, é imprescindível estabelecer uma governança robusta, que contemple todos os aspectos éticos, legais e operacionais.

Publicado em

JUSTIÇA CONDENA DISTRITO FEDERAL POR EXPOSIÇÃO INDEVIDA DE DADOS DE MENOR APRENDIZ

A 2ª Vara de Fazenda Pública do Distrito Federal determinou que o ente público indenize um menor de idade por danos morais, após a exposição indevida de seus dados pessoais durante seu período de trabalho como aprendiz no Conselho Tutelar da região de Sol Nascente.

Conforme os autos do processo, o jovem relatou que outros menores aprendizes tiveram acesso a documentos que continham informações sensíveis sobre ele e seus familiares, referentes a atendimentos realizados anteriormente pelo Conselho Tutelar. Esses dados teriam sido compartilhados em um grupo de mensagens, gerando constrangimento e situações de humilhação ao menor. Após o ocorrido, o jovem passou a ser alvo de comentários pejorativos, o que tornou inviável a convivência com os demais colegas de trabalho. Além disso, ele revelou que alguns dos envolvidos possuíam histórico de atos infracionais, o que aumentou seu receio de sofrer retaliações. Diante do ambiente hostil, a solução encontrada foi a sua transferência para outra unidade do Conselho.

A defesa do Distrito Federal sustentou que as mensagens anexadas ao processo não seriam suficientes para comprovar a divulgação de informações do autor, alegando falta de evidências que configurassem a violação de dados pessoais. No entanto, a análise do juiz divergiu desse entendimento.

As conversas registradas nos autos demonstravam a exposição indevida dos dados do menor e sua família. “As mensagens revelam claramente o acesso a pastas que continham dados pessoais do autor e de seus familiares”, enfatizou. A decisão ainda frisou a falha do Distrito Federal em proteger informações sensíveis, violando os direitos à privacidade e à dignidade do menor, garantidos pelo Estatuto da Criança e do Adolescente (ECA) e pela Lei Geral de Proteção de Dados (LGPD).

Houve uma clara quebra do sigilo de dados protegidos pela LGPD e uma violação à intimidade do jovem, resultando em danos que não podem ser mensurados. Diante desses fatores, o Distrito Federal foi condenado a pagar uma indenização de R$ 30 mil, além de ser responsabilizado pelas custas processuais e honorários advocatícios.

Essa decisão reforça a importância da proteção de dados pessoais, especialmente no contexto de menores, destacando que a falta de cuidado na gestão de informações sensíveis pode acarretar sérias consequências jurídicas e sociais.

Publicado em

O SISTEMA DE MONITORAMENTO EM TEMPO REAL E OS DESAFIOS PARA A PRIVACIDADE NO BRASIL

O Córtex é uma ferramenta de inteligência sofisticada, mantida pelo Ministério da Justiça e Segurança Pública (MJSP), que permite o monitoramento de pessoas e veículos em tempo real em várias regiões do Brasil. Esse sistema abrange municípios e rodovias, possibilitando que consultas sejam realizadas sem a necessidade de justificativas ou motivações registradas, o que significa que os indivíduos podem ser monitorados sem autorização judicial ou vínculo a investigações formais.

Informações obtidas por meio da Lei de Acesso à Informação revelam que mais de 55 mil usuários, tanto civis quanto militares, possuem acesso ao sistema, distribuídos por aproximadamente 180 órgãos públicos. O próprio MJSP reconheceu que, para acessar as funcionalidades do Córtex, não é necessário justificar a escolha dos “alvos” monitorados. Segundo a pasta, a ausência de motivação é justificada pelo foco do sistema em atividades de segurança pública. No entanto, caso surjam suspeitas de uso indevido, cabe à auditoria atuar para investigar essas situações.

Apesar dessa supervisão ser prevista, a eficácia do controle sobre o uso do Córtex tem sido questionada. De acordo com dados do MJSP, apenas 62 relatórios de auditoria foram produzidos desde o início da operação do sistema até o presente, em um cenário que já identificou cerca de 360 mil alvos entre 2019 e 2022. Essa baixa frequência de auditorias contrasta com a amplitude do monitoramento realizado, que inclui acesso a informações sensíveis de diversas bases de dados, como registros de salários e informações de saúde.

A abrangência do sistema também se estende a câmeras de vigilância em vias públicas, com cerca de 35,9 mil dispositivos espalhados por todo o país, integrados ao recurso conhecido como “cerco eletrônico”. Essa funcionalidade permite que veículos sejam rastreados em tempo real a partir da leitura de placas, monitorando seus deslocamentos em diferentes regiões.

A falta de um controle mais rigoroso e independente sobre o uso do Córtex levanta preocupações quanto à possibilidade de vigilância arbitrária, incluindo casos de monitoramento de familiares ou cônjuges de agentes que possuem acesso ao sistema. Embora o MJSP tenha discutido medidas para alertar sobre possíveis abusos, como a vigilância de veículos de familiares, não há garantias de que tais práticas sejam evitadas.

O uso indiscriminado do sistema foi tema de investigações, que revelaram casos de consultas em massa, sugerindo o uso de tecnologias automatizadas para acessar os dados de forma intensiva. Há ainda suspeitas de que indivíduos sem ligação com órgãos de segurança pública possam ter tido acesso ao Córtex, um cenário que já foi objeto de outras reportagens e análises.

O sistema foi implementado originalmente durante o governo anterior, mas continua a ser expandido na administração atual, integrando-se a uma iniciativa maior de inteligência voltada ao combate ao crime organizado, denominada Orcrim. Com isso, o Córtex passa a ser apenas um componente de uma plataforma mais ampla, que busca centralizar o controle e a análise de informações para fins de segurança pública.

As parcerias firmadas entre o MJSP e prefeituras, bem como outros órgãos estaduais, por meio de Acordos de Cooperação Técnica (ACTs), ampliam ainda mais o alcance do sistema. Em troca de acesso ao Córtex, esses órgãos compartilham suas próprias bases de dados, como informações de bilhetagem de transporte público, que incluem dados como CPF e nomes de passageiros, além de localização e horários de embarque.

Essa rede de monitoramento sem precedentes levanta questões sobre a privacidade dos cidadãos e a necessidade de maior transparência e controle sobre seu uso, especialmente em um cenário onde os dados pessoais se tornam cada vez mais sensíveis. O equilíbrio entre a segurança pública e os direitos individuais torna-se um ponto crucial nesse contexto, exigindo uma reflexão sobre os limites da vigilância no Brasil.

Publicado em

COMO PEQUENAS AÇÕES PODEM PROTEGER SEUS DADOS PESSOAIS

Hoje, a exposição dos nossos dados pessoais é uma realidade preocupante. Basta uma pequena fração de informação, como o nome ou o número de telefone, para que muitos dados sensíveis possam ser acessados, como CPF, endereço, renda e até fotos. Isso é facilitado por ferramentas conhecidas como “painéis de dados”, que têm sido uma das principais fontes para a crescente onda de golpes virtuais no Brasil.

Esses painéis reúnem informações vazadas ou roubadas de bases de dados públicas e privadas, e criminosos conseguem acessá-los facilmente, muitas vezes pagando por assinaturas que variam de R$ 30 a R$ 350. Embora o simples acesso a esses painéis não configure um crime, as consequências têm sido graves. De acordo com estudos recentes, golpes virtuais baseados nesses dados aumentaram significativamente nos últimos anos, superando até prejuízos causados por crimes como furtos e roubos de celulares.

A pandemia impulsionou ainda mais essa tendência, trazendo um grande número de pessoas para o sistema bancário. O auxílio emergencial, o lançamento do Pix e o surgimento de novas instituições financeiras contribuíram para esse crescimento. Infelizmente, isso também facilitou a vida de criminosos, que passaram a operar em um ambiente virtual, onde os riscos de confronto direto com a polícia são inexistentes.

Os painéis de dados, entretanto, não são novidade. Surgiram nos anos 2010, quando DVDs e pen drives com informações pessoais eram comercializados informalmente. Hoje, essas informações estão em plataformas online que permitem buscas detalhadas sobre uma pessoa, incluindo sua pontuação de crédito e dados financeiros. Embora nem sempre esses dados estejam atualizados, eles são suficientes para que criminosos se aproveitem de pessoas por meio de golpes que parecem cada vez mais autênticos.

A Lei Geral de Proteção de Dados (LGPD), em vigor desde 2020, busca garantir mais controle ao cidadão sobre o uso de suas informações pessoais. No entanto, é fundamental que todos se conscientizem sobre a importância de adotar práticas básicas de segurança digital, como mudar senhas regularmente e ser cautelosos ao fornecer informações pessoais, mesmo em situações que parecem seguras.

Embora as autoridades estejam trabalhando para reforçar a proteção de dados, o caminho ainda é longo. A Autoridade Nacional de Proteção de Dados (ANPD) foi criada com essa missão, mas, como um órgão recente, enfrenta desafios para se consolidar. A conscientização coletiva, o fortalecimento da fiscalização e a aplicação de sanções adequadas são passos essenciais para reduzir a exposição dos nossos dados e combater a prática de golpes virtuais de forma mais eficaz.

Publicado em

EFICIÊNCIA E RISCOS DA INTELIGÊNCIA ARTIFICIAL NO SETOR JURÍDICO

A tecnologia vem se tornando parte essencial do dia a dia, e no direito empresarial não é diferente. A inteligência artificial (IA) tem ganhado espaço, ajudando a transformar a maneira como escritórios de advocacia e empresas lidam com questões jurídicas. Um dos principais benefícios é a automação de tarefas repetitivas, como a revisão de contratos e a análise de documentos, o que agiliza processos e economiza tempo.

A IA também é usada para fazer previsões a partir de grandes volumes de dados, analisando históricos de litígios e tendências de mercado. Isso permite que empresas tomem decisões mais estratégicas e fundamentadas.

No entanto, o uso constante dessa tecnologia levanta algumas preocupações. Questões como privacidade, proteção de dados e a falta de transparência em processos automatizados são temas que precisam ser discutidos. A manipulação de grandes quantidades de dados sensíveis exige atenção para cumprir a Lei Geral de Proteção de Dados (LGPD), garantindo que as informações sejam tratadas de forma adequada.

Outro ponto importante é o impacto no mercado de trabalho. Embora as ferramentas de IA possam aumentar a produtividade, a interpretação e aplicação correta das leis ainda dependem de profissionais qualificados. A tecnologia deve ser vista como um complemento às capacidades humanas, não como um substituto.

Também é preciso considerar que algoritmos podem conter erros ou vieses, o que pode levar a decisões incorretas e prejudicar empresas e clientes. Além disso, a falta de normas claras sobre o uso da IA no direito deixa em aberto questões sobre quem seria responsável por danos causados por decisões automatizadas.

A IA no direito empresarial oferece muitos benefícios, como maior eficiência e redução de custos. No entanto, é preciso usá-la com cuidado, garantindo que esteja alinhada com princípios éticos e jurídicos. A tecnologia, quando bem utilizada, pode ser uma grande aliada, mas exige uma reflexão constante sobre seus limites e impactos.

Publicado em

ANPD DEFINE NOVA POLÍTICA INTERNA PARA FORTALECER A PROTEÇÃO DE DADOS PESSOAIS

A Autoridade Nacional de Proteção de Dados (ANPD) divulgou recentemente, em 7 de outubro, sua própria Política Interna de Proteção de Dados Pessoais. Essa nova diretriz estabelece os parâmetros que a própria autoridade deverá seguir no tratamento das informações pessoais que gerencia. Além de observar a Lei Geral de Proteção de Dados (Lei 13.709/18), a resolução da ANPD traz à tona a importância da privacidade desde a fase de concepção dos projetos e a adoção de boas práticas de segurança.

A ANPD reforça o compromisso com a aplicação do princípio da boa-fé e a diligência contínua ao longo de todo o ciclo de vida dos dados pessoais. A política também destaca a obrigatoriedade de utilizar bases legais adequadas para o tratamento dessas informações, além de implementar medidas de segurança técnicas e administrativas robustas. Adicionalmente, é previsto que a autoridade manterá um registro detalhado das operações de tratamento, garantindo maior controle e transparência.

Um dos princípios centrais dessa política é o tratamento estritamente necessário dos dados, ou seja, serão utilizados apenas os dados essenciais para atender às finalidades do tratamento. Após o término desse processo, os dados deverão ser eliminados de forma segura, assegurando, assim, o respeito à privacidade e à integridade das informações tratadas pela ANPD.

Publicado em

ATAQUE DE RANSOMWARE À TOTVS REFORÇA IMPORTÂNCIA DE PROTOCOLOS DE SEGURANÇA

A Totvs, uma das principais empresas brasileiras de software, foi alvo de um ataque de ransomware, conforme confirmado pela própria companhia. O incidente foi reivindicado pelo grupo BlackByte, que alega ter comprometido dados da empresa e apresentou supostas amostras em fóruns online. No entanto, a extensão total do impacto ainda não pôde ser verificada.

Apesar do ataque, a Totvs conseguiu manter suas operações em funcionamento. Em comunicado oficial, a empresa destacou que, graças a uma resposta rápida e eficiente, seguindo seus protocolos de segurança previamente estabelecidos, conseguiu garantir a continuidade dos serviços prestados.

Demonstrando seu compromisso com a transparência e a responsabilidade, a Totvs reforçou que a segurança das informações é uma prioridade máxima. A empresa segue monitorando seus sistemas de forma rigorosa para prevenir possíveis novas ameaças, reafirmando seu comprometimento com a proteção dos dados de seus clientes, colaboradores e parceiros.

O incidente ilustra mais uma vez a relevância da adoção de protocolos de segurança robustos em face das crescentes ameaças cibernéticas. A Totvs segue alerta, reforçando que a resposta rápida e a resiliência de suas operações foram essenciais para mitigar os efeitos do ataque.

Publicado em

O IMPACTO DA DIVULGAÇÃO INDEVIDA DE INFORMAÇÕES SENSÍVEIS NO AMBIENTE DIGITAL

Uma ação indenizatória foi movida contra o Estado da Bahia e uma conhecida plataforma de divulgação de conteúdo jurídico, sob a alegação de violação do direito ao sigilo de informações sensíveis sobre a saúde do autor. O caso gira em torno da divulgação indevida de um processo judicial sigiloso, envolvendo uma pessoa vivendo com HIV, cujos detalhes acabaram expostos publicamente na plataforma.

Os advogados do autor destacaram a gravidade do ocorrido, argumentando que ele, já vítima de discriminação relacionada à sua condição de saúde, sofreu uma nova violação com a exposição de dados pessoais. A situação trouxe à tona a discussão sobre a importância da proteção de dados sensíveis, especialmente no ambiente digital, onde informações podem ser disseminadas com grande rapidez e alcance.

A defesa do autor foi fundamentada na Constituição Federal, que, em seu artigo 5º, LXXIX, garante o direito fundamental à proteção de dados pessoais, inclusive nos meios digitais. A Lei Geral de Proteção de Dados (LGPD) também foi utilizada como base, com foco no artigo 11, que restringe o tratamento de dados sensíveis, prevendo sua utilização apenas em hipóteses específicas e com medidas adequadas para evitar danos ao titular.

A plataforma envolvida não comentou o caso específico, devido ao sigilo judicial, mas reforçou que adota medidas contínuas para garantir que conteúdos sigilosos não sejam indexados. Além disso, mantém um canal de comunicação direta com os usuários para tratar de possíveis violações de privacidade, buscando assegurar a proteção dos envolvidos.

É importante destacar a complexidade da exposição indevida de dados pessoais e a urgência em assegurar a privacidade, especialmente em casos judiciais que tratam de questões de saúde ou outras informações sensíveis. A quebra de sigilo pode gerar prejuízos irreversíveis, agravando a situação de indivíduos que já são alvo de preconceitos sociais.

Publicado em

INOVAÇÃO E SEGURANÇA: A PROTEÇÃO DE DADOS NA AGENDA DA ECONOMIA DIGITAL

A Autoridade Nacional de Proteção de Dados (ANPD) realizou recentemente a conferência “Navegando pela Proteção de Dados na Agenda da Economia Digital”, evento vinculado à 3ª Reunião do Grupo de Trabalho de Economia Digital do G20. A conferência teve como foco central a importância da proteção de dados pessoais no contexto das quatro principais prioridades do grupo de trabalho: conexão significativa, infraestrutura digital pública, integridade da informação e inteligência artificial.

Com uma programação dividida em momentos de falas iniciais, painéis e considerações finais, o evento contou com a participação de representantes de várias autoridades brasileiras, membros de delegações internacionais e outros órgãos governamentais. Além disso, países membros do G20, como Índia e África do Sul, também contribuíram ativamente para os debates.

A abertura da conferência destacou a relevância global da proteção de dados para a construção de uma economia digital sustentável e confiável. Foi enfatizado como esse tema é transversal e essencial para garantir a confiança nas relações digitais, permitindo o crescimento econômico com inovação, sem comprometer os direitos fundamentais dos cidadãos.

O primeiro painel abordou a questão da alfabetização em informação midiática e a proteção dos dados de crianças e adolescentes, destacando os desafios impostos pela desinformação, discursos de ódio e ameaças cibernéticas, principalmente contra os grupos mais vulneráveis. Os participantes ressaltaram a necessidade de fortalecer as medidas de segurança digital e a proteção de dados como um pilar crucial na economia digital.

Já o segundo painel focou na regulamentação experimental e governança de dados, evidenciando a importância dos sandboxes regulatórios para impulsionar a inovação tecnológica de forma responsável. Esse modelo, que permite a experimentação em um ambiente controlado, foi citado como uma ferramenta essencial para promover a confiança entre os setores público e privado, garantindo que a governança de dados avance de maneira transparente e inclusiva.

No encerramento do evento, ficou claro que a proteção de dados pessoais deve ser uma prioridade global, com padronizações e o desenvolvimento de capacidades locais. Essa abordagem colaborativa entre países e setores é fundamental para criar um ambiente digital seguro e propício ao crescimento econômico sustentável.

Esse encontro reforçou a posição da proteção de dados como um elemento chave para o futuro da economia digital, destacando que o envolvimento de múltiplos atores e a cooperação internacional são essenciais para garantir que a tecnologia continue a evoluir de forma ética e responsável.