Publicado em

O PAPEL DO ENCARREGADO DE DADOS NA CONFORMIDADE E NO USO RESPONSÁVEL DA INTELIGÊNCIA ARTIFICIAL

O debate sobre a regulação da inteligência artificial (IA) no Brasil ganhou novo fôlego com o Projeto de Lei nº 2.338/2023, que busca alinhar o desenvolvimento tecnológico à centralidade da pessoa humana. Entre os pontos de maior destaque está a atribuição à Autoridade Nacional de Proteção de Dados (ANPD) da coordenação do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), consolidando seu papel como referência regulatória.

O ecossistema regulatório da IA

De acordo com o projeto, o SIA deverá funcionar como um ambiente de cooperação entre autoridades setoriais, órgãos reguladores e outros sistemas nacionais, sem subordinação hierárquica, mas com a finalidade de garantir uniformidade e segurança jurídica. A lógica repete, em parte, o que a própria LGPD já previu ao designar a ANPD como autoridade central em proteção de dados.

Paralelo com a LGPD e programas de governança

A comparação com a LGPD é inevitável. O artigo 50 da lei estabelece diretrizes de boas práticas e programas de governança em privacidade, exigindo de controladores e operadores medidas para demonstrar compromisso com a proteção de dados. A Resolução CD/ANPD nº 18/2024 reforça esse ponto, ao incumbir o encarregado de dados da função de apoiar e orientar os agentes de tratamento na implementação dessas práticas.

Embora não seja responsável direto pela conformidade, o encarregado desempenha papel estratégico, prestando assistência em decisões organizacionais e ajudando a estruturar uma cultura de governança. Esse modelo encontra respaldo no Regulamento Europeu (GDPR), no qual o encarregado também atua como figura de controle, sem responsabilidade legal direta, mas com relevância prática para a conformidade.

Possíveis funções do encarregado frente à IA

O Projeto de Lei nº 2.338/2023 não prevê, até o momento, uma figura equivalente ao encarregado da LGPD para os agentes de inteligência artificial. No entanto, ao exigir que desenvolvedores e aplicadores de IA adotem programas de governança e mecanismos de autorregulação, abre espaço para que profissionais já envolvidos na governança de dados assumam protagonismo também na conformidade da IA.

Assim como ocorre no tratamento de dados pessoais, a contribuição do encarregado pode se mostrar valiosa na orientação interna, na prevenção de riscos e na harmonização de práticas éticas. O Guia Orientativo da ANPD publicado em 2024 deixa claro que a função é de assessoria estratégica, sem competência decisória, mas com responsabilidade de apoiar processos multidisciplinares para garantir a proteção de direitos fundamentais.

Governança integrada: dados e inteligência artificial

A transição para um ambiente regulatório que abrange tanto a proteção de dados quanto a governança da inteligência artificial tende a reforçar o papel do encarregado como profissional de referência. Para além da LGPD, sua atuação pode se expandir para a supervisão ética e técnica do uso de sistemas de IA, especialmente quando esses sistemas dependem do tratamento massivo de dados pessoais.

Ao unir ética, independência técnica e responsabilidade institucional, esse profissional poderá consolidar-se como elo de confiança entre organizações, reguladores e sociedade, contribuindo para a construção de um ecossistema regulatório mais robusto e responsável no Brasil.

Publicado em

SEGURANÇA DIGITAL NA ERA DA INTELIGÊNCIA ARTIFICIAL: FUNDAMENTOS, GOVERNANÇA E DISCIPLINA

A inteligência artificial tornou-se o motor central da produtividade contemporânea. Seu impacto, contudo, é ambivalente: enquanto fortalece defesas, amplia também a escala, a velocidade e a sofisticação dos ataques cibernéticos. O custo médio global de uma violação de dados em 2025 alcançou US$ 4,4 milhões, chegando a R$ 7,19 milhões no Brasil. Ainda mais revelador é o fato de que, apesar do avanço das tecnologias, o fator humano segue presente em cerca de 60% dos incidentes reportados.

Esse contexto não nos oferece alternativas, mas nos obriga a revisar práticas. O caminho não está em abandonar fundamentos já consolidados, mas em reforçá-los com governança aplicada à inteligência artificial e disciplina operacional sustentada por métricas claras. A tecnologia isolada não garante resiliência; esta nasce da combinação indissociável entre três elementos: fundamentos, governança e disciplina.

Fundamentos
Os ataques mais frequentes continuam explorando vulnerabilidades humanas e falhas de processo. A engenharia social, potencializada por modelos de IA capazes de produzir campanhas de phishing mais verossímeis, segue como porta de entrada recorrente. Nesse cenário, treinamentos contínuos e simulações práticas deixam de ser mera formalidade para se tornarem recursos indispensáveis. Paralelamente, a arquitetura Zero Trust estabelece-se como padrão obrigatório. Em um ambiente conectado e descentralizado, a identidade é o novo perímetro, e a autenticação multifator representa a barreira mínima aceitável.

Governança de IA
O uso descontrolado de ferramentas de inteligência artificial sem supervisão, fenômeno conhecido como Shadow AI, cria superfícies de ataque invisíveis. Modelos de linguagem de grande porte introduzem riscos inéditos, como manipulação por injeção de comandos e envenenamento de dados. Esses vetores só podem ser enfrentados por meio de gestão estruturada. Normas e frameworks internacionais, como a ISO/IEC 42001 e o NIST AI RMF, oferecem bases para estabelecer políticas, avaliar riscos de forma objetiva e garantir processos auditáveis.

Disciplina operacional
A eficácia da segurança não se mede pela ausência de incidentes, mas pela capacidade de resposta. Indicadores como Tempo Médio para Detecção (MTTD) e Tempo Médio para Resposta (MTTR) devem ser a bússola de qualquer operação de segurança. Organizações que combinam automação com supervisão humana apresentam desempenho significativamente superior na redução desses tempos. A disciplina se traduz em playbooks testados, restaurações de backup verificadas e simulações que envolvem não apenas a equipe técnica, mas também áreas de negócio, jurídicas e de comunicação.

Plano de ação em 90 dias
Esse tripé pode ser convertido em prática com um modelo simples de implementação em três etapas. Nos primeiros 30 dias, a prioridade é estruturar bases sólidas, como a publicação de políticas de uso de IA e a adoção universal da autenticação multifator. Nos 60 dias seguintes, o foco passa para a execução: simulações de phishing e automações de resposta em processos de baixo risco. Ao final de 90 dias, a maturidade aumenta com a incorporação de perfis de risco baseados em frameworks reconhecidos e testes completos de restauração.

A segurança digital deixou de ser um desafio apenas técnico. Trata-se de gestão, cultura e disciplina diária. As ferramentas estão disponíveis, mas a resiliência dependerá sempre da escolha consciente de aplicar fundamentos sólidos, adotar governança estruturada e manter a disciplina operacional como prática permanente.