Publicado em

O PAPEL DO ENCARREGADO DE DADOS NA CONFORMIDADE E NO USO RESPONSÁVEL DA INTELIGÊNCIA ARTIFICIAL

O debate sobre a regulação da inteligência artificial (IA) no Brasil ganhou novo fôlego com o Projeto de Lei nº 2.338/2023, que busca alinhar o desenvolvimento tecnológico à centralidade da pessoa humana. Entre os pontos de maior destaque está a atribuição à Autoridade Nacional de Proteção de Dados (ANPD) da coordenação do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), consolidando seu papel como referência regulatória.

O ecossistema regulatório da IA

De acordo com o projeto, o SIA deverá funcionar como um ambiente de cooperação entre autoridades setoriais, órgãos reguladores e outros sistemas nacionais, sem subordinação hierárquica, mas com a finalidade de garantir uniformidade e segurança jurídica. A lógica repete, em parte, o que a própria LGPD já previu ao designar a ANPD como autoridade central em proteção de dados.

Paralelo com a LGPD e programas de governança

A comparação com a LGPD é inevitável. O artigo 50 da lei estabelece diretrizes de boas práticas e programas de governança em privacidade, exigindo de controladores e operadores medidas para demonstrar compromisso com a proteção de dados. A Resolução CD/ANPD nº 18/2024 reforça esse ponto, ao incumbir o encarregado de dados da função de apoiar e orientar os agentes de tratamento na implementação dessas práticas.

Embora não seja responsável direto pela conformidade, o encarregado desempenha papel estratégico, prestando assistência em decisões organizacionais e ajudando a estruturar uma cultura de governança. Esse modelo encontra respaldo no Regulamento Europeu (GDPR), no qual o encarregado também atua como figura de controle, sem responsabilidade legal direta, mas com relevância prática para a conformidade.

Possíveis funções do encarregado frente à IA

O Projeto de Lei nº 2.338/2023 não prevê, até o momento, uma figura equivalente ao encarregado da LGPD para os agentes de inteligência artificial. No entanto, ao exigir que desenvolvedores e aplicadores de IA adotem programas de governança e mecanismos de autorregulação, abre espaço para que profissionais já envolvidos na governança de dados assumam protagonismo também na conformidade da IA.

Assim como ocorre no tratamento de dados pessoais, a contribuição do encarregado pode se mostrar valiosa na orientação interna, na prevenção de riscos e na harmonização de práticas éticas. O Guia Orientativo da ANPD publicado em 2024 deixa claro que a função é de assessoria estratégica, sem competência decisória, mas com responsabilidade de apoiar processos multidisciplinares para garantir a proteção de direitos fundamentais.

Governança integrada: dados e inteligência artificial

A transição para um ambiente regulatório que abrange tanto a proteção de dados quanto a governança da inteligência artificial tende a reforçar o papel do encarregado como profissional de referência. Para além da LGPD, sua atuação pode se expandir para a supervisão ética e técnica do uso de sistemas de IA, especialmente quando esses sistemas dependem do tratamento massivo de dados pessoais.

Ao unir ética, independência técnica e responsabilidade institucional, esse profissional poderá consolidar-se como elo de confiança entre organizações, reguladores e sociedade, contribuindo para a construção de um ecossistema regulatório mais robusto e responsável no Brasil.

Publicado em

GOLPES VIRTUAIS COM INTELIGÊNCIA ARTIFICIAL: O QUE VOCÊ PRECISA SABER PARA SE PROTEGER

Inteligência Artificial e Cibercrimes: um desafio da vida digital

A incorporação da inteligência artificial nas fraudes digitais representa um ponto de inflexão na forma como o crime virtual se manifesta. Se antes os golpes eram marcados por sinais evidentes de amadorismo, hoje eles assumem contornos sofisticados, explorando recursos tecnológicos capazes de imitar com perfeição vozes, imagens e até interações em tempo real. Essa transformação exige um olhar mais crítico sobre a rotina digital e maior preparo para reconhecer armadilhas.

Como os criminosos exploram a tecnologia

As técnicas utilizadas evoluíram de simples mensagens mal escritas para montagens que simulam com impressionante realismo pessoas conhecidas, figuras públicas ou empresas confiáveis. A inteligência artificial amplia a capacidade de manipulação, oferecendo aos fraudadores ferramentas que geram conteúdos convincentes, capazes de induzir decisões precipitadas.

Alguns sinais ainda permitem detectar a fraude. Pedidos de ajuda ou transferências com urgência exagerada, tom de voz artificialmente carregado de emoção, imagens com movimentos faciais desalinhados e mensagens que fogem do padrão de comportamento da pessoa retratada são indícios que devem despertar desconfiança.

Principais modalidades de golpes potencializados por IA

  • Clonagem de voz em pedidos de ajuda: criminosos utilizam áudios disponíveis na internet para recriar falas de familiares ou amigos, simulando emergências para induzir transferências financeiras.
  • Vídeos falsos com celebridades ou executivos: conteúdos em que personagens conhecidos oferecem investimentos ou produtos. A produção é tão convincente que pode ser confundida com comunicação oficial.
  • Links fraudulentos (phishing): mensagens que imitam alertas de segurança ou promoções, direcionando para páginas que reproduzem fielmente sites oficiais. Nelas, dados pessoais e financeiros são coletados para uso indevido.

Estratégias de proteção

A defesa contra esses golpes começa na desconfiança saudável. Confirmar pedidos por outro canal de comunicação é prática indispensável. Também é recomendável reduzir a exposição desnecessária de voz e imagem em ambientes digitais, já que esse material pode ser reutilizado em simulações. Outras medidas incluem a ativação da verificação em duas etapas nos aplicativos, o cuidado ao clicar em links recebidos por mensagens e a atenção redobrada à circulação de informações pessoais em redes sociais.

A vida digital contemporânea requer vigilância constante. A inteligência artificial trouxe avanços significativos para a sociedade, mas também ampliou o alcance das fraudes virtuais. Conhecer as técnicas utilizadas, reconhecer sinais de manipulação e adotar boas práticas de segurança são passos indispensáveis para reduzir riscos.

Publicado em

SEGURANÇA DIGITAL NA ERA DA INTELIGÊNCIA ARTIFICIAL: FUNDAMENTOS, GOVERNANÇA E DISCIPLINA

A inteligência artificial tornou-se o motor central da produtividade contemporânea. Seu impacto, contudo, é ambivalente: enquanto fortalece defesas, amplia também a escala, a velocidade e a sofisticação dos ataques cibernéticos. O custo médio global de uma violação de dados em 2025 alcançou US$ 4,4 milhões, chegando a R$ 7,19 milhões no Brasil. Ainda mais revelador é o fato de que, apesar do avanço das tecnologias, o fator humano segue presente em cerca de 60% dos incidentes reportados.

Esse contexto não nos oferece alternativas, mas nos obriga a revisar práticas. O caminho não está em abandonar fundamentos já consolidados, mas em reforçá-los com governança aplicada à inteligência artificial e disciplina operacional sustentada por métricas claras. A tecnologia isolada não garante resiliência; esta nasce da combinação indissociável entre três elementos: fundamentos, governança e disciplina.

Fundamentos
Os ataques mais frequentes continuam explorando vulnerabilidades humanas e falhas de processo. A engenharia social, potencializada por modelos de IA capazes de produzir campanhas de phishing mais verossímeis, segue como porta de entrada recorrente. Nesse cenário, treinamentos contínuos e simulações práticas deixam de ser mera formalidade para se tornarem recursos indispensáveis. Paralelamente, a arquitetura Zero Trust estabelece-se como padrão obrigatório. Em um ambiente conectado e descentralizado, a identidade é o novo perímetro, e a autenticação multifator representa a barreira mínima aceitável.

Governança de IA
O uso descontrolado de ferramentas de inteligência artificial sem supervisão, fenômeno conhecido como Shadow AI, cria superfícies de ataque invisíveis. Modelos de linguagem de grande porte introduzem riscos inéditos, como manipulação por injeção de comandos e envenenamento de dados. Esses vetores só podem ser enfrentados por meio de gestão estruturada. Normas e frameworks internacionais, como a ISO/IEC 42001 e o NIST AI RMF, oferecem bases para estabelecer políticas, avaliar riscos de forma objetiva e garantir processos auditáveis.

Disciplina operacional
A eficácia da segurança não se mede pela ausência de incidentes, mas pela capacidade de resposta. Indicadores como Tempo Médio para Detecção (MTTD) e Tempo Médio para Resposta (MTTR) devem ser a bússola de qualquer operação de segurança. Organizações que combinam automação com supervisão humana apresentam desempenho significativamente superior na redução desses tempos. A disciplina se traduz em playbooks testados, restaurações de backup verificadas e simulações que envolvem não apenas a equipe técnica, mas também áreas de negócio, jurídicas e de comunicação.

Plano de ação em 90 dias
Esse tripé pode ser convertido em prática com um modelo simples de implementação em três etapas. Nos primeiros 30 dias, a prioridade é estruturar bases sólidas, como a publicação de políticas de uso de IA e a adoção universal da autenticação multifator. Nos 60 dias seguintes, o foco passa para a execução: simulações de phishing e automações de resposta em processos de baixo risco. Ao final de 90 dias, a maturidade aumenta com a incorporação de perfis de risco baseados em frameworks reconhecidos e testes completos de restauração.

A segurança digital deixou de ser um desafio apenas técnico. Trata-se de gestão, cultura e disciplina diária. As ferramentas estão disponíveis, mas a resiliência dependerá sempre da escolha consciente de aplicar fundamentos sólidos, adotar governança estruturada e manter a disciplina operacional como prática permanente.