Publicado em

O PAPEL DO ENCARREGADO DE DADOS NA CONFORMIDADE E NO USO RESPONSÁVEL DA INTELIGÊNCIA ARTIFICIAL

O debate sobre a regulação da inteligência artificial (IA) no Brasil ganhou novo fôlego com o Projeto de Lei nº 2.338/2023, que busca alinhar o desenvolvimento tecnológico à centralidade da pessoa humana. Entre os pontos de maior destaque está a atribuição à Autoridade Nacional de Proteção de Dados (ANPD) da coordenação do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), consolidando seu papel como referência regulatória.

O ecossistema regulatório da IA

De acordo com o projeto, o SIA deverá funcionar como um ambiente de cooperação entre autoridades setoriais, órgãos reguladores e outros sistemas nacionais, sem subordinação hierárquica, mas com a finalidade de garantir uniformidade e segurança jurídica. A lógica repete, em parte, o que a própria LGPD já previu ao designar a ANPD como autoridade central em proteção de dados.

Paralelo com a LGPD e programas de governança

A comparação com a LGPD é inevitável. O artigo 50 da lei estabelece diretrizes de boas práticas e programas de governança em privacidade, exigindo de controladores e operadores medidas para demonstrar compromisso com a proteção de dados. A Resolução CD/ANPD nº 18/2024 reforça esse ponto, ao incumbir o encarregado de dados da função de apoiar e orientar os agentes de tratamento na implementação dessas práticas.

Embora não seja responsável direto pela conformidade, o encarregado desempenha papel estratégico, prestando assistência em decisões organizacionais e ajudando a estruturar uma cultura de governança. Esse modelo encontra respaldo no Regulamento Europeu (GDPR), no qual o encarregado também atua como figura de controle, sem responsabilidade legal direta, mas com relevância prática para a conformidade.

Possíveis funções do encarregado frente à IA

O Projeto de Lei nº 2.338/2023 não prevê, até o momento, uma figura equivalente ao encarregado da LGPD para os agentes de inteligência artificial. No entanto, ao exigir que desenvolvedores e aplicadores de IA adotem programas de governança e mecanismos de autorregulação, abre espaço para que profissionais já envolvidos na governança de dados assumam protagonismo também na conformidade da IA.

Assim como ocorre no tratamento de dados pessoais, a contribuição do encarregado pode se mostrar valiosa na orientação interna, na prevenção de riscos e na harmonização de práticas éticas. O Guia Orientativo da ANPD publicado em 2024 deixa claro que a função é de assessoria estratégica, sem competência decisória, mas com responsabilidade de apoiar processos multidisciplinares para garantir a proteção de direitos fundamentais.

Governança integrada: dados e inteligência artificial

A transição para um ambiente regulatório que abrange tanto a proteção de dados quanto a governança da inteligência artificial tende a reforçar o papel do encarregado como profissional de referência. Para além da LGPD, sua atuação pode se expandir para a supervisão ética e técnica do uso de sistemas de IA, especialmente quando esses sistemas dependem do tratamento massivo de dados pessoais.

Ao unir ética, independência técnica e responsabilidade institucional, esse profissional poderá consolidar-se como elo de confiança entre organizações, reguladores e sociedade, contribuindo para a construção de um ecossistema regulatório mais robusto e responsável no Brasil.

Publicado em

GOLPES VIRTUAIS COM INTELIGÊNCIA ARTIFICIAL: O QUE VOCÊ PRECISA SABER PARA SE PROTEGER

Inteligência Artificial e Cibercrimes: um desafio da vida digital

A incorporação da inteligência artificial nas fraudes digitais representa um ponto de inflexão na forma como o crime virtual se manifesta. Se antes os golpes eram marcados por sinais evidentes de amadorismo, hoje eles assumem contornos sofisticados, explorando recursos tecnológicos capazes de imitar com perfeição vozes, imagens e até interações em tempo real. Essa transformação exige um olhar mais crítico sobre a rotina digital e maior preparo para reconhecer armadilhas.

Como os criminosos exploram a tecnologia

As técnicas utilizadas evoluíram de simples mensagens mal escritas para montagens que simulam com impressionante realismo pessoas conhecidas, figuras públicas ou empresas confiáveis. A inteligência artificial amplia a capacidade de manipulação, oferecendo aos fraudadores ferramentas que geram conteúdos convincentes, capazes de induzir decisões precipitadas.

Alguns sinais ainda permitem detectar a fraude. Pedidos de ajuda ou transferências com urgência exagerada, tom de voz artificialmente carregado de emoção, imagens com movimentos faciais desalinhados e mensagens que fogem do padrão de comportamento da pessoa retratada são indícios que devem despertar desconfiança.

Principais modalidades de golpes potencializados por IA

  • Clonagem de voz em pedidos de ajuda: criminosos utilizam áudios disponíveis na internet para recriar falas de familiares ou amigos, simulando emergências para induzir transferências financeiras.
  • Vídeos falsos com celebridades ou executivos: conteúdos em que personagens conhecidos oferecem investimentos ou produtos. A produção é tão convincente que pode ser confundida com comunicação oficial.
  • Links fraudulentos (phishing): mensagens que imitam alertas de segurança ou promoções, direcionando para páginas que reproduzem fielmente sites oficiais. Nelas, dados pessoais e financeiros são coletados para uso indevido.

Estratégias de proteção

A defesa contra esses golpes começa na desconfiança saudável. Confirmar pedidos por outro canal de comunicação é prática indispensável. Também é recomendável reduzir a exposição desnecessária de voz e imagem em ambientes digitais, já que esse material pode ser reutilizado em simulações. Outras medidas incluem a ativação da verificação em duas etapas nos aplicativos, o cuidado ao clicar em links recebidos por mensagens e a atenção redobrada à circulação de informações pessoais em redes sociais.

A vida digital contemporânea requer vigilância constante. A inteligência artificial trouxe avanços significativos para a sociedade, mas também ampliou o alcance das fraudes virtuais. Conhecer as técnicas utilizadas, reconhecer sinais de manipulação e adotar boas práticas de segurança são passos indispensáveis para reduzir riscos.

Publicado em

SEGURANÇA DIGITAL NA ERA DA INTELIGÊNCIA ARTIFICIAL: FUNDAMENTOS, GOVERNANÇA E DISCIPLINA

A inteligência artificial tornou-se o motor central da produtividade contemporânea. Seu impacto, contudo, é ambivalente: enquanto fortalece defesas, amplia também a escala, a velocidade e a sofisticação dos ataques cibernéticos. O custo médio global de uma violação de dados em 2025 alcançou US$ 4,4 milhões, chegando a R$ 7,19 milhões no Brasil. Ainda mais revelador é o fato de que, apesar do avanço das tecnologias, o fator humano segue presente em cerca de 60% dos incidentes reportados.

Esse contexto não nos oferece alternativas, mas nos obriga a revisar práticas. O caminho não está em abandonar fundamentos já consolidados, mas em reforçá-los com governança aplicada à inteligência artificial e disciplina operacional sustentada por métricas claras. A tecnologia isolada não garante resiliência; esta nasce da combinação indissociável entre três elementos: fundamentos, governança e disciplina.

Fundamentos
Os ataques mais frequentes continuam explorando vulnerabilidades humanas e falhas de processo. A engenharia social, potencializada por modelos de IA capazes de produzir campanhas de phishing mais verossímeis, segue como porta de entrada recorrente. Nesse cenário, treinamentos contínuos e simulações práticas deixam de ser mera formalidade para se tornarem recursos indispensáveis. Paralelamente, a arquitetura Zero Trust estabelece-se como padrão obrigatório. Em um ambiente conectado e descentralizado, a identidade é o novo perímetro, e a autenticação multifator representa a barreira mínima aceitável.

Governança de IA
O uso descontrolado de ferramentas de inteligência artificial sem supervisão, fenômeno conhecido como Shadow AI, cria superfícies de ataque invisíveis. Modelos de linguagem de grande porte introduzem riscos inéditos, como manipulação por injeção de comandos e envenenamento de dados. Esses vetores só podem ser enfrentados por meio de gestão estruturada. Normas e frameworks internacionais, como a ISO/IEC 42001 e o NIST AI RMF, oferecem bases para estabelecer políticas, avaliar riscos de forma objetiva e garantir processos auditáveis.

Disciplina operacional
A eficácia da segurança não se mede pela ausência de incidentes, mas pela capacidade de resposta. Indicadores como Tempo Médio para Detecção (MTTD) e Tempo Médio para Resposta (MTTR) devem ser a bússola de qualquer operação de segurança. Organizações que combinam automação com supervisão humana apresentam desempenho significativamente superior na redução desses tempos. A disciplina se traduz em playbooks testados, restaurações de backup verificadas e simulações que envolvem não apenas a equipe técnica, mas também áreas de negócio, jurídicas e de comunicação.

Plano de ação em 90 dias
Esse tripé pode ser convertido em prática com um modelo simples de implementação em três etapas. Nos primeiros 30 dias, a prioridade é estruturar bases sólidas, como a publicação de políticas de uso de IA e a adoção universal da autenticação multifator. Nos 60 dias seguintes, o foco passa para a execução: simulações de phishing e automações de resposta em processos de baixo risco. Ao final de 90 dias, a maturidade aumenta com a incorporação de perfis de risco baseados em frameworks reconhecidos e testes completos de restauração.

A segurança digital deixou de ser um desafio apenas técnico. Trata-se de gestão, cultura e disciplina diária. As ferramentas estão disponíveis, mas a resiliência dependerá sempre da escolha consciente de aplicar fundamentos sólidos, adotar governança estruturada e manter a disciplina operacional como prática permanente.

Publicado em

DIRETRIZES ESSENCIAIS PARA REGULAR A INTELIGÊNCIA ARTIFICIAL NO BRASIL

O ano de 2024 marcou um ponto de virada: a regulação da Inteligência Artificial deixou de ser um debate distante e passou a integrar a agenda concreta de diversos países. A União Europeia aprovou o AI Act, estabelecendo um marco jurídico abrangente; os Estados Unidos editaram diretrizes rigorosas voltadas à segurança, transparência e uso responsável; a China intensificou normas de controle sobre algoritmos considerados sensíveis. Outros países, como Canadá, Reino Unido, Japão e Coreia do Sul, avançam com propostas próprias.

Diante desse movimento, o Brasil tem a possibilidade — e o dever — de formular uma lei que una soberania, inovação e proteção de direitos. Isso exige ir além da discussão política e adotar parâmetros técnicos sólidos, alinhados ao que já se pratica nas jurisdições mais avançadas. A regulação não deve apenas antecipar problemas, mas enfrentar impactos que já se manifestam, muitas vezes sem a percepção do usuário e sem um respaldo jurídico definido.

Uma lei eficaz sobre IA parte do reconhecimento de que a tecnologia reflete decisões humanas, dados de origem e contextos de aplicação. Por isso, alguns elementos merecem atenção especial.

1. Proporcionalidade na regulação
As exigências devem ser proporcionais ao risco da aplicação. Algoritmos para entretenimento não demandam o mesmo nível de controle que sistemas capazes de decidir sobre crédito, atendimento médico ou processos judiciais. A classificação por níveis de risco, já utilizada em legislações internacionais, evita tanto o excesso de burocracia quanto a ausência de regulamentação.

2. Transparência e explicabilidade
Usuários e empresas devem ser informados quando interagem com uma IA e compreender, em termos claros, os critérios que levaram a uma decisão automatizada. Não é necessário expor código-fonte, mas assegurar a chamada “explicabilidade algorítmica”, permitindo entender o raciocínio ou a lógica probabilística aplicada.

3. Qualidade e integridade dos dados
O desempenho de sistemas de IA depende da qualidade dos dados utilizados. Bases que contêm distorções raciais, socioeconômicas ou regionais tendem a reproduzir e ampliar essas desigualdades. Para mitigar esse risco, é essencial prever auditorias, mecanismos de validação e correção, além de políticas robustas de consentimento e privacidade, compatíveis com a LGPD e acordos internacionais.

4. Supervisão humana e responsabilização
Em aplicações que afetam diretamente a vida das pessoas, deve existir possibilidade de revisão ou intervenção humana. Essa prática, conhecida como human-in-the-loop, precisa ser garantida por lei, assim como a definição de responsabilidades em caso de falhas ou danos. A delimitação clara de deveres para desenvolvedores, fornecedores e operadores evita disputas judiciais prolongadas e a diluição da responsabilidade.

5. Integração internacional sem perder autonomia
A IA opera em escala global, o que exige compatibilidade mínima entre regras de diferentes países. É importante que a legislação brasileira permita diálogo técnico com padrões internacionais, preservando a autonomia regulatória, mas facilitando a atuação de empresas em múltiplas jurisdições.

O desafio está em encontrar um equilíbrio que permita inovação e, ao mesmo tempo, proteja direitos fundamentais. Mais do que limitar, a lei deve oferecer uma base segura para o desenvolvimento responsável.

Paralelamente, organizações públicas e privadas precisarão implementar estruturas internas de governança de IA, incluindo comitês de ética, processos de auditoria contínua e monitoramento de riscos. A convergência entre regras externas e práticas internas será determinante para consolidar a confiança no uso dessa tecnologia.

O avanço da Inteligência Artificial é inevitável. O que está em jogo é a forma como o país irá moldar essa transformação: de modo estruturado, seguro e transparente, ou deixando que decisões técnicas e jurídicas fiquem sempre um passo atrás do próprio desenvolvimento tecnológico.

Publicado em

UNIÃO EUROPEIA INICIA NOVA FASE DE REGRAS PARA INTELIGÊNCIA ARTIFICIAL

A partir do último sábado (2), entraram em vigor na União Europeia novas regras voltadas à transparência e à proteção de direitos autorais para sistemas de Inteligência Artificial de propósito geral, como assistentes virtuais e modelos de linguagem. As medidas preveem a obrigação de esclarecer o funcionamento dos modelos e informar quais dados foram utilizados em seu treinamento.

Outra exigência é a adoção de políticas específicas relacionadas a direitos autorais, atendendo a demandas de setores como o artístico e o jornalístico. Para sistemas classificados como de risco sistêmico, será necessária a realização de avaliações de risco e a elaboração de relatórios sobre incidentes.

Essas determinações fazem parte da implementação gradual da Lei de Inteligência Artificial da União Europeia, aprovada no ano passado. Na etapa inicial, já havia sido proibido o desenvolvimento e uso de tecnologias consideradas de risco inaceitável, como sistemas de crédito social e reconhecimento emocional.

O início deste mês também marca a aplicação das penalidades previstas no texto legal. Multas para sistemas classificados como inaceitáveis podem chegar a 35 milhões de euros (cerca de 223 milhões de reais) ou 7% do faturamento global da empresa. Para os demais casos, o valor pode atingir 15 milhões de euros (aproximadamente 95 milhões de reais) ou 3% do faturamento mundial.

A norma europeia tem servido de referência para a elaboração do marco legal brasileiro sobre IA, atualmente em análise na Câmara dos Deputados.

No mês passado, foi publicado um código de práticas para orientar o setor no cumprimento das exigências legais. Dividido em três capítulos, o documento estabelece compromissos em áreas como transparência, direitos autorais e segurança. Embora de adesão voluntária, já conta com a participação de 26 empresas do setor, incluindo alguns dos principais desenvolvedores globais de tecnologia.

Publicado em

GOOGLE AI EDGE GALLERY: UMA NOVA FORMA DE UTILIZAR MODELOS DE IA SEM CONEXÃO COM A INTERNET

A integração da inteligência artificial ao uso cotidiano tem dado um passo importante com o desenvolvimento do Google AI Edge Gallery. Trata-se de um aplicativo que permite aos usuários explorar modelos avançados de IA diretamente em seus dispositivos móveis, sem depender de servidores externos ou conexão constante com a internet.

Ao contrário das soluções tradicionais baseadas na nuvem, o Google AI Edge Gallery possibilita o download e execução local de modelos generativos, oferecendo maior autonomia e controle sobre os dados. Isso significa que funcionalidades como geração de imagens, interação com chatbots ou respostas automatizadas podem ser executadas no próprio smartphone, com mais privacidade e sem a necessidade de enviar informações para fora do aparelho.

A instalação e o funcionamento do aplicativo são baseados em uma proposta prática: o usuário acessa os modelos disponíveis por meio da plataforma Hugging Face, que reúne projetos como Qwen 2.5 e Gemma 3n. Esses modelos oferecem capacidades variadas, como responder perguntas, sintetizar textos e criar imagens a partir de comandos.

No entanto, vale destacar que, por serem tecnologias exigentes, o desempenho do aplicativo depende diretamente das especificações do aparelho. Smartphones mais modernos e com melhor capacidade de processamento tendem a oferecer uma experiência mais fluida.

Entre os benefícios de rodar modelos de IA localmente, dois pontos merecem destaque. O primeiro é a proteção da privacidade, já que não há necessidade de envio de dados para servidores. O segundo é a autonomia de uso, permitindo que o recurso funcione mesmo sem acesso à internet. Isso amplia o alcance da tecnologia, tornando-a mais acessível a usuários em diferentes contextos e localidades.

Atualmente, o Google AI Edge Gallery está disponível em fase de testes (Alpha), podendo ser instalado via pacote APK por meio do GitHub. Para isso, o usuário precisa permitir a instalação de aplicativos de fontes externas nas configurações do aparelho Android. Segundo o Google, uma versão para iOS também está em desenvolvimento.

Essa iniciativa representa um movimento interessante em direção à descentralização da inteligência artificial, com foco em uso prático, privacidade e acessibilidade. À medida que novos modelos forem incorporados à plataforma, o aplicativo tende a se consolidar como uma ferramenta útil para quem deseja experimentar IA de forma simples e segura, diretamente no próprio celular.