Publicado em

GOVERNANÇA DE IA: O QUE FALTA PARA AS EMPRESAS USAREM ESSA TECNOLOGIA COM SEGURANÇA?

A maturidade da governança de Inteligência Artificial (IA) ainda é incipiente no mundo corporativo. Segundo o estudo “State of AI Application Strategy 2025”, apenas 2% das empresas analisadas alcançaram um modelo de governança considerado pleno para o uso da IA. Outros 21% foram classificados como pouco preparados, indicando um caminho ainda longo para estruturas organizadas de uso ético, seguro e estratégico dessa tecnologia.

A implementação da LGPD trouxe consigo a figura do Encarregado de Proteção de Dados (DPO), mas isso não significou, necessariamente, o avanço automático da governança de dados nas organizações. Enquanto grandes empresas estruturam internamente suas estratégias com profissionais dedicados, o segmento de pequenas e médias empresas frequentemente recorre a serviços terceirizados de DPO, muitas vezes vinculados a empresas que também atuam com segurança da informação. Esse modelo, embora viável, limita a profundidade e abrangência das ações de governança, principalmente diante das novas exigências trazidas pela IA.

A realidade é que a IA demanda uma abordagem mais ampla e especializada. A estruturação de políticas voltadas exclusivamente aos dados estruturados já não é suficiente. As organizações precisam lidar com fluxos intensos de dados não estruturados, que não apenas alimentam sistemas baseados em IA, mas também são responsáveis por gerar novas camadas de dados. Essa dinâmica exige mecanismos de rotulagem, classificação e descoberta em larga escala, muitas vezes em tempo real, como nas soluções baseadas em RAG (retrieval-augmented generation), que permitem a implementação de políticas de governança diretamente nos fluxos entre modelos de linguagem.

Neste contexto, o papel do Chief Data Officer (CDO) ganha relevância. Esse profissional tem a missão de integrar a gestão de dados às estratégias corporativas, promovendo conselhos de governança multifuncionais e conectando os indicadores de desempenho dos negócios às métricas de conformidade e ética no uso de dados. Contudo, apenas 24% das empresas ouvidas no estudo realizam a rotulagem contínua dos dados utilizados em aplicações de IA – etapa fundamental para uma governança estruturada. As demais operam com transparência reduzida, o que implica riscos tanto de exposição indevida quanto de ataques cibernéticos.

Outro desafio apontado é a adoção da multicloud. Embora seja cada vez mais comum que empresas operem com múltiplas nuvens públicas – com média de quatro ambientes distintos – essa prática amplia a complexidade da gestão de dados e segurança. A multiplicidade de regras, modelos de cobrança e políticas de proteção em cada provedor requer não apenas ferramentas robustas, mas uma estratégia de orquestração unificada. Muitas empresas, ao mesmo tempo que migram aplicações para ambientes privados ou colocation, continuam a contratar novas soluções em nuvens públicas, o que torna a visibilidade e o controle ainda mais desafiadores.

Soluções que centralizam a gestão de segurança distribuída vêm sendo adotadas para mitigar esses riscos. A ideia é aplicar, de um ponto único, regras que se estendam a todas as nuvens envolvidas, com uso de análise comportamental, machine learning e IA. Essa abordagem permite controle granular, independentemente da infraestrutura utilizada.

No aspecto da proteção da IA em si, a segurança vai além da camada tradicional de rede. Os firewalls clássicos perdem efetividade diante da complexidade semântica dos dados manipulados por modelos de linguagem. Soluções mais modernas operam em camadas superiores, como a de aplicações e APIs, e incorporam filtros semânticos, capazes de avaliar o contexto e o conteúdo que transita entre os usuários e as IAs públicas ou privadas. Esses mecanismos são úteis tanto para controlar o que pode ser enviado a um sistema como o ChatGPT, quanto para garantir que as respostas geradas respeitem critérios de privacidade e integridade definidos pelas regras de negócio da própria empresa.

Esse tipo de proteção torna-se essencial em um momento em que as organizações utilizam massivamente IAs públicas, mesmo quando estão desenvolvendo soluções internas. O controle sobre esse fluxo de informações deve ser refinado e contextualizado, evitando que dados confidenciais sejam inadvertidamente compartilhados ou que interações com clientes e investidores violem diretrizes internas.

A governança da IA, portanto, não se resume à conformidade legal. Trata-se de uma camada estratégica de gestão de riscos, ética e performance, que exige profissionais qualificados, processos bem definidos e soluções tecnológicas adaptadas a um ambiente de dados cada vez mais complexo.

Publicado em

ANPD PROPÕE MODELO INSTITUCIONAL PARA REGULAÇÃO DA INTELIGÊNCIA ARTIFICIAL NO BRASIL

A Autoridade Nacional de Proteção de Dados (ANPD) anunciou hoje, 24 de outubro, sua segunda análise (Nota Técnica nº 16/2023/CGTP/ANPD) referente ao Projeto de Lei nº 2338/2023, que trata da regulamentação do uso de inteligência artificial (IA) no Brasil. Este documento apresenta contribuições significativas para a modificação do projeto de lei, propõe um novo modelo institucional, destaca sete áreas cruciais de intersecção entre o projeto de lei e a Lei Geral de Proteção de Dados Pessoais (LGPD) e faz uma comparação com as práticas regulatórias de autoridades internacionais.

A análise da ANPD propõe a criação de um modelo institucional para a regulamentação de sistemas de IA composto por quatro instâncias complementares, com a Autoridade Nacional desempenhando o papel central na regulamentação desse tema. O modelo sugerido pela ANPD inclui uma atuação coordenada entre órgãos do Poder Executivo, órgãos reguladores setoriais, bem como a criação de um Conselho Consultivo, semelhante ao Conselho Nacional de Proteção de Dados e da Privacidade (CNPD), destinado exclusivamente à regulamentação do uso de IA no país.

Conforme indicado no documento, experiências internacionais demonstram que uma abordagem centralizada, sob a égide de uma única autoridade, oferece benefícios indiscutíveis na formulação de normas, como evidenciado nas experiências da União Europeia, França, Holanda e outros países.

Além disso, o documento realça a proposta de que a competência para elaborar, gerenciar, atualizar e implementar a Estratégia Brasileira de Inteligência Artificial (EBIA) seja atribuída ao Poder Executivo, em vez da autoridade competente, como previsto na redação atual do projeto de lei. De acordo com a nota técnica, a ANPD terá a responsabilidade de contribuir, no âmbito de suas atribuições, para o processo de elaboração e implementação da EBIA.

Durante uma audiência pública realizada no Senado Federal, na Comissão Temporária Interna sobre Inteligência Artificial no Brasil, a Diretora Miriam Wimmer defendeu a ideia de uma autoridade central com uma abordagem regulatória mais centralizada, que atue como uma fonte clara e consistente de orientação para todos os setores e partes envolvidas, eliminando ambiguidades e interpretações divergentes que podem resultar em incertezas legais. A Diretora destacou a capacidade da ANPD de adotar uma abordagem transversal e enfatizou que qualquer expansão de competências depende do fortalecimento institucional da ANPD, incluindo independência técnica, autonomia administrativa e decisória, de acordo com o modelo das agências reguladoras previsto na lei das agências.

Miriam também mencionou a criação de um Fórum de Órgãos Reguladores Setoriais, com o objetivo de facilitar a colaboração entre a autoridade central e os órgãos reguladores setoriais na regulamentação do tema.

A nota técnica propõe alterações legislativas nos artigos 32 a 35 do Capítulo VIII do Projeto de Lei nº 2338, que trata da supervisão e fiscalização. No entanto, ressalta que outras modificações podem ser necessárias e que a ANPD está à disposição do Congresso Nacional para discutir as propostas sugeridas.

A contribuição da ANPD tem como objetivo enfatizar o papel ativo da Autoridade no debate sobre a regulamentação da IA e garantir que a futura lei esteja em conformidade com os princípios e diretrizes estabelecidos pela LGPD.

Publicado em

ESTRATÉGIA SEM LIMITES: JAPÃO ROMPE COM DIREITOS AUTORAIS EM PROL DA IA COMPETITIVA

O atributo alt desta imagem está vazio. O nome do arquivo é image.png

Em um movimento surpreendente, o governo do Japão recentemente reafirmou que não irá impor direitos autorais aos dados utilizados no treinamento de inteligência artificial (IA). A nova política permite que a IA utilize qualquer tipo de dado, “independentemente de ser para fins sem fins lucrativos ou comerciais, independentemente de ser um ato que não seja de reprodução, ou se é conteúdo obtido de sites ilegais ou não.” Keiko Nagaoka, Ministra Japonesa da Educação, Cultura, Esportes, Ciência e Tecnologia, confirmou essa postura audaciosa em uma reunião local, afirmando que as leis japonesas não protegerão materiais protegidos por direitos autorais utilizados em conjuntos de dados de IA.

Japão, IA e Direitos Autorais A cobertura em inglês sobre essa situação é limitada. Parece que o governo japonês acredita que preocupações com direitos autorais, especialmente relacionadas a animes e outras mídias visuais, têm limitado o progresso da nação na área de tecnologia de IA. Em resposta, o Japão está adotando uma abordagem sem direitos autorais para permanecer competitivo.

Essa notícia é parte do ambicioso plano do Japão para se tornar líder em tecnologia de IA. A Rapidus, uma empresa de tecnologia local conhecida por sua avançada tecnologia de chips de 2nm, está ganhando destaque como uma séria concorrente no mundo dos chips de IA. Com a situação política de Taiwan parecendo instável, a fabricação de chips japoneses pode se tornar uma aposta mais segura. Além disso, o Japão está se destacando para ajudar a moldar as regras globais para sistemas de IA dentro do G-7.

Artistas vs. Negócios (Artistas em Desvantagem) No entanto, nem todos no Japão concordam com essa decisão. Muitos criadores de animes e arte gráfica estão preocupados que a IA possa diminuir o valor de seus trabalhos. Em contrapartida, os setores acadêmico e empresarial estão pressionando o governo a aproveitar as leis de dados flexíveis do país para impulsionar o Japão à dominação global em IA.

Apesar de ter a terceira maior economia do mundo, o crescimento econômico do Japão tem sido lento desde a década de 1990. O Japão possui a menor renda per capita do G-7. Com a implementação eficaz da IA, o país poderia potencialmente aumentar seu PIB em 50% ou mais em pouco tempo. Para o Japão, que enfrenta anos de baixo crescimento, essa é uma perspectiva empolgante.

É Tudo Sobre os Dados O acesso aos dados ocidentais também é fundamental para as ambições de IA do Japão. Quanto mais dados de treinamento de alta qualidade estiverem disponíveis, melhor será o modelo de IA. Embora o Japão possua uma longa tradição literária, a quantidade de dados de treinamento em língua japonesa é significativamente menor em comparação aos recursos de língua inglesa disponíveis no Ocidente. No entanto, o Japão possui um tesouro de conteúdo de animes, que é popular globalmente. Parece que a posição do Japão é clara – se o Ocidente usa a cultura japonesa para treinamento de IA, os recursos literários ocidentais também devem estar disponíveis para a IA japonesa.

O Que Isso Significa Para o Mundo Em escala global, a decisão do Japão adiciona um novo ângulo ao debate sobre regulamentação. As discussões atuais têm se concentrado em um cenário de “nação rebelde”, onde um país menos desenvolvido pode ignorar um quadro global para obter vantagem. No entanto, com o Japão, vemos uma dinâmica diferente. A terceira maior economia do mundo está dizendo que não vai impedir a pesquisa e o desenvolvimento de IA. Além disso, está preparada para aproveitar essa nova tecnologia para competir diretamente com o Ocidente.