Publicado em

LGPD EM EVOLUÇÃO: COMO TRANSFORMAR CONFORMIDADE EM VANTAGEM COMPETITIVA

O que esperar dos próximos capítulos da LGPD no Brasil

Quando entrou em vigor, a Lei Geral de Proteção de Dados foi vista com desconfiança. Muitos trataram o tema como mera formalidade: multiplicaram-se checklists, políticas padrão e projetos voltados apenas a evitar penalidades. Essa fase foi importante, mas limitada. Serviu como aprendizado inicial de que privacidade não se reduz a papelada — ela integra a estratégia de negócios.

Passados sete anos, a realidade brasileira é outra. O amadurecimento trouxe a percepção de que dados não são apenas registros administrativos. Representam ativos valiosos que podem gerar inovação e competitividade, mas também riscos severos quando mal administrados.

O dado como valor e como risco

Na economia digital, informações pessoais podem fortalecer reputações e impulsionar crescimento. Ao mesmo tempo, se tratadas de forma inadequada, convertem-se em passivos difíceis de controlar. O Brasil já está entre os países mais visados por ataques cibernéticos, e os números recentes de atividades maliciosas mostram que vazamentos e incidentes de segurança deixaram de ser exceções para se tornarem rotina.

Isso reforça a necessidade de aproximar privacidade e cibersegurança. Hoje não basta ter documentos formais. É preciso demonstrar resiliência: capacidade de resposta a incidentes, métricas de conformidade, processos de monitoramento e governança que se sustentem no dia a dia.

O despertar do mercado

Empresas e conselhos de administração passaram a exigir objetividade. Não interessa ouvir que a organização “está adequada”. As perguntas agora são concretas: qual o tempo médio de resposta a incidentes? Onde está registrada a base legal de cada tratamento? Qual o custo do risco associado a determinado projeto?

Nesse contexto, o papel do encarregado de dados ganha centralidade. Ele deixa de ser apenas intérprete da lei e assume funções de articulador cultural, de ponte entre jurídico, tecnologia e estratégia. Da mesma forma, terceiros e parceiros comerciais passam a ser monitorados como parte integrante do ecossistema corporativo.

Inteligência artificial: parceira ou risco adicional?

Ferramentas de inteligência artificial já fazem parte do cotidiano de muitas empresas. Mas ainda há incerteza sobre até onde é seguro compartilhar informações com essas tecnologias, especialmente diante da ausência de normas específicas no Brasil. Enquanto algumas organizações bloqueiam totalmente o uso, outras adotam políticas intermediárias ou liberam sem critérios claros.

Esse descompasso evidencia um desafio: não há como escalar inovação sem regras de transparência, supervisão humana e base legal consistente. O projeto de lei que busca regular a IA no Brasil promete trazer parâmetros semelhantes ao modelo europeu, colocando os riscos e a proteção da pessoa no centro das discussões.

A etapa da maturidade

A LGPD deixou de ser interpretada apenas como uma lista de restrições. Tornou-se um guia sobre como implementar processos de forma correta, transparente e sustentável. O investimento em privacidade e proteção de dados passou a ser visto como fundamento de confiança e não apenas como custo regulatório.

Em um ambiente global cada vez mais competitivo, a capacidade de proteger informações é também a capacidade de permanecer relevante no mercado. O desafio que se coloca às organizações brasileiras não é apenas cumprir a lei, mas transformar privacidade e segurança em diferenciais estratégicos.

A questão essencial agora é: sua empresa está pronta para disputar espaço em um mercado em que a confiança é o maior ativo?

Publicado em

NOVA INTELIGÊNCIA ARTIFICIAL INTEGRA COMPLIANCE, PROPÓSITO E VALIDAÇÃO EM AMBIENTES EMPRESARIAIS

Está prevista para agosto de 2025 a chegada ao mercado de uma inteligência artificial corporativa desenvolvida no Brasil, com proposta técnica centrada na prevenção de riscos reputacionais, violações de compliance e falhas de integridade em campanhas digitais. A ferramenta será apresentada oficialmente durante um evento nacional voltado à inovação e à sustentabilidade, com a presença de representantes de grandes empresas do setor de bens de consumo.

A arquitetura da IA foi construída com o objetivo de superar padrões problemáticos observados em sistemas tradicionais, como respostas aduladoras, omissões deliberadas, procrastinação lógica e ausência de mecanismos rastreáveis de controle. Em contraposição a esse modelo, a nova proposta traz uma estrutura programada para funcionar com base em códigos éticos modulares, validações sucessivas e ciclos de feedback que integram elementos como escuta ativa e silêncio deliberado.

Diferentemente de modelos que operam com base probabilística, essa inteligência foi desenhada para atuar a partir de um propósito estruturado, alinhado a um protocolo de autoajuste que visa garantir confiabilidade e auditabilidade em cada decisão. O sistema também adota um motor interno de compliance, responsável por assegurar que nenhuma ação ocorra sem que haja clareza sobre a finalidade, documentação completa e aderência aos princípios que regem a aplicação da tecnologia.

Entre os principais componentes da ferramenta, destacam-se os mecanismos de microchecagem de intenção, que analisam a consistência de comandos antes da execução, e os rituais programados de verificação, que sustentam o compromisso com a responsabilidade técnica e institucional. Todo o processo é passível de auditoria, permitindo rastrear decisões e corrigir desvios, o que reduz significativamente a possibilidade de falhas operacionais ou éticas.

A proposta se mostra especialmente adequada para ambientes empresariais sujeitos a normativas rigorosas, nos quais falhas comunicacionais ou operacionais podem gerar impactos jurídicos e financeiros expressivos. O sistema será licenciado para empresas, entidades públicas e equipes técnicas que desejem integrar a inteligência artificial ao cotidiano de forma segura, respeitosa e alinhada a valores institucionais.

No campo das aplicações práticas, a tecnologia atua na automatização de tarefas, personalização de conteúdos, análise de dados para tomada de decisão, geração de materiais de comunicação e monitoramento de conformidade regulatória. Sua base técnica contempla ainda o acompanhamento de mudanças legais e a implementação de padrões de governança voltados ao uso responsável de dados em campanhas publicitárias e operações digitais.

A proposta central é demonstrar que é possível inovar com responsabilidade, protegendo ativos intangíveis das organizações como reputação, coerência institucional e a confiança do público. O sistema foi concebido a partir da sistematização de falhas observadas no mercado, registradas e transformadas em diretrizes de desenvolvimento. Não se apresenta como uma promessa abstrata, mas como uma resposta técnica às limitações já identificadas na aplicação de inteligências artificiais em contextos sensíveis.

Publicado em

INTELIGÊNCIA ARTIFICIAL GENERATIVA COMO ATIVO ESTRATÉGICO NO SETOR FINANCEIRO

A Inteligência Artificial Generativa (GenAI) alcançou um novo patamar no setor financeiro brasileiro. A fase de experimentação controlada, antes limitada a testes pontuais e ambientes laboratoriais, começa a dar lugar à aplicação prática em escala. Essa transição reflete um amadurecimento no entendimento da tecnologia como elemento estruturante dos processos de negócios – e não mais como uma simples inovação promissora.

Dados de 2024 revelam que uma parte expressiva das instituições bancárias já implementou, de forma concreta, ao menos uma aplicação da GenAI em sua operação. Trata-se de um movimento que altera não apenas a dinâmica interna dos bancos, mas também seu posicionamento competitivo. Processos operacionais, relacionamento com clientes, análise de dados e tomada de decisão passam a contar com recursos mais sofisticados, abrindo caminho para uma nova forma de operar.

Contudo, o avanço não pode prescindir de direção estratégica. A introdução da GenAI requer planejamento articulado entre áreas diversas – da liderança executiva à tecnologia da informação, passando por compliance, jurídico e instâncias de controle. A responsabilidade por sua governança não pode mais ser restrita aos profissionais técnicos. Cabe à alta administração participar ativamente do processo, com foco em gestão de riscos, transparência e controle.

A supervisão eficiente da tecnologia passa por identificar e acompanhar os temas sensíveis relacionados ao seu uso. Questões como viés algorítmico, confiabilidade, impacto ambiental, direitos autorais e autoria de conteúdo precisam ser avaliadas de forma sistemática. Para isso, recomenda-se o uso de matrizes de risco e estruturas que permitam graduar o nível de controle conforme a complexidade e os impactos de cada aplicação.

Além disso, a adoção da GenAI exige uma abordagem centrada na solução de problemas concretos. O uso indiscriminado, guiado apenas por entusiasmo tecnológico, tende a produzir resultados superficiais. É fundamental que cada iniciativa tenha objetivos bem definidos, critérios de mensuração e capacidade de adaptação a partir dos aprendizados acumulados.

Outro ponto de atenção está na integração com os sistemas legados. O setor financeiro, por suas características históricas, opera com plataformas robustas e, muitas vezes, antigas. A incorporação de tecnologias baseadas em GenAI requer uma arquitetura de transição segura, que mantenha a estabilidade dos sistemas ao mesmo tempo em que permite a modernização contínua.

Neste contexto, ganha força a visão da GenAI como um produto dentro da organização. Isso significa tratá-la com planejamento, projeção de retorno sobre investimento e alinhamento com os objetivos estratégicos do negócio. Os projetos mais eficazes são aqueles que priorizam aplicações com alto potencial transformador e que mantêm a flexibilidade para ajustes ao longo do tempo.

A tendência aponta, ainda, para o avanço de modelos multimodais, capazes de operar com linguagem, imagem, som e vídeo. Essa ampliação das capacidades abre novos caminhos para uso em serviços, análise de dados não estruturados e automação de tarefas complexas. A convergência com a robótica inteligente começa a despontar como uma etapa seguinte nessa trajetória.

No centro desse movimento, os chamados agentes de IA começam a ocupar um papel mais relevante, com a promessa de expandir as possibilidades de uso. No entanto, o discernimento sobre sua aplicação permanece essencial. A GenAI não substitui a análise humana. Seu valor está em potencializar a capacidade de julgamento, sem eliminar o papel do profissional, cuja atuação ética, contextual e crítica segue sendo indispensável.

Para as instituições financeiras, torna-se cada vez mais evidente que a GenAI já compõe o presente da operação bancária. Mais do que uma vantagem tecnológica, sua adoção estruturada pode representar um diferencial competitivo e um caminho sólido para a perenidade dos negócios. Ignorar essa transformação não apenas limita o crescimento, como coloca em risco a própria relevância no mercado.

Perguntar ao ChatGPT

Publicado em

O QUE VOCÊ PRECISA SABER PARA EVITAR ERROS COM A TECNOLOGIA E PROTEGER O SEU NEGÓCIO

Nos dias atuais, em que a tecnologia está cada vez mais presente no cotidiano das empresas, proteger as informações deixou de ser apenas uma medida técnica para se tornar uma parte essencial da estratégia de qualquer organização. A Inteligência Artificial, que tem sido amplamente adotada para facilitar processos, também introduz novos desafios que precisam ser enfrentados com atenção e responsabilidade.

Ao mesmo tempo em que a IA traz agilidade e recursos para identificar ameaças de forma mais rápida, ela também pode abrir portas para riscos antes inexistentes. Por isso, é importante tratá-la como uma ferramenta que exige uso cuidadoso e consciente. Um dos pontos mais relevantes nessa conversa é o comportamento das pessoas dentro das empresas. A maioria dos incidentes de segurança está ligada a falhas humanas. Isso reforça a importância de investir em ações que envolvam os colaboradores de forma direta.

Muitas empresas ainda não perceberam o quanto a IA pode contribuir para melhorar o engajamento em práticas seguras. Com a ajuda dela, é possível adaptar treinamentos de acordo com o perfil de cada colaborador, melhorar a forma como as mensagens sobre segurança são transmitidas e até identificar áreas que precisam de mais atenção, com base em dados concretos.

Há, no entanto, obstáculos comuns: resistência a mudanças, dificuldade em equilibrar inovação com proteção de dados e a administração de sistemas cada vez mais integrados. Superar esses desafios exige organização e clareza nos objetivos. Algumas medidas que têm mostrado bons resultados envolvem traçar metas claras, investir em comunicação interna, testar novas ideias com pequenos grupos, escolher prioridades e manter um processo constante de avaliação e melhoria.

Um bom exemplo disso é quando o responsável pela área de segurança consegue reunir dados de diversos setores da empresa para oferecer análises de risco mais precisas e sugerir ações específicas. Essa prática contribui para decisões mais acertadas por parte da liderança.

É importante lembrar que a eficácia da IA depende da qualidade dos dados utilizados. Manter os registros organizados e atualizados é tão importante quanto usar ferramentas modernas. Também é necessário observar os riscos que vêm junto com a adoção da IA. Nem tudo que é novo está isento de falhas. Saber avaliar, aplicar controles e estar sempre por dentro das novidades ajuda a evitar problemas maiores.

Colocar os colaboradores no centro dessa transformação faz toda a diferença. Informar de forma clara, oferecer treinamentos constantes e reconhecer os bons resultados ajudam a criar uma cultura sólida de proteção. Em um mundo cada vez mais conectado, cuidar bem das informações é proteger o negócio como um todo — e usar a tecnologia com sabedoria é parte fundamental disso.

Publicado em

LGPD EM 2025: QUANDO A PROTEÇÃO DE DADOS SE TORNA PARTE DA ROTINA DOS NEGÓCIOS

Chegamos a um momento em que a proteção de dados deixou de ser um tema restrito ao departamento jurídico ou à área de tecnologia. Em 2025, a LGPD começa a ocupar um espaço mais orgânico nas rotinas das empresas, sendo percebida não apenas como uma obrigação legal, mas como um valor que fortalece a relação entre empresas e pessoas.

A Autoridade Nacional de Proteção de Dados (ANPD) já atua de forma mais firme e estruturada, trazendo um olhar atento para setores que lidam diretamente com dados sensíveis, como a área da saúde, os serviços financeiros e o mercado de tecnologia. Não se trata mais de ter documentos formais apenas para cumprir um protocolo; o que se espera agora é a demonstração prática de que a proteção dos dados faz parte das escolhas diárias da empresa.

Investir em segurança da informação, realizar análises sobre o impacto do uso de dados e criar uma cultura de responsabilidade interna são medidas que passaram a ser vistas como naturais, especialmente por aquelas empresas que compreendem a privacidade como um elemento essencial para manter a confiança de seus clientes e parceiros.

Por outro lado, a tecnologia avança a passos largos, e com ela surgem novos desafios. A inteligência artificial, por exemplo, já faz parte de muitas soluções que utilizamos no dia a dia, mas seu uso exige cuidado. Os algoritmos precisam ser mais transparentes, e as empresas, mais dispostas a explicar como as decisões automatizadas podem afetar a vida das pessoas. Esse é um tema que a própria ANPD tem buscado regulamentar, o que mostra uma preocupação legítima com a proteção dos direitos dos cidadãos.

As pequenas e médias empresas ainda enfrentam algumas dificuldades para atender às exigências da lei, e é natural que seja assim. Muitas vezes, faltam recursos ou orientação técnica adequada. No entanto, esse movimento de adequação tende a ganhar força com o apoio de soluções mais simples e acessíveis, desenvolvidas justamente para ajudar esse público a se adaptar sem comprometer o orçamento.

Além disso, novas formas de interação digital — como o metaverso, os dispositivos conectados à internet e o uso crescente de criptomoedas — trazem questões importantes sobre privacidade. Esses temas estão ganhando espaço nas conversas de quem pensa o futuro dos negócios. Cada vez mais, será necessário incluir a proteção de dados desde o início dos projetos, de forma que a preocupação com a privacidade acompanhe o desenvolvimento de novos produtos e serviços.

O mais interessante de tudo isso é perceber que os próprios consumidores estão mais atentos e informados. Hoje, as pessoas sabem o valor que seus dados têm e exigem que esse valor seja respeitado. As empresas que souberem conduzir essa relação com transparência e honestidade terão mais chances de criar vínculos duradouros e de fortalecer sua imagem no mercado.

Por fim, é importante lembrar que a proteção de dados é uma forma de demonstrar respeito pelas pessoas. E, nesse sentido, o Brasil tem a chance de se destacar internacionalmente, harmonizando suas regras com as melhores práticas já adotadas em outros países e atraindo investimentos que reconheçam esse compromisso.

A forma como cada empresa escolhe lidar com a privacidade será, um reflexo da sua visão de futuro e da sua responsabilidade social. E, diante de tudo isso, cabe uma reflexão simples, mas necessária: estamos, de fato, preparados para lidar com esse novo momento com a seriedade que ele exige?

Publicado em

NOVAS REGRAS PARA INTELIGÊNCIA ARTIFICIAL: COMO A REGULAMENTAÇÃO AFETA O USO EMPRESARIAL?

Nos últimos anos, a rápida evolução da Inteligência Artificial (IA) tem impulsionado a transformação digital em diversos setores, trazendo inovação, eficiência e novos modelos de negócios. Entretanto, o uso dessa tecnologia também levanta preocupações sobre privacidade, segurança de dados, discriminação algorítmica e responsabilidade jurídica, o que tem motivado a criação de regulamentações específicas em diversas partes do mundo.

As novas diretrizes sobre IA, como o Regulamento Europeu de Inteligência Artificial (AI Act) e iniciativas regulatórias em outras jurisdições, buscam estabelecer parâmetros claros para o desenvolvimento e a utilização ética dessas tecnologias. O objetivo não é limitar a inovação, mas garantir que os sistemas de IA sejam transparentes, seguros e respeitem os direitos fundamentais.

Dentre os principais pontos dessas regulamentações, destacam-se:

  1. Classificação de Riscos: Os sistemas de IA passam a ser categorizados conforme o grau de risco que apresentam à sociedade. Aplicações de “alto risco”, como aquelas utilizadas em decisões de crédito, recrutamento e sistemas de vigilância, estarão sujeitas a controles mais rigorosos.
  2. Transparência e Responsabilidade: Empresas que utilizam IA precisarão adotar práticas que garantam maior transparência na operação dos algoritmos, informando claramente quando o usuário está interagindo com uma máquina e como os dados estão sendo utilizados.
  3. Proteção de Dados e Privacidade: As novas regulamentações reforçam a importância de conformidade com legislações de proteção de dados, como a LGPD no Brasil e o GDPR na Europa, especialmente no que diz respeito à coleta, armazenamento e tratamento de informações pessoais.
  4. Supervisão e Auditoria: O monitoramento contínuo dos sistemas de IA se torna obrigatório em determinados setores, com exigências de auditorias regulares para evitar vieses indevidos e garantir a segurança e a confiabilidade das soluções.

Para as empresas, adaptar-se a essas exigências implica revisar processos internos, investir em treinamento de equipes e, muitas vezes, reestruturar soluções tecnológicas. O alinhamento com as novas normas não apenas mitiga riscos legais, mas também fortalece a confiança do público e dos parceiros comerciais no uso responsável da IA.

Dessa forma, a regulamentação da Inteligência Artificial representa uma etapa natural no processo de amadurecimento dessa tecnologia. Empresas que adotarem práticas transparentes e éticas não apenas atenderão aos requisitos legais, mas também estarão mais preparadas para explorar as oportunidades que a IA oferece de maneira sustentável e responsável.

Publicado em

DEEPFAKES E PRIVACIDADE: QUANDO A TECNOLOGIA INVADE O DIREITO DE IMAGEM

Recentemente, um caso viral nas redes sociais chamou a atenção para os riscos do uso de deepfakes e a importância de zelar pela privacidade e segurança online. Tudo começou quando uma internauta descobriu que uma marca havia usado inteligência artificial para recriar seu rosto e promover produtos, sem o consentimento dela. O vídeo em que ela compartilha essa experiência já conta com milhões de visualizações e levantou debates sobre os perigos e a ética do uso da IA.

Deepfakes, que são vídeos e imagens criados ou alterados com IA para parecerem reais, trazem um desafio inédito. A legislação brasileira protege o direito de imagem como um direito fundamental, o que significa que o uso da imagem de uma pessoa sem sua autorização pode, sim, resultar em penalidades legais e até ações por danos morais, principalmente se a imagem for usada de forma que deturpe a identidade ou os valores da pessoa envolvida.

Além disso, o uso de deepfakes em campanhas publicitárias pode confundir o público, dando a entender que a pessoa está associada à marca ou apoia o produto, o que pode ser visto como publicidade enganosa e falsidade ideológica. Para evitar esse tipo de problema, as empresas devem agir com muito cuidado ao usarem IA em estratégias de marketing.

A IA processa e aprende com grandes volumes de dados, o que, em algumas situações, pode levar à utilização de elementos protegidos por direitos de outras pessoas. É fundamental que as marcas estejam atentas e façam uma verificação cuidadosa para garantir que o uso de inteligência artificial seja seguro e ético, respeitando os direitos das pessoas. Monitorar o uso dessas tecnologias e contar com especialistas em proteção de dados são passos essenciais para que o uso de IA esteja alinhado com a legislação e com os valores da empresa.

Inovar e usar a tecnologia de forma responsável, respeitando as pessoas e garantindo que a experiência do cliente seja positiva e de confiança.

Publicado em

O CAMINHO DA IA SOB A GUARDA DA LEGISLAÇÃO BRASILEIRA

A integração da inteligência artificial (IA) na sociedade traz consigo desafios significativos para a privacidade, liberdade e equidade, exigindo uma regulamentação cuidadosa para prevenir abusos. A Lei Geral de Proteção de Dados Pessoais (LGPD) do Brasil é um exemplo de como a legislação pode ser empregada para tutelar direitos fundamentais, impondo diretrizes claras sobre o tratamento de dados pessoais. Esta lei destaca o princípio da não discriminação e proíbe o uso de dados para fins ilícitos, estabelecendo um quadro ético para o uso de tecnologias de IA.

A correlação entre a IA e a proteção de dados é direta, visto que os sistemas de IA dependem do processamento de grandes volumes de dados para aprender e melhorar. Os modelos de IA, como os sistemas generativos, que podem criar conteúdo novo a partir de dados existentes, exemplificam a capacidade da IA de transformar e gerar novas informações. Este processo, contudo, não está isento de riscos, especialmente quando não regulamentado ou monitorado adequadamente.

Incidentes em que algoritmos de IA conduziram a práticas discriminatórias ilustram as potenciais falhas éticas e sociais dessas tecnologias. Tais casos evidenciam a necessidade de uma abordagem regulatória que assegure que a IA seja desenvolvida e aplicada de maneira justa e transparente. A LGPD aborda essa questão ao oferecer aos indivíduos o direito de revisar decisões automatizadas, promovendo a accountability e a intervenção humana nos processos decisórios automatizados.

A implementação de “sandboxes” regulatórios, supervisionados pela Autoridade Nacional de Proteção de Dados, representa uma iniciativa para fomentar a inovação responsável em IA. Estes ambientes permitem que novas tecnologias sejam exploradas de maneira controlada, equilibrando inovação com proteção de dados.

A tramitação de projetos de lei específicos para a regulamentação da IA no Brasil sinaliza um reconhecimento da importância de estabelecer princípios éticos e legais sólidos para orientar o desenvolvimento e uso da IA. Estes esforços legislativos enfatizam a transparência, a avaliação de riscos e a necessidade de proteger os direitos fundamentais frente ao avanço tecnológico.

A evolução da IA deve ser acompanhada por um diálogo contínuo entre desenvolvedores, legisladores, a sociedade civil e outros interessados. Essa abordagem colaborativa é vital para garantir que a IA seja utilizada de forma ética e responsável, respeitando os direitos fundamentais e promovendo uma sociedade mais justa e inclusiva. A regulamentação, como a LGPD e futuras legislações sobre IA, desempenha um papel importante em moldar um futuro em que a tecnologia e a ética caminham lado a lado.

Publicado em

INOVAÇÃO RESPONSÁVEL EM IA: ANPD CONVIDA A SOCIEDADE PARA CONSULTA SOBRE SANDBOX REGULATÓRIO

A Autoridade Nacional de Proteção de Dados (ANPD) iniciou uma consulta pública sobre seu programa piloto de sandbox regulatório, um ambiente controlado para testar tecnologias relacionadas à inteligência artificial (IA). A intenção é que, através das inovações testadas nesse ambiente, boas práticas possam ser implementadas para garantir conformidade com as normas de proteção de dados pessoais.

O programa piloto é parte de uma iniciativa mais ampla para lidar com as implicações da inteligência artificial e a proteção de dados. A ANPD busca promover a inovação responsável em IA e aumentar a transparência algorítmica.

Este projeto é baseado em um estudo técnico da ANPD, chamado “Sandbox regulatório de inteligência artificial e proteção de dados no Brasil”, que apresenta como os sandboxes regulatórios podem ser efetivamente utilizados por Autoridades de Proteção de Dados para regular tecnologias emergentes. A ANPD está colaborando com o Banco de Desenvolvimento da América Latina e do Caribe (CAF) nesse processo, compartilhando conhecimentos para o desenvolvimento desses ambientes regulatórios.

A consulta à sociedade, que está aberta até 1º de novembro de 2023, tem como objetivo coletar informações e dados relevantes para moldar o sandbox regulatório. Essa é uma maneira de incluir uma variedade de perspectivas e entender como a regulamentação futura pode afetar diferentes partes interessadas no contexto da inteligência artificial e proteção de dados. A transparência e a inclusão estão no centro deste processo, com todas as contribuições disponíveis para consulta.