Publicado em Deixe um comentário

COMO A INTELIGÊNCIA ARTIFICIAL ESTÁ REDEFININDO A GESTÃO DE RISCOS E CONFORMIDADE

A disseminação do uso da inteligência artificial tem se intensificado nas últimas décadas, impulsionada principalmente pelo aumento da capacidade de processamento e pela vasta quantidade de dados digitais gerados. Inicialmente, essa expansão se deu pela possibilidade de executar algoritmos de IA mais complexos, permitindo a análise de grandes volumes de dados provenientes de diversas fontes, como a internet, o comércio eletrônico e as redes sociais.

Um marco significativo foi a popularização dos chatbots, que simularam interações humanas utilizando linguagem natural. Esses avanços tornaram a IA mais acessível e útil, ampliando sua aplicação em diferentes segmentos.

Para os profissionais de Governança, Risco e Compliance (GRC), a questão principal é entender como a IA já está impactando o setor e como ela continuará a influenciar no futuro próximo. Consultando diversas plataformas de IA, como o ChatGPT, verificamos que a automação de tarefas repetitivas e manuais, como a coleta e análise de dados, é uma das principais contribuições da IA. Isso permite a análise rápida e precisa de grandes volumes de informações, identificação de padrões suspeitos, alerta sobre possíveis fraudes e indicação de riscos ou violações de conformidade.

Com o avanço da IA e do machine learning, espera-se que essas tecnologias possam prever riscos antes que eles se concretizem, utilizando dados históricos e em tempo real para identificar sinais de alerta precoce. Além disso, ferramentas de IA poderão ajustar automaticamente políticas e procedimentos de compliance em resposta a mudanças regulatórias, otimizando tempo e esforço para manter a conformidade.

A IA também se mostra promissora ao fornecer recomendações para a tomada de decisões em áreas de GRC, ajudando conselheiros e gestores a tomarem decisões mais bem fundamentadas. Consultando o Gemini, IA do Google, notamos que, além das vantagens já mencionadas, a IA pode monitorar leis e regulamentos, mantendo as empresas atualizadas com as mudanças constantes.

Por outro lado, o Microsoft Copilot destaca alguns desafios na implementação da IA no GRC, como a necessidade de uma governança de dados robusta para garantir a qualidade, integridade, privacidade e segurança dos dados utilizados. A segurança cibernética também se torna crucial, exigindo a colaboração com especialistas para proteger os sistemas de IA contra ameaças. Além disso, é essencial garantir que as decisões tomadas por IA sejam transparentes, justas e alinhadas aos valores e objetivos empresariais.

Outro ponto importante é o acompanhamento tecnológico. Profissionais de GRC devem estar atualizados com o ritmo das mudanças tecnológicas para garantir o uso responsável e eficaz da IA.

Esses pontos destacam como a IA está transformando o GRC, oferecendo novas oportunidades e apresentando desafios que precisam ser gerenciados com cuidado.

Publicado em Deixe um comentário

A APROVAÇÃO DA LEGISLAÇÃO SOBRE INTELIGÊNCIA ARTIFICIAL NA UNIÃO EUROPEIA

Recentemente, o Parlamento Europeu aprovou uma legislação destinada a regular o uso da inteligência artificial na União Europeia, marcando um momento histórico no cenário global. Essa é a primeira vez que uma legislação oficial para essa tecnologia é estabelecida em nível mundial, com o objetivo de proteger os direitos fundamentais da sociedade. Essa decisão pode influenciar outras regiões do mundo a seguirem iniciativas semelhantes.

Essa conquista pode ser comparada à aprovação do Regulamento Geral sobre a Proteção de Dados (GDPR) pela União Europeia em 2018, que serviu de inspiração para a criação de legislações semelhantes em outras partes do mundo. No Brasil, por exemplo, há uma crescente discussão sobre a regulamentação do uso da inteligência artificial, com diversos projetos de lei em tramitação no Congresso Nacional.

Para fornecer insights adicionais sobre este tema, especialistas respeitados no campo da privacidade e proteção de dados podem oferecer contribuições valiosas. Esse diálogo é essencial para entender as complexidades e implicações da regulamentação da inteligência artificial, especialmente à luz das experiências anteriores com legislações de proteção de dados.

Publicado em Deixe um comentário

MAPA DE TEMAS PRIORITÁRIOS DA ANPD: CONECTANDO-SE AOS DESAFIOS DA PROTEÇÃO DE DADOS

A Autoridade Nacional de Proteção de Dados (ANPD) divulgou a primeira edição do Mapa de Temas Prioritários (MTP), delineando as áreas de foco para estudos e planejamento das atividades de fiscalização nos próximos dois anos. Este documento não apenas estabelece prioridades, mas também visa beneficiar diretamente a sociedade, fortalecendo a governança e promovendo maior transparência e previsibilidade nas ações da ANPD.

O MTP identifica quatro eixos de ação que serão prioritários: direitos dos titulares; tratamento de dados pessoais de crianças e adolescentes no ambiente digital; inteligência artificial para reconhecimento facial e tratamento de dados pessoais; e raspagem de dados e agregadores de dados.

A escolha desses temas foi baseada em um levantamento conduzido pela Coordenação-Geral de Fiscalização (CGF), que considerou áreas no âmbito da proteção de dados propícias para estudo e fiscalização. Metodologias adicionais, como a análise de demandas passadas e o alinhamento com objetivos institucionais, foram empregadas para a seleção.

O MTP fornece detalhes sobre o processo decisório, objetivos a serem atingidos e atividades prioritárias em cada eixo. Além disso, apresenta um cronograma de execução e destaca a necessidade de interação com outros órgãos da Administração Pública, e possivelmente, com autoridades de proteção de dados de outros países.

Camila Falchetto Romero, Coordenadora-Geral de Fiscalização Substituta, destaca que essa ferramenta, aliada a outros instrumentos de governança da ANPD, orienta o direcionamento do órgão nos próximos dois anos, priorizando estudos e atividades de fiscalização em conformidade com a Lei Geral de Proteção de Dados Pessoais (LGPD).

Publicado em Deixe um comentário

DIREITOS E REGULAMENTAÇÃO NA ERA DA INTELIGÊNCIA ARTIFICIAL: UMA ANÁLISE DO PL 2.338/2023

Um dos temas que frequentemente suscita dúvidas e, por vezes, preocupações, é a contratação pela internet. Isso se deve à complexidade inerente aos negócios digitais, seus riscos e aos elementos ocultos por trás das transações eletrônicas. No entanto, é inegável que esses negócios fazem parte do nosso cotidiano e se tornaram inevitáveis. Contratos de consumo e contratos em geral alimentam uma infinidade de transações diárias, envolvendo compras e vendas, aluguéis, contratação de serviços e até mesmo novas maneiras de celebrar contratos tradicionais por meio eletrônico, com assinaturas digitais. Isso é facilitado pela recente Lei dos Cartórios (Lei 14.382/2022), conhecida como Lei do Sistema Eletrônico de Registros Públicos (SERP).

Nesse cenário, é importante notar que muitas dessas negociações não são assinadas por pessoas físicas em ambos os lados, mas sim por robôs com conhecimento e informações sobre a vida e dados da outra parte contratante. Diante disso, surgiu o Projeto de Lei 2.338/2023, com o objetivo de estabelecer normas gerais nacionais para o desenvolvimento, implementação e uso responsável de sistemas de Inteligência Artificial (IA) no Brasil. O propósito principal é proteger os direitos fundamentais e garantir a implementação de sistemas seguros e confiáveis em benefício das pessoas, da democracia e do desenvolvimento científico e tecnológico.

Este projeto de lei é notável em termos de qualidade e técnica, pois foi iniciado pelo Ato n.º 4/2022 do Presidente do Senado Federal, que nomeou uma Comissão de Juristas para elaborar uma minuta de substitutivo para outros projetos de lei relacionados à regulamentação da IA.

Neste texto, focaremos nos artigos 7º e 8º do projeto, que fazem parte da Seção II intitulada “Dos direitos associados à informação e compreensão das decisões tomadas por sistemas de Inteligência Artificial.” Esses artigos visam abordar a necessidade de fornecer informações claras e adequadas aos contratantes antes de celebrar contratos ou usar sistemas de IA. Estas informações devem incluir:

  1. O caráter automatizado das interações e decisões que afetam as pessoas.
  2. Uma descrição geral do sistema, tipos de decisões que ele pode tomar e suas consequências.
  3. A identificação dos operadores do sistema de IA e as medidas de governança adotadas no seu desenvolvimento e uso.
  4. O papel do sistema de IA e das pessoas envolvidas nas decisões.
  5. As categorias de dados pessoais utilizados pelo sistema de IA.
  6. Medidas de segurança, não discriminação e confiabilidade, incluindo precisão e cobertura.
  7. Outras informações especificadas em regulamentos.

Além disso, o projeto enfatiza a importância de fornecer informações de forma acessível ao público, usando ícones ou símbolos facilmente reconhecíveis, especialmente quando se trata do caráter automatizado das interações.

O projeto também destaca a necessidade de informar claramente as pessoas expostas a sistemas de reconhecimento de emoções ou categorização biométrica, com ênfase na compreensão desses sistemas, especialmente para pessoas vulneráveis, como crianças, adolescentes, idosos e pessoas com deficiência.

Essas disposições visam concretizar os princípios do projeto, incluindo transparência, explicabilidade, inteligibilidade e auditabilidade. O direito à compreensão dos sistemas de IA se alinha com o direito de acesso estabelecido na Lei Geral de Proteção de Dados (LGPD), permitindo que as pessoas obtenham informações relevantes sobre o tratamento de seus dados pessoais.

A questão da explicabilidade é desafiadora, uma vez que a complexidade dos algoritmos de IA torna difícil para indivíduos leigos compreender completamente seu funcionamento. No entanto, a exigência é mais sobre tornar a informação transparente, inteligível e auditável, possibilitando que as pessoas compreendam o impacto das decisões tomadas por sistemas de IA.

Uma solução interessante pode ser a implementação de práticas de auditoria e regras para tornar os sistemas de IA mais transparentes. Não significa necessariamente entender todos os detalhes dos algoritmos, mas sim garantir que as informações sejam acessíveis a todos, não apenas àqueles com conhecimento técnico em IA.

Em última análise, a regulamentação da IA é essencial para proteger os direitos fundamentais das pessoas. A regulamentação é dinamicamente ajustada de acordo com os riscos potenciais associados à tecnologia. Medidas de governança, categorização de riscos e avaliação de impacto algorítmico são essenciais para garantir a conformidade com as disposições do projeto.

Além disso, à medida que a Comissão de Juristas trabalha na revisão do Código Civil, é apropriado considerar a inclusão de princípios relacionados à IA, como a explicabilidade, para fortalecer a confiabilidade e a transparência dos contratos eletrônicos que envolvem sistemas de IA. A proteção dos direitos associados à informação e compreensão das decisões tomadas pela IA é fundamental e deve ser incorporada nas regulamentações e práticas de negócios.