Publicado em

UNIÃO EUROPEIA INICIA NOVA FASE DE REGRAS PARA INTELIGÊNCIA ARTIFICIAL

A partir do último sábado (2), entraram em vigor na União Europeia novas regras voltadas à transparência e à proteção de direitos autorais para sistemas de Inteligência Artificial de propósito geral, como assistentes virtuais e modelos de linguagem. As medidas preveem a obrigação de esclarecer o funcionamento dos modelos e informar quais dados foram utilizados em seu treinamento.

Outra exigência é a adoção de políticas específicas relacionadas a direitos autorais, atendendo a demandas de setores como o artístico e o jornalístico. Para sistemas classificados como de risco sistêmico, será necessária a realização de avaliações de risco e a elaboração de relatórios sobre incidentes.

Essas determinações fazem parte da implementação gradual da Lei de Inteligência Artificial da União Europeia, aprovada no ano passado. Na etapa inicial, já havia sido proibido o desenvolvimento e uso de tecnologias consideradas de risco inaceitável, como sistemas de crédito social e reconhecimento emocional.

O início deste mês também marca a aplicação das penalidades previstas no texto legal. Multas para sistemas classificados como inaceitáveis podem chegar a 35 milhões de euros (cerca de 223 milhões de reais) ou 7% do faturamento global da empresa. Para os demais casos, o valor pode atingir 15 milhões de euros (aproximadamente 95 milhões de reais) ou 3% do faturamento mundial.

A norma europeia tem servido de referência para a elaboração do marco legal brasileiro sobre IA, atualmente em análise na Câmara dos Deputados.

No mês passado, foi publicado um código de práticas para orientar o setor no cumprimento das exigências legais. Dividido em três capítulos, o documento estabelece compromissos em áreas como transparência, direitos autorais e segurança. Embora de adesão voluntária, já conta com a participação de 26 empresas do setor, incluindo alguns dos principais desenvolvedores globais de tecnologia.

Publicado em

IA GENERATIVA E COMPLIANCE: COMO INTEGRAR INOVAÇÃO E RESPONSABILIDADE NAS ORGANIZAÇÕES

A adoção da inteligência artificial generativa (IAGen) deixou de ser tendência e passou a compor a rotina de departamentos de design, marketing e desenvolvimento de novos modelos de negócios. Levantamento publicado pela McKinsey mostra que, em 2024, aproximadamente 72 % das companhias em todo o mundo já utilizavam esse tipo de ferramenta. À medida que a tecnologia se integra às operações, também se intensificam as preocupações jurídicas, éticas e regulatórias.

Temas como direitos autorais, tratamento de dados pessoais sem consentimento e responsabilização por decisões automatizadas, especialmente em crédito, saúde e recrutamento, dominam as conversas entre gestores e áreas de compliance. Fica cada vez mais evidente que não basta a IA funcionar; ela precisa ser explicável, auditável e isenta de preconceitos estruturais. Caso contrário, a reputação do negócio pode sofrer danos significativos.

Na prática, a IAGen oferece avanços notáveis, mas carrega riscos equivalentes. O desafio consiste em promover inovação sem comprometer transparência e ética. Enquanto o Marco Legal da Inteligência Artificial (PL 2338/2023) aguarda tramitação, cabe às organizações adotar políticas robustas de governança, capazes de assegurar a confiança de consumidores, parceiros e reguladores.

Caminhos para harmonizar IAGen e compliance

A experiência em projetos de governança de IA indica que algumas medidas são particularmente eficazes:

  1. Definir princípios éticos claros
    Transparência, justiça, privacidade e responsabilidade devem orientar todo o ciclo de vida da tecnologia, desde a escolha de modelos até a entrega de resultados.
  2. Implantar uma política de governança algorítmica
    É essencial documentar quais modelos são utilizados, com que finalidade, quais dados os alimentam e quais riscos envolvem. A gestão precisa ser multidisciplinar, reunindo áreas técnica, jurídica e de gestão de riscos.
  3. Realizar auditorias periódicas
    A revisão regular dos algoritmos ajuda a identificar e mitigar vieses, falhas e desvios de uso. Auditoria não significa desconfiança da ferramenta, mas sim garantia de confiabilidade e conformidade.
  4. Utilizar apenas dados obtidos legalmente e, sempre que possível, anonimizados
    O tratamento deve observar a Lei Geral de Proteção de Dados, zelando por consentimento, minimização e segurança das informações.
  5. Instituir um comitê interno de ética em IA
    Um grupo formado por especialistas em tecnologia, jurídico, RH e compliance avalia casos, aprova projetos e orienta decisões estratégicas.
  6. Fortalecer a cultura organizacional
    Programas de capacitação periódica sobre boas práticas e riscos associados à IA tornam as equipes aliadas fundamentais da governança.
  7. Acompanhar normas e padrões internacionais
    Quem já adota boas práticas globais sai na frente, evita retrabalho e reduz exposição a futuros passivos regulatórios.
  8. Assegurar rastreabilidade das decisões automatizadas
    Quando um sistema de IA nega crédito ou recomenda a contratação de um candidato, deve ser possível compreender os motivos que levaram à conclusão.
  9. Manter supervisão humana
    A IA deve complementar, e não substituir integralmente, o juízo humano. Pessoas continuam sendo a camada final de responsabilidade.
  10. Atualizar rotineiramente as políticas de compliance digital
    O ambiente tecnológico muda em velocidade elevada. Políticas rígidas, mas dinâmicas, acolhem inovações sem perder o rigor jurídico.

A inteligência artificial generativa oferece ganhos competitivos inegáveis, mas só trará valor sustentável às organizações que aliarem inovação tecnológica a práticas sólidas de governança e compliance. Ao adotar diretrizes éticas, criar estruturas de supervisão e assegurar transparência em cada decisão automatizada, as empresas pavimentam um caminho seguro para explorar todo o potencial transformador dessa tecnologia.

Publicado em

ENTENDA COMO A INTELIGÊNCIA ARTIFICIAL ESTÁ REDEFININDO AS REGRAS DA CONCORRÊNCIA

À medida que a inteligência artificial (IA) avança e se integra em diversos setores, surgem importantes questões concorrenciais. Destaca-se a preocupação com as grandes empresas de tecnologia (big techs) usando seu poder de mercado para dominar ferramentas de IA e vastas bases de dados, limitando as opções do consumidor.

Recentemente, em 18 de setembro, um relatório da autoridade de concorrência do Reino Unido, a Competition & Markets Authority (CMA), levantou preocupações sobre a concorrência no desenvolvimento de modelos de base para IA. O relatório enfatiza que o desenvolvimento desses modelos exige um volume substancial de dados, recursos computacionais dispendiosos e expertise técnica, o que pode reduzir a concorrência e desincentivar a inovação. Um estudo do Goldman Sachs projeta um investimento global em IA de cerca de 200 bilhões de dólares até 2025. Governos e autoridades de concorrência ao redor do mundo estão focados na regulação da IA, especialmente considerando seus potenciais impactos negativos na livre concorrência.

Em 2017, a Organização para a Cooperação e Desenvolvimento Econômico (OCDE) publicou o estudo “Algorithms and Collusion: Competition Policy in the Digital Age”, que discute os desafios que os algoritmos representam para a aplicação da lei da concorrência e a regulação do mercado. A CMA também divulgou estudos em 2018 e 2021 sobre o impacto dos algoritmos na concorrência. Autoridades de concorrência de Portugal, França e Alemanha publicaram estudos semelhantes.

Os estudos concordam que o uso de IA, especialmente na forma de algoritmos, pode facilitar a colusão entre concorrentes, formando cartéis conhecidos como “hub and spoke”, ou promover colusão tácita. A CMA e a Autoridade da Concorrência indicaram que plataformas online e empresas com poder de mercado podem usar algoritmos para práticas de self-preferencing, favorecendo seus próprios produtos e serviços em detrimento dos concorrentes, e para acordos de fixação de preços de revenda.

Diante desse cenário, questiona-se a preparação das autoridades globais e brasileiras para enfrentar essa realidade. A OCDE, preocupada com a proteção e promoção da concorrência nos mercados digitais, destacou a importância da transparência dos algoritmos e da responsabilização pelos seus efeitos.

No Brasil, tramitam o PL nº 2.338/2023 para regular a IA, o PL nº 2.630/2020 (Lei das Fake News) para transparência em redes sociais e serviços de mensagens, e o PL nº 2.768/2022 (Lei de Mercado Digital) para regular plataformas digitais, incluindo a concorrência. A OCDE enfatiza a importância dos programas de leniência como ferramenta de denúncia para participantes de carteis, considerando a dificuldade em detectar condutas irregulares facilitadas pela IA.

O Conselho Administrativo de Defesa Econômica (Cade) do Brasil possui um programa de leniência e, em 2022, criou uma unidade especializada em investigações de condutas unilaterais. Além disso, adotou a recomendação da OCDE de implementar ferramentas de IA para monitorar condutas anticompetitivas, desenvolvendo o Projeto Cérebro, que usa mineração de dados e algoritmos para identificar suspeitas de atuação coordenada em mercados.

Com essas iniciativas, o Brasil segue a União Europeia em obrigar empresas a cumprir legislações de proteção de dados e concorrência no desenvolvimento de ferramentas de IA. O Cade também trabalha para criar técnicas que inibam e combatam condutas anticompetitivas de forma eficiente.

A IA, cada vez mais utilizada por empresas para otimizar negócios, traz benefícios aos consumidores, mas levanta preocupações quanto à concentração tecnológica nas mãos das big techs, devido aos altos requisitos financeiros e técnicos. Autoridades de concorrência expressam preocupação com o uso de ferramentas de IA, especialmente algoritmos de precificação e monitoramento, para implementar condutas colusivas e/ou unilaterais

Publicado em

PROTEÇÃO DE DIREITOS AUTORAIS NA ERA DA IA: EQUILÍBRIO ENTRE INOVAÇÃO E CRIATIVIDADE HUMANA

A ascensão da inteligência artificial generativa é, inegavelmente, um divisor de águas no cenário global. À medida que testemunhamos a criação de materiais surpreendentemente realistas gerados por IA, surgem debates cruciais sobre a aplicação de direitos autorais a essas obras.

Um caso que reflete esse embate é o da obra “A Recent Entrance to Paradise”, produzida por uma ferramenta de IA e submetida para registro em agosto de 2023. O veredito do juiz, considerando que uma IA não pode ser reconhecida como autora de uma obra, gerou intensos debates.

No entanto, nos Estados Unidos, o Escritório de Direitos Autorais (US Copyright Office) adotou uma abordagem mais flexível. Eles reconhecem a possibilidade de registrar obras criadas por IA quando há intervenção humana significativa no processo criativo. Isso abre uma perspectiva interessante: arte, música e outras criações geradas com o auxílio da IA podem ser elegíveis para registro de direitos autorais, desde que haja um componente humano substancial.

E no Brasil, a situação não difere muito. Do ponto de vista da legislação, a proteção autoral não pode ser conferida a uma IA. A Lei nº 9.610/98 protege obras intelectuais que se originam das “criações do espírito”, o que, por definição, exclui sistemas de inteligência artificial desprovidos de espírito. Além disso, a lei define o autor como uma “pessoa física criadora de obra literária, artística ou científica”, excluindo, assim, as obras criadas por IA.

Entretanto, a discussão persiste sobre a possibilidade de proteção quando uma quantidade significativa de conteúdo protegido por direito autoral é incorporada na produção de material pela IA. Por exemplo, o uso de IA para criar representações de personagens famosos de desenhos animados ou para gerar imagens que envolvam celebridades levanta preocupações legítimas sobre a imunidade da proteção de direitos autorais.

O Projeto de Lei apresentado pelo deputado Aureo Ribeiro (PL1473/23) no Brasil busca exigir que empresas que operam sistemas de IA forneçam ferramentas que permitam aos autores restringir o uso de suas criações por algoritmos. No entanto, a implementação prática desses controles permanece incerta devido à natureza complexa e opaca das IAs, frequentemente chamadas de “caixas-pretas”, e à imensa quantidade de dados necessária para treiná-las.

Nesse contexto, a sociedade enfrenta o desafio de equilibrar a preservação da originalidade e propriedade intelectual com a inovação trazida pela inteligência artificial. A questão central que permanece é: como conciliar a proteção de direitos autorais com a natureza dinâmica e desafiadora da IA? A solução, em última instância, reside em encontrar abordagens éticas e legais que garantam uma compensação justa aos criadores, ao mesmo tempo em que promovem o desenvolvimento tecnológico.

O futuro da proteção de direitos autorais no contexto da IA dependerá da capacidade da sociedade e da legislação se adaptarem em sintonia com os avanços tecnológicos, alcançando um equilíbrio que estimule a inovação responsável e reconheça as contribuições humanas para a criação artística.

Publicado em

ANPD PROPÕE MODELO INSTITUCIONAL PARA REGULAÇÃO DA INTELIGÊNCIA ARTIFICIAL NO BRASIL

A Autoridade Nacional de Proteção de Dados (ANPD) anunciou hoje, 24 de outubro, sua segunda análise (Nota Técnica nº 16/2023/CGTP/ANPD) referente ao Projeto de Lei nº 2338/2023, que trata da regulamentação do uso de inteligência artificial (IA) no Brasil. Este documento apresenta contribuições significativas para a modificação do projeto de lei, propõe um novo modelo institucional, destaca sete áreas cruciais de intersecção entre o projeto de lei e a Lei Geral de Proteção de Dados Pessoais (LGPD) e faz uma comparação com as práticas regulatórias de autoridades internacionais.

A análise da ANPD propõe a criação de um modelo institucional para a regulamentação de sistemas de IA composto por quatro instâncias complementares, com a Autoridade Nacional desempenhando o papel central na regulamentação desse tema. O modelo sugerido pela ANPD inclui uma atuação coordenada entre órgãos do Poder Executivo, órgãos reguladores setoriais, bem como a criação de um Conselho Consultivo, semelhante ao Conselho Nacional de Proteção de Dados e da Privacidade (CNPD), destinado exclusivamente à regulamentação do uso de IA no país.

Conforme indicado no documento, experiências internacionais demonstram que uma abordagem centralizada, sob a égide de uma única autoridade, oferece benefícios indiscutíveis na formulação de normas, como evidenciado nas experiências da União Europeia, França, Holanda e outros países.

Além disso, o documento realça a proposta de que a competência para elaborar, gerenciar, atualizar e implementar a Estratégia Brasileira de Inteligência Artificial (EBIA) seja atribuída ao Poder Executivo, em vez da autoridade competente, como previsto na redação atual do projeto de lei. De acordo com a nota técnica, a ANPD terá a responsabilidade de contribuir, no âmbito de suas atribuições, para o processo de elaboração e implementação da EBIA.

Durante uma audiência pública realizada no Senado Federal, na Comissão Temporária Interna sobre Inteligência Artificial no Brasil, a Diretora Miriam Wimmer defendeu a ideia de uma autoridade central com uma abordagem regulatória mais centralizada, que atue como uma fonte clara e consistente de orientação para todos os setores e partes envolvidas, eliminando ambiguidades e interpretações divergentes que podem resultar em incertezas legais. A Diretora destacou a capacidade da ANPD de adotar uma abordagem transversal e enfatizou que qualquer expansão de competências depende do fortalecimento institucional da ANPD, incluindo independência técnica, autonomia administrativa e decisória, de acordo com o modelo das agências reguladoras previsto na lei das agências.

Miriam também mencionou a criação de um Fórum de Órgãos Reguladores Setoriais, com o objetivo de facilitar a colaboração entre a autoridade central e os órgãos reguladores setoriais na regulamentação do tema.

A nota técnica propõe alterações legislativas nos artigos 32 a 35 do Capítulo VIII do Projeto de Lei nº 2338, que trata da supervisão e fiscalização. No entanto, ressalta que outras modificações podem ser necessárias e que a ANPD está à disposição do Congresso Nacional para discutir as propostas sugeridas.

A contribuição da ANPD tem como objetivo enfatizar o papel ativo da Autoridade no debate sobre a regulamentação da IA e garantir que a futura lei esteja em conformidade com os princípios e diretrizes estabelecidos pela LGPD.