Publicado em

UNIÃO EUROPEIA INICIA NOVA FASE DE REGRAS PARA INTELIGÊNCIA ARTIFICIAL

A partir do último sábado (2), entraram em vigor na União Europeia novas regras voltadas à transparência e à proteção de direitos autorais para sistemas de Inteligência Artificial de propósito geral, como assistentes virtuais e modelos de linguagem. As medidas preveem a obrigação de esclarecer o funcionamento dos modelos e informar quais dados foram utilizados em seu treinamento.

Outra exigência é a adoção de políticas específicas relacionadas a direitos autorais, atendendo a demandas de setores como o artístico e o jornalístico. Para sistemas classificados como de risco sistêmico, será necessária a realização de avaliações de risco e a elaboração de relatórios sobre incidentes.

Essas determinações fazem parte da implementação gradual da Lei de Inteligência Artificial da União Europeia, aprovada no ano passado. Na etapa inicial, já havia sido proibido o desenvolvimento e uso de tecnologias consideradas de risco inaceitável, como sistemas de crédito social e reconhecimento emocional.

O início deste mês também marca a aplicação das penalidades previstas no texto legal. Multas para sistemas classificados como inaceitáveis podem chegar a 35 milhões de euros (cerca de 223 milhões de reais) ou 7% do faturamento global da empresa. Para os demais casos, o valor pode atingir 15 milhões de euros (aproximadamente 95 milhões de reais) ou 3% do faturamento mundial.

A norma europeia tem servido de referência para a elaboração do marco legal brasileiro sobre IA, atualmente em análise na Câmara dos Deputados.

No mês passado, foi publicado um código de práticas para orientar o setor no cumprimento das exigências legais. Dividido em três capítulos, o documento estabelece compromissos em áreas como transparência, direitos autorais e segurança. Embora de adesão voluntária, já conta com a participação de 26 empresas do setor, incluindo alguns dos principais desenvolvedores globais de tecnologia.

Publicado em

ADVOCACIA E TECNOLOGIA: O QUE MUDA COM O USO RESPONSÁVEL DA INTELIGÊNCIA ARTIFICIAL

A transformação digital nos escritórios de advocacia deixou de ser uma escolha opcional para se tornar uma exigência competitiva. Isso se deve, em grande parte, às novas exigências dos clientes, que esperam respostas mais rápidas, análises mais profundas e soluções eficientes. Nesse novo ambiente jurídico mais dinâmico, a Inteligência Artificial tem desempenhado um papel comparável ao impacto que, no passado, tiveram inovações como a internet ou os telefones móveis.

A definição legal mais recente adotada na Europa descreve a IA como um sistema capaz de, a partir de objetivos definidos por humanos, produzir previsões, sugestões ou decisões que influenciam tanto ambientes digitais quanto reais, com base em lógica, conhecimento ou métodos de aprendizado. Essa definição ajuda a entender por que a IA passou a ser aplicada com mais intensidade nas rotinas jurídicas, especialmente após o ano de 2022.

Entre os usos mais relevantes estão a possibilidade de pesquisar jurisprudência utilizando linguagem natural, revisar contratos de forma automatizada, detectar cláusulas que representam risco e conduzir processos de due diligence com mais agilidade e precisão. Essas funcionalidades aumentam significativamente a capacidade de análise dos profissionais do Direito. No entanto, seus resultados ainda exigem uma revisão criteriosa feita por advogados, que permanecem responsáveis pelas decisões finais. A IA, por mais avançada que seja, serve como ferramenta de apoio, não como substituta.

Na área do combate a delitos financeiros, como a lavagem de dinheiro, essas tecnologias se mostram promissoras ao identificar padrões de comportamento atípicos ou movimentações fora do usual. Ainda assim, é necessário reconhecer que a IA não está isenta de falhas. Um exemplo são as chamadas respostas erradas com aparência de exatidão, o que pode gerar problemas sérios quando não há uma supervisão adequada.

Há também questões éticas que precisam ser enfrentadas. Sistemas automatizados podem repetir preconceitos históricos se forem treinados com dados enviesados. Além disso, existe um conflito entre a necessidade de transparência nos algoritmos e a preservação do sigilo profissional, que é pilar da advocacia. Outro ponto sensível é a desigualdade no acesso a essas tecnologias, o que pode favorecer escritórios mais estruturados e dificultar ainda mais o acesso à justiça por parte de quem já enfrenta barreiras.

Os desafios trazidos pela Inteligência Artificial ultrapassam os aspectos técnicos. O verdadeiro obstáculo está na adaptação das pessoas. Envolver profissionais tradicionalmente formados numa cultura jurídica mais clássica com novas ferramentas exige preparo, treinamento e mudança de mentalidade. E, acima de tudo, é essencial preservar a dimensão humana do exercício da advocacia, baseada no relacionamento, na escuta e na análise crítica.

A IA fará cada vez mais parte do dia a dia dos escritórios, como uma aliada na interpretação e aplicação das leis, mas sem jamais substituir o olhar atento e o julgamento ético de quem conhece o valor da justiça.

Publicado em

NOVAS REGRAS PARA INTELIGÊNCIA ARTIFICIAL: COMO A REGULAMENTAÇÃO AFETA O USO EMPRESARIAL?

Nos últimos anos, a rápida evolução da Inteligência Artificial (IA) tem impulsionado a transformação digital em diversos setores, trazendo inovação, eficiência e novos modelos de negócios. Entretanto, o uso dessa tecnologia também levanta preocupações sobre privacidade, segurança de dados, discriminação algorítmica e responsabilidade jurídica, o que tem motivado a criação de regulamentações específicas em diversas partes do mundo.

As novas diretrizes sobre IA, como o Regulamento Europeu de Inteligência Artificial (AI Act) e iniciativas regulatórias em outras jurisdições, buscam estabelecer parâmetros claros para o desenvolvimento e a utilização ética dessas tecnologias. O objetivo não é limitar a inovação, mas garantir que os sistemas de IA sejam transparentes, seguros e respeitem os direitos fundamentais.

Dentre os principais pontos dessas regulamentações, destacam-se:

  1. Classificação de Riscos: Os sistemas de IA passam a ser categorizados conforme o grau de risco que apresentam à sociedade. Aplicações de “alto risco”, como aquelas utilizadas em decisões de crédito, recrutamento e sistemas de vigilância, estarão sujeitas a controles mais rigorosos.
  2. Transparência e Responsabilidade: Empresas que utilizam IA precisarão adotar práticas que garantam maior transparência na operação dos algoritmos, informando claramente quando o usuário está interagindo com uma máquina e como os dados estão sendo utilizados.
  3. Proteção de Dados e Privacidade: As novas regulamentações reforçam a importância de conformidade com legislações de proteção de dados, como a LGPD no Brasil e o GDPR na Europa, especialmente no que diz respeito à coleta, armazenamento e tratamento de informações pessoais.
  4. Supervisão e Auditoria: O monitoramento contínuo dos sistemas de IA se torna obrigatório em determinados setores, com exigências de auditorias regulares para evitar vieses indevidos e garantir a segurança e a confiabilidade das soluções.

Para as empresas, adaptar-se a essas exigências implica revisar processos internos, investir em treinamento de equipes e, muitas vezes, reestruturar soluções tecnológicas. O alinhamento com as novas normas não apenas mitiga riscos legais, mas também fortalece a confiança do público e dos parceiros comerciais no uso responsável da IA.

Dessa forma, a regulamentação da Inteligência Artificial representa uma etapa natural no processo de amadurecimento dessa tecnologia. Empresas que adotarem práticas transparentes e éticas não apenas atenderão aos requisitos legais, mas também estarão mais preparadas para explorar as oportunidades que a IA oferece de maneira sustentável e responsável.