Publicado em Deixe um comentário

INTELIGÊNCIA ARTIFICIAL NO BRASIL: DESAFIOS E PERSPECTIVAS NA BUSCA POR REGULAMENTAÇÃO

A crescente presença da inteligência artificial (IA) no dia a dia dos brasileiros, desde serviços de streaming em televisores até aplicativos de mapas em celulares e assistentes virtuais, tem levantado questões importantes sobre a regulamentação do setor. Atualmente, a ausência de uma legislação específica para IA no Brasil cria um vácuo legal, gerando incertezas sobre a proteção de direitos e potencialmente dificultando a atração de novos investimentos nessa área inovadora.

Um projeto de lei recentemente apresentado busca estabelecer normas para assegurar a segurança e confiabilidade dos sistemas de IA. Este projeto propõe que antes da contratação ou uso de sistemas baseados em IA, os usuários sejam informados sobre os dados pessoais que serão utilizados. Especialistas em Direito Digital e Propriedade Intelectual destacam que a implementação de tal regulamentação traria um conjunto de diretrizes centradas nas boas práticas de governança em inteligência artificial, com possíveis sanções econômicas para quem não as observar. Contudo, há preocupações de que uma regulação rigorosa possa impor desafios significativos, especialmente para empresas menores ou em fase inicial, em comparação com grandes corporações que têm mais recursos para atender às exigências legais.

Os principais desafios na criação de um ambiente regulado para IA incluem a necessidade de acompanhar o rápido desenvolvimento tecnológico e a flexibilidade para evitar legislações obsoletas. A proteção de direitos fundamentais como privacidade, dignidade e segurança dos usuários é essencial, assim como a preservação de direitos existentes, incluindo a propriedade intelectual e a compatibilidade com regulamentos internacionais. Além disso, há a necessidade de definir a responsabilidade dos desenvolvedores e usuários de IA, implementar controles de segurança adequados e garantir transparência no uso dessas tecnologias. Essas questões destacam a urgência e a complexidade de regulamentar o uso da inteligência artificial no Brasil.

Publicado em Deixe um comentário

COMO DEVERÍAMOS REGULAR A INTELIGÊNCIA ARTIFICIAL EM NOSSA SOCIEDADE?

Atualmente, estamos vivendo uma era onde a inteligência artificial (IA) se tornou um pilar central nas relações econômicas e sociais, operando predominantemente através de plataformas tecnológicas avançadas. Este cenário tem suscitado debates em nível global sobre a necessidade de estabelecer regulamentações para a IA, buscando assim um uso mais ético e responsável dessa tecnologia, de modo a proteger os direitos dos indivíduos.

A União Europeia (UE) está na vanguarda deste movimento com sua proposta conhecida como AI Act. Esta iniciativa tem como objetivo principal assegurar a segurança, respeitar os direitos humanos, incrementar a confiança e a transparência no uso da IA, além de fomentar a inovação no mercado digital unificado. A proposta da UE busca prevenir preconceitos e discriminações e estabelecer diretrizes claras para sistemas de IA de alto e baixo risco. Em contraste, França, Alemanha e Itália recentemente adotaram uma abordagem de autorregulação obrigatória, que envolve códigos de conduta para os principais modelos de IA, uma estratégia que tende a ser menos restritiva do que as regulações governamentais e que pode preservar a competitividade no mercado global.

Nos Estados Unidos, uma ordem executiva assinada pelo presidente Joe Biden em outubro deste ano reflete preocupações similares. Esta ordem exige que desenvolvedores de sistemas de IA compartilhem resultados de testes e segurança com o governo, e estabelece a adoção de padrões pelo Instituto Nacional de Padrões e Tecnologia (NIST). Além disso, impõe a utilização de marca d’água para ajudar a identificar conteúdos criados por IA, uma medida para combater fraudes e desinformação.

No Brasil, inspirado pelo movimento da UE, o Projeto de Lei nº 2.338/2023 está em discussão, visando regulamentar o uso de sistemas baseados em IA. Atualmente, apenas a Lei Geral de Proteção de Dados (Lei 13.709/2018) oferece algum nível de proteção contra riscos relacionados ao uso de IA, principalmente no que tange à revisão de decisões automatizadas que afetam direitos individuais.

Este cenário emergente sinaliza algumas tendências claras em relação à autorregulação na IA. Um dos aspectos centrais é a importância da governança como um elemento chave no uso ético da IA. Existe um consenso crescente em torno de quatro pilares éticos fundamentais para a IA: o respeito à autonomia individual, o princípio da precaução, a equidade e a transparência.

No contexto da autorregulação, os programas de governança em IA são importantes para assegurar o uso ético da tecnologia, a transparência, a responsabilidade corporativa, a segurança e privacidade dos dados, a justiça social, a conformidade legal e regulatória, e a gestão de riscos. É importante notar que, apesar de um consenso teórico sobre estes temas, na prática, muitas empresas de tecnologia enfrentam críticas em relação à eficácia e transparência de seus comitês de ética, alguns dos quais foram até mesmo desmantelados.

Em resumo, a evolução e adaptação das regulamentações em torno da IA são essenciais para garantir seu uso ético e responsável. A definição de um “mínimo ético” com diretrizes universais é fundamental para assegurar princípios inegociáveis na ética da IA, como respeito à autonomia individual, precaução, equidade e transparência. A tendência de autorregulação e os programas de governança em IA tornam-se essenciais para garantir a conformidade legal, a responsabilidade corporativa, a justiça social e a gestão eficiente de riscos. O futuro da IA, portanto, dependerá da capacidade das organizações de integrar esses princípios éticos no desenvolvimento e na implementação de seus sistemas, promovendo um uso da IA que seja benéfico e sustentável para toda a sociedade.