Publicado em

IA E DEMOCRACIA: BRASIL E UNIÃO EUROPEIA NA REGULAMENTAÇÃO DA INTELIGÊNCIA ARTIFICIAL

A União Europeia recentemente estabeleceu um marco importante na regulamentação do uso da Inteligência Artificial, introduzindo uma legislação inovadora conhecida como Lei da IA. Este ato representa um esforço pioneiro para equilibrar os benefícios da IA com a necessidade de mitigar seus riscos e abusos, estabelecendo um exemplo global na discussão sobre ética e limites desta tecnologia.

Em contraste, as discussões no Brasil, especialmente em âmbitos governamentais e jurídicos, estão adotando uma abordagem mais restritiva e autoritária. Enquanto a Europa avança com medidas progressivas para regular a IA, o Brasil começa a enfrentar questões semelhantes, especialmente em relação ao uso da IA em contextos eleitorais. Essa discussão tem sido impulsionada por profissionais do setor de comunicação política, incluindo marqueteiros e jornalistas.

Os líderes brasileiros, ao expressarem preocupações sobre a manipulação da opinião pública através da IA, parecem focar em regulamentações rígidas e sanções severas para infratores. No entanto, o debate no país parece não capturar completamente as nuances eleitorais e democráticas da IA, faltando transparência e abrangência.

Enquanto isso, a regulamentação da UE define padrões claros e obrigações para as empresas que desenvolvem tecnologia de IA, incluindo a transparência em conteúdos gerados por IA e a garantia de direitos para contestar decisões tomadas por sistemas automatizados.

No Brasil, é essencial adotar uma abordagem mais holística e inclusiva, envolvendo especialistas de diversas áreas para entender todas as implicações da IA nas eleições e na democracia. O debate deve ser mais aberto e transparente, incentivando um diálogo que considere todas as facetas desta tecnologia emergente.

Diante dos desafios que a IA representa para os processos democráticos, é imperativo que as autoridades legislativas do Brasil se envolvam ativamente na formulação de políticas regulatórias. Um debate amplo e participativo, envolvendo a sociedade e representantes eleitos, é fundamental para desenvolver regulamentações que assegurem a integridade das eleições e preservem a democracia. Diante da urgência desta questão, a inércia não é uma opção; é responsabilidade de todos assegurar a transparência e a justiça nas práticas eleitorais futuras.

Publicado em

COMO A BIOMETRIA FACIAL ESTÁ TRANSFORMANDO O COTIDIANO E A ECONOMIA BRASILEIRA

A biometria facial no Brasil tem se tornado um elemento essencial na vida cotidiana, com uma crescente adesão em várias aplicações, desde abertura de contas bancárias até matrículas escolares. Esta tecnologia tem sido fundamental para reforçar a segurança e a confiança no meio digital, contribuindo significativamente para a redução de fraudes e golpes.

Para ilustrar a sua expansão, dados recentes da Unico, uma empresa brasileira líder em identidade digital, revelam um aumento significativo no número de transações autenticadas por biometria facial, de 64 milhões em 2020 para 226 milhões no último ano.

A importância dessa tecnologia pode ser ainda mais evidente ao considerarmos um cenário hipotético em que ela deixasse de funcionar por um dia. Estudos da Fundação Getúlio Vargas (FGV) sugerem que um único dia sem biometria facial resultaria em uma perda de aproximadamente R$ 4,7 milhões no PIB brasileiro e R$ 550 mil em rendimentos dos trabalhadores. Estendendo essa situação para um ano, o impacto seria ainda mais drástico, com uma redução de R$ 1,6 bilhão no PIB.

Além de seu papel direto na segurança e autenticação, a biometria facial tem um papel multiplicador na economia. No setor de desenvolvimento de software, por exemplo, cada real investido gera um impacto de R$ 3,88 no PIB, um fenômeno conhecido como efeito multiplicador. Esse efeito engloba tanto os ganhos diretos das empresas quanto os indiretos, como o impacto em fornecedores e setores correlatos.

A biometria facial também tem um papel significativo na criação de empregos e geração de renda. De acordo com estudos da FGV, para cada dez empregos criados pela Unico, surgem outros 17 em diferentes setores. Isso reflete não apenas em mais empregos, mas também em um aumento da renda circulante na economia.

A substituição de métodos tradicionais de identificação por sistemas baseados em biometria facial não beneficia apenas a economia, mas também reduz significativamente a burocracia e os custos associados. Esse avanço tecnológico é particularmente relevante em um país como o Brasil, onde processos burocráticos e analógicos podem representar entre 1,2% e 2% do PIB, segundo análises da FGV.

O crescimento da biometria facial é impulsionado não apenas pela sua eficiência, mas também pela crescente digitalização e adoção de tecnologias inovadoras pelo público brasileiro. Projeções da consultoria Mordor Intelligence indicam que o mercado de autenticação facial por biometria crescerá cerca de 22% ao ano nos próximos cinco anos.

Contudo, com o avanço da identidade digital, surgem desafios significativos relacionados à segurança e privacidade dos dados. No Brasil, a Lei Geral de Proteção de Dados Pessoais (LGPD), estabelecida em 2018, impõe diretrizes rigorosas para o tratamento de dados sensíveis, incluindo os provenientes da biometria facial. As empresas devem assegurar que os usuários estejam cientes e no controle de como seus dados são utilizados.

A Unico, sendo a maior empresa brasileira no segmento de identidade digital, destaca a importância de sistemas robustos para garantir a integridade e segurança dos dados. É essencial que as inovações tecnológicas sejam acompanhadas de medidas efetivas para proteger a privacidade dos usuários e prevenir vazamentos de dados.

A biometria facial no Brasil representa um avanço notável em termos de segurança, economia e eficiência. No entanto, para que seu potencial seja totalmente realizado, é fundamental que sejam adotadas práticas rigorosas de segurança e privacidade, assegurando que a tecnologia sirva ao melhor interesse dos usuários e da sociedade como um todo.

Publicado em

COMO DEVERÍAMOS REGULAR A INTELIGÊNCIA ARTIFICIAL EM NOSSA SOCIEDADE?

Atualmente, estamos vivendo uma era onde a inteligência artificial (IA) se tornou um pilar central nas relações econômicas e sociais, operando predominantemente através de plataformas tecnológicas avançadas. Este cenário tem suscitado debates em nível global sobre a necessidade de estabelecer regulamentações para a IA, buscando assim um uso mais ético e responsável dessa tecnologia, de modo a proteger os direitos dos indivíduos.

A União Europeia (UE) está na vanguarda deste movimento com sua proposta conhecida como AI Act. Esta iniciativa tem como objetivo principal assegurar a segurança, respeitar os direitos humanos, incrementar a confiança e a transparência no uso da IA, além de fomentar a inovação no mercado digital unificado. A proposta da UE busca prevenir preconceitos e discriminações e estabelecer diretrizes claras para sistemas de IA de alto e baixo risco. Em contraste, França, Alemanha e Itália recentemente adotaram uma abordagem de autorregulação obrigatória, que envolve códigos de conduta para os principais modelos de IA, uma estratégia que tende a ser menos restritiva do que as regulações governamentais e que pode preservar a competitividade no mercado global.

Nos Estados Unidos, uma ordem executiva assinada pelo presidente Joe Biden em outubro deste ano reflete preocupações similares. Esta ordem exige que desenvolvedores de sistemas de IA compartilhem resultados de testes e segurança com o governo, e estabelece a adoção de padrões pelo Instituto Nacional de Padrões e Tecnologia (NIST). Além disso, impõe a utilização de marca d’água para ajudar a identificar conteúdos criados por IA, uma medida para combater fraudes e desinformação.

No Brasil, inspirado pelo movimento da UE, o Projeto de Lei nº 2.338/2023 está em discussão, visando regulamentar o uso de sistemas baseados em IA. Atualmente, apenas a Lei Geral de Proteção de Dados (Lei 13.709/2018) oferece algum nível de proteção contra riscos relacionados ao uso de IA, principalmente no que tange à revisão de decisões automatizadas que afetam direitos individuais.

Este cenário emergente sinaliza algumas tendências claras em relação à autorregulação na IA. Um dos aspectos centrais é a importância da governança como um elemento chave no uso ético da IA. Existe um consenso crescente em torno de quatro pilares éticos fundamentais para a IA: o respeito à autonomia individual, o princípio da precaução, a equidade e a transparência.

No contexto da autorregulação, os programas de governança em IA são importantes para assegurar o uso ético da tecnologia, a transparência, a responsabilidade corporativa, a segurança e privacidade dos dados, a justiça social, a conformidade legal e regulatória, e a gestão de riscos. É importante notar que, apesar de um consenso teórico sobre estes temas, na prática, muitas empresas de tecnologia enfrentam críticas em relação à eficácia e transparência de seus comitês de ética, alguns dos quais foram até mesmo desmantelados.

Em resumo, a evolução e adaptação das regulamentações em torno da IA são essenciais para garantir seu uso ético e responsável. A definição de um “mínimo ético” com diretrizes universais é fundamental para assegurar princípios inegociáveis na ética da IA, como respeito à autonomia individual, precaução, equidade e transparência. A tendência de autorregulação e os programas de governança em IA tornam-se essenciais para garantir a conformidade legal, a responsabilidade corporativa, a justiça social e a gestão eficiente de riscos. O futuro da IA, portanto, dependerá da capacidade das organizações de integrar esses princípios éticos no desenvolvimento e na implementação de seus sistemas, promovendo um uso da IA que seja benéfico e sustentável para toda a sociedade.

Publicado em

GOOGLE LANÇA GEMINI, O MODELO MULTIMODAL MAIS AVANÇADO

O Google, um gigante no campo da inteligência artificial, recentemente introduziu o Gemini, seu mais recente avanço na área. Este modelo de IA, desenvolvido pelo renomado laboratório de inteligência artificial DeepMind, é considerado um marco na história da tecnologia. O Gemini se destaca por ser um modelo multimodal, integrando habilidades em texto, imagem, áudio, vídeo e programação, um feito notável no campo da IA.

O modelo representa um salto significativo na forma como as máquinas compreendem e interagem com o mundo ao nosso redor, superando outros modelos existentes.

O Google já integrou o Gemini ao Bard, seu chatbot, ampliando assim as capacidades deste último e reforçando a competição com a OpenAI e seu produto, o ChatGPT. Comentários da empresa sugerem que essa integração marca a maior melhoria do Bard desde seu lançamento.

O Gemini será gradualmente implementado em outros produtos e serviços do Google, como Ads, Chrome e Duet AI, em três variantes: Gemini Ultra, para tarefas de alta complexidade; Gemini Pro, para uma gama mais ampla de tarefas; e Gemini Nano, otimizado para eficiência em dispositivos menores.

Uma característica notável do Gemini é seu poder computacional, que é cinco vezes maior que o do GPT-4. Ele é o primeiro modelo a superar especialistas humanos em Massive Multitask Language Understanding, um benchmark chave para avaliar a capacidade de resolução de problemas de modelos de IA. O Gemini Ultra, por exemplo, alcançou 30 de 32 pontos em testes acadêmicos.

A inovação fundamental do Gemini reside em sua abordagem nativa multimodal. Diferente de modelos anteriores que eram treinados separadamente em diferentes modalidades antes de serem combinados, o Gemini foi concebido desde o início para lidar com múltiplas formas de informação simultaneamente, permitindo-lhe compreender e raciocinar com mais eficácia.

Além disso, a Google utilizou chips personalizados para desenvolver o Gemini, o que traz vantagens únicas em termos de desempenho.

Para desenvolvedores e clientes corporativos, o Gemini Pro estará disponível via API no Google AI Studio ou Vertex AI a partir de 13 de dezembro. O Google AI Studio é uma ferramenta gratuita para desenvolvimento e prototipagem de aplicativos, enquanto o Vertex AI oferece personalização do Gemini com controle total sobre os dados.

Finalmente, o Google anunciou o lançamento do Bard Advanced, uma nova experiência de IA avançada, para o início de 2024. Este anúncio reitera o compromisso da empresa em liderar a vanguarda da inovação em IA.

Publicado em

ENTENDA COMO A INTELIGÊNCIA ARTIFICIAL ESTÁ REDEFININDO AS REGRAS DA CONCORRÊNCIA

À medida que a inteligência artificial (IA) avança e se integra em diversos setores, surgem importantes questões concorrenciais. Destaca-se a preocupação com as grandes empresas de tecnologia (big techs) usando seu poder de mercado para dominar ferramentas de IA e vastas bases de dados, limitando as opções do consumidor.

Recentemente, em 18 de setembro, um relatório da autoridade de concorrência do Reino Unido, a Competition & Markets Authority (CMA), levantou preocupações sobre a concorrência no desenvolvimento de modelos de base para IA. O relatório enfatiza que o desenvolvimento desses modelos exige um volume substancial de dados, recursos computacionais dispendiosos e expertise técnica, o que pode reduzir a concorrência e desincentivar a inovação. Um estudo do Goldman Sachs projeta um investimento global em IA de cerca de 200 bilhões de dólares até 2025. Governos e autoridades de concorrência ao redor do mundo estão focados na regulação da IA, especialmente considerando seus potenciais impactos negativos na livre concorrência.

Em 2017, a Organização para a Cooperação e Desenvolvimento Econômico (OCDE) publicou o estudo “Algorithms and Collusion: Competition Policy in the Digital Age”, que discute os desafios que os algoritmos representam para a aplicação da lei da concorrência e a regulação do mercado. A CMA também divulgou estudos em 2018 e 2021 sobre o impacto dos algoritmos na concorrência. Autoridades de concorrência de Portugal, França e Alemanha publicaram estudos semelhantes.

Os estudos concordam que o uso de IA, especialmente na forma de algoritmos, pode facilitar a colusão entre concorrentes, formando cartéis conhecidos como “hub and spoke”, ou promover colusão tácita. A CMA e a Autoridade da Concorrência indicaram que plataformas online e empresas com poder de mercado podem usar algoritmos para práticas de self-preferencing, favorecendo seus próprios produtos e serviços em detrimento dos concorrentes, e para acordos de fixação de preços de revenda.

Diante desse cenário, questiona-se a preparação das autoridades globais e brasileiras para enfrentar essa realidade. A OCDE, preocupada com a proteção e promoção da concorrência nos mercados digitais, destacou a importância da transparência dos algoritmos e da responsabilização pelos seus efeitos.

No Brasil, tramitam o PL nº 2.338/2023 para regular a IA, o PL nº 2.630/2020 (Lei das Fake News) para transparência em redes sociais e serviços de mensagens, e o PL nº 2.768/2022 (Lei de Mercado Digital) para regular plataformas digitais, incluindo a concorrência. A OCDE enfatiza a importância dos programas de leniência como ferramenta de denúncia para participantes de carteis, considerando a dificuldade em detectar condutas irregulares facilitadas pela IA.

O Conselho Administrativo de Defesa Econômica (Cade) do Brasil possui um programa de leniência e, em 2022, criou uma unidade especializada em investigações de condutas unilaterais. Além disso, adotou a recomendação da OCDE de implementar ferramentas de IA para monitorar condutas anticompetitivas, desenvolvendo o Projeto Cérebro, que usa mineração de dados e algoritmos para identificar suspeitas de atuação coordenada em mercados.

Com essas iniciativas, o Brasil segue a União Europeia em obrigar empresas a cumprir legislações de proteção de dados e concorrência no desenvolvimento de ferramentas de IA. O Cade também trabalha para criar técnicas que inibam e combatam condutas anticompetitivas de forma eficiente.

A IA, cada vez mais utilizada por empresas para otimizar negócios, traz benefícios aos consumidores, mas levanta preocupações quanto à concentração tecnológica nas mãos das big techs, devido aos altos requisitos financeiros e técnicos. Autoridades de concorrência expressam preocupação com o uso de ferramentas de IA, especialmente algoritmos de precificação e monitoramento, para implementar condutas colusivas e/ou unilaterais

Publicado em

COMO A INTELIGÊNCIA ARTIFICIAL ESTÁ TRANSFORMANDO A SOCIEDADE E O DIREITO

A discussão sobre a ascensão da inteligência artificial (IA) e seu impacto na sociedade tem se intensificado recentemente, em grande parte devido aos avanços tecnológicos e à crescente acessibilidade da IA. Um exemplo marcante dessa tendência é o sucesso estrondoso do ChatGPT.

Historicamente, desde a Revolução Industrial, temos testemunhado a substituição do trabalho humano por máquinas. No entanto, o que diferencia a era atual é a velocidade sem precedentes com que a digitalização está evoluindo. A IA depende crucialmente da inteligência humana para seu desenvolvimento e supervisão. Sem essa supervisão, a IA poderia adquirir e perpetuar comportamentos prejudiciais, incluindo discriminação e agressividade, derivados do conteúdo disponível no mundo virtual.

Um aspecto intrigante dessa era digital é nossa percepção da realidade. Consideramos a possibilidade de sermos substituídos ou enganados por avatares digitais algo distante, confiantes na nossa capacidade de distinguir entre uma entidade virtual e uma real. Porém, casos recentes sugerem que essa distinção pode não ser tão clara.

Um exemplo revelador é o da agência de modelos espanhola que criou uma influenciadora digital gerada inteiramente por IA. Esta influenciadora, chamada “Aitana”, rapidamente ganhou popularidade no Instagram, acumulando milhares de seguidores. Com 25 anos virtuais, Aitana aborda temas como games, fitness e amor, apresentando-se de maneira sensual. O mais surpreendente é que muitos seguidores não percebem que Aitana é um produto da IA.

Esse fenômeno levanta preocupações significativas. A intensificação da vida virtual está soando como um alarme na sociedade global, especialmente entre os jovens, muitos dos quais parecem indiferentes em discernir o real do virtual. Assim, torna-se necessário adaptar-se e entender as tecnologias emergentes, bem como o comportamento das novas gerações, para colher os benefícios da IA e minimizar seus malefícios.

Do ponto de vista jurídico, a presença de influenciadores virtuais nas redes sociais não é ilegal, desde que não envolvam atividades ilícitas. Contudo, a responsabilidade por quaisquer danos causados recai sobre os humanos que controlam estas entidades digitais. O desafio legal se torna mais complexo em casos onde os desenvolvedores desses personagens virtuais são desconhecidos, especialmente quando tais personagens estão envolvidos em atividades criminosas.

No Brasil, ainda estamos na fase inicial de desenvolver uma legislação específica para a IA. Existe um projeto de lei sendo estudado por juristas e profissionais em várias regiões, como no Rio Grande do Sul, onde um grupo de trabalho da OAB está dedicado ao tema. A complexidade do assunto requer estudo contínuo, comparação com legislações internacionais e uma avaliação ponderada dos riscos e benefícios da IA.

Por fim, é essencial adotar uma postura de responsabilidade e consciência na utilização da IA, especialmente ao considerar seu impacto sobre crianças e adolescentes nas redes sociais. A IA oferece possibilidades incríveis para o avanço humano, mas também vem com riscos que devem ser cuidadosamente avaliados e regulamentados. À medida que a tecnologia evolui, é provável que sua integração na sociedade e as implicações jurídicas se tornem mais claras e bem regulamentadas.

Publicado em

PROTEÇÃO DE DIREITOS AUTORAIS NA ERA DA IA: EQUILÍBRIO ENTRE INOVAÇÃO E CRIATIVIDADE HUMANA

A ascensão da inteligência artificial generativa é, inegavelmente, um divisor de águas no cenário global. À medida que testemunhamos a criação de materiais surpreendentemente realistas gerados por IA, surgem debates cruciais sobre a aplicação de direitos autorais a essas obras.

Um caso que reflete esse embate é o da obra “A Recent Entrance to Paradise”, produzida por uma ferramenta de IA e submetida para registro em agosto de 2023. O veredito do juiz, considerando que uma IA não pode ser reconhecida como autora de uma obra, gerou intensos debates.

No entanto, nos Estados Unidos, o Escritório de Direitos Autorais (US Copyright Office) adotou uma abordagem mais flexível. Eles reconhecem a possibilidade de registrar obras criadas por IA quando há intervenção humana significativa no processo criativo. Isso abre uma perspectiva interessante: arte, música e outras criações geradas com o auxílio da IA podem ser elegíveis para registro de direitos autorais, desde que haja um componente humano substancial.

E no Brasil, a situação não difere muito. Do ponto de vista da legislação, a proteção autoral não pode ser conferida a uma IA. A Lei nº 9.610/98 protege obras intelectuais que se originam das “criações do espírito”, o que, por definição, exclui sistemas de inteligência artificial desprovidos de espírito. Além disso, a lei define o autor como uma “pessoa física criadora de obra literária, artística ou científica”, excluindo, assim, as obras criadas por IA.

Entretanto, a discussão persiste sobre a possibilidade de proteção quando uma quantidade significativa de conteúdo protegido por direito autoral é incorporada na produção de material pela IA. Por exemplo, o uso de IA para criar representações de personagens famosos de desenhos animados ou para gerar imagens que envolvam celebridades levanta preocupações legítimas sobre a imunidade da proteção de direitos autorais.

O Projeto de Lei apresentado pelo deputado Aureo Ribeiro (PL1473/23) no Brasil busca exigir que empresas que operam sistemas de IA forneçam ferramentas que permitam aos autores restringir o uso de suas criações por algoritmos. No entanto, a implementação prática desses controles permanece incerta devido à natureza complexa e opaca das IAs, frequentemente chamadas de “caixas-pretas”, e à imensa quantidade de dados necessária para treiná-las.

Nesse contexto, a sociedade enfrenta o desafio de equilibrar a preservação da originalidade e propriedade intelectual com a inovação trazida pela inteligência artificial. A questão central que permanece é: como conciliar a proteção de direitos autorais com a natureza dinâmica e desafiadora da IA? A solução, em última instância, reside em encontrar abordagens éticas e legais que garantam uma compensação justa aos criadores, ao mesmo tempo em que promovem o desenvolvimento tecnológico.

O futuro da proteção de direitos autorais no contexto da IA dependerá da capacidade da sociedade e da legislação se adaptarem em sintonia com os avanços tecnológicos, alcançando um equilíbrio que estimule a inovação responsável e reconheça as contribuições humanas para a criação artística.

Publicado em

ANPD PROPÕE MODELO INSTITUCIONAL PARA REGULAÇÃO DA INTELIGÊNCIA ARTIFICIAL NO BRASIL

A Autoridade Nacional de Proteção de Dados (ANPD) anunciou hoje, 24 de outubro, sua segunda análise (Nota Técnica nº 16/2023/CGTP/ANPD) referente ao Projeto de Lei nº 2338/2023, que trata da regulamentação do uso de inteligência artificial (IA) no Brasil. Este documento apresenta contribuições significativas para a modificação do projeto de lei, propõe um novo modelo institucional, destaca sete áreas cruciais de intersecção entre o projeto de lei e a Lei Geral de Proteção de Dados Pessoais (LGPD) e faz uma comparação com as práticas regulatórias de autoridades internacionais.

A análise da ANPD propõe a criação de um modelo institucional para a regulamentação de sistemas de IA composto por quatro instâncias complementares, com a Autoridade Nacional desempenhando o papel central na regulamentação desse tema. O modelo sugerido pela ANPD inclui uma atuação coordenada entre órgãos do Poder Executivo, órgãos reguladores setoriais, bem como a criação de um Conselho Consultivo, semelhante ao Conselho Nacional de Proteção de Dados e da Privacidade (CNPD), destinado exclusivamente à regulamentação do uso de IA no país.

Conforme indicado no documento, experiências internacionais demonstram que uma abordagem centralizada, sob a égide de uma única autoridade, oferece benefícios indiscutíveis na formulação de normas, como evidenciado nas experiências da União Europeia, França, Holanda e outros países.

Além disso, o documento realça a proposta de que a competência para elaborar, gerenciar, atualizar e implementar a Estratégia Brasileira de Inteligência Artificial (EBIA) seja atribuída ao Poder Executivo, em vez da autoridade competente, como previsto na redação atual do projeto de lei. De acordo com a nota técnica, a ANPD terá a responsabilidade de contribuir, no âmbito de suas atribuições, para o processo de elaboração e implementação da EBIA.

Durante uma audiência pública realizada no Senado Federal, na Comissão Temporária Interna sobre Inteligência Artificial no Brasil, a Diretora Miriam Wimmer defendeu a ideia de uma autoridade central com uma abordagem regulatória mais centralizada, que atue como uma fonte clara e consistente de orientação para todos os setores e partes envolvidas, eliminando ambiguidades e interpretações divergentes que podem resultar em incertezas legais. A Diretora destacou a capacidade da ANPD de adotar uma abordagem transversal e enfatizou que qualquer expansão de competências depende do fortalecimento institucional da ANPD, incluindo independência técnica, autonomia administrativa e decisória, de acordo com o modelo das agências reguladoras previsto na lei das agências.

Miriam também mencionou a criação de um Fórum de Órgãos Reguladores Setoriais, com o objetivo de facilitar a colaboração entre a autoridade central e os órgãos reguladores setoriais na regulamentação do tema.

A nota técnica propõe alterações legislativas nos artigos 32 a 35 do Capítulo VIII do Projeto de Lei nº 2338, que trata da supervisão e fiscalização. No entanto, ressalta que outras modificações podem ser necessárias e que a ANPD está à disposição do Congresso Nacional para discutir as propostas sugeridas.

A contribuição da ANPD tem como objetivo enfatizar o papel ativo da Autoridade no debate sobre a regulamentação da IA e garantir que a futura lei esteja em conformidade com os princípios e diretrizes estabelecidos pela LGPD.

Publicado em

IOT E O DIREITO: NAVEGANDO PELOS DESAFIOS JURÍDICOS DA ERA CONECTADA

A Internet das Coisas (IoT) tem rapidamente transformado a maneira como vivemos, integrando tecnologia em muitos aspectos de nossas vidas cotidianas. A IoT oferece inúmeras vantagens, como maior eficiência, automação e aprimoramento da qualidade de vida, mas ao mesmo tempo apresenta complexos desafios legais que não podem ser negligenciados.

A proteção da privacidade dos usuários é, sem dúvida, um dos principais desafios. Com dispositivos IoT constantemente coletando e compartilhando dados pessoais, a preocupação com o uso inadequado dessas informações é legítima. Uma regulamentação sólida e eficaz é essencial para garantir a privacidade individual e o controle sobre os próprios dados.

Outro ponto crítico é a segurança dos dispositivos conectados. A interconexão de objetos introduz novos riscos, como acesso não autorizado e ameaças cibernéticas. É imperativo que as empresas que desenvolvem esses dispositivos adotem medidas de segurança robustas e que haja legislação estabelecendo padrões mínimos de segurança.

A questão da responsabilidade civil também é digna de atenção. Com a IoT, dispositivos conectados podem causar danos a terceiros, seja por falhas de segurança, mau funcionamento ou ações autônomas do dispositivo. Nesses casos, é fundamental definir quem será responsabilizado pelos danos e como a reparação será efetuada.

A proteção de dados é uma preocupação constante. Dada a quantidade de informações coletadas pelos dispositivos IoT, regras claras sobre coleta, armazenamento e compartilhamento de dados são essenciais. A Lei Geral de Proteção de Dados (LGPD) representa um marco importante nesse contexto, estabelecendo diretrizes para o uso responsável de dados pessoais.

Diante desses desafios, é importante que o direito evolua em paralelo ao avanço tecnológico. Uma legislação atualizada e eficaz é necessária para garantir a proteção dos direitos individuais e o desenvolvimento seguro e responsável da IoT.

A IoT traz consigo uma série de complexos desafios legais que requerem atenção cuidadosa. A proteção da privacidade, a segurança dos dispositivos, a questão da responsabilidade civil e a proteção de dados são questões críticas que exigem uma regulamentação sólida e eficaz, garantindo um progresso seguro e responsável na área da IoT.

Publicado em

PARA ALÉM DAS CORRIDAS: COMO O DRONE SWIFT ESTÁ REDEFININDO LIMITES TECNOLÓGICOS

Recentemente, uma pesquisa divulgada na renomada revista Nature chamou a atenção para o campo das corridas de drones, que poderia ter implicações muito além das pistas. A pesquisa centrou-se em um drone autônomo, denominado Swift, que demonstrou habilidades impressionantes em um circuito de 75 metros com sete portais, onde os drones frequentemente atingem velocidades de até 100 km/h.

Embora a emoção das corridas de drones possa ser comparável às famosas corridas da Fórmula 1, o estudo vai além da simples competição de velocidade. Durante o experimento, pilotos humanos, incluindo um ex-campeão mundial de corrida de drones, tiveram uma semana para se adaptar ao circuito. Contudo, foi o Swift, com sua tecnologia autônoma, que se destacou.

O diferencial do Swift está em sua capacidade técnica. Ele foi desenvolvido com uma abordagem conhecida como “deep reinforcement learning”, que lhe permite adaptar-se e reagir rapidamente às condições da corrida. Segundo o coautor do estudo, essa tecnologia permite ao drone emitir até 100 comandos por segundo, superando facilmente a reatividade humana.

Os drones dirigidos por humanos, por sua vez, têm a capacidade de se adaptar rapidamente a variações de luz e ambiente. No entanto, no que diz respeito à velocidade de processamento e precisão, o Swift mostrou-se superior. Isso não significa que os drones autônomos sejam perfeitos. Eles ainda enfrentam desafios, como a tendência de operar no limite, o que pode resultar em riscos.

Além do cenário de corridas, os insights obtidos com a pesquisa sobre o Swift podem ter aplicações em áreas variadas, desde a robótica industrial até a automação veicular. Entretanto, o foco agora deve ser otimizar a eficiência energética desses drones. Ter uma máquina veloz é inegavelmente impressionante, mas sua utilidade será limitada se sua autonomia de voo for curta.

Em suma, enquanto o Swift representa um passo promissor na direção de drones mais sofisticados e eficientes, ainda há muito trabalho a ser feito para garantir que essas inovações sejam tanto viáveis quanto sustentáveis no longo prazo.

Publicado em

IA E LGPD: A CONVERGÊNCIA TRANSFORMADORA PARA EFICIÊNCIA E QUALIDADE NA GESTÃO DE DADOS PESSOAIS

A evolução tecnológica está profundamente enraizada na estratégia das empresas, independentemente do seu tamanho ou área de atuação. A busca incessante por automatização de processos, contenção de despesas, aprimoramento da tomada de decisões e otimização das operações impulsionou a incorporação de tecnologias inovadoras nos âmbitos empresariais. Dentre essas inovações, a Inteligência Artificial (IA) emerge com destaque, alcançando um patamar exponencialmente relevante nesse ecossistema.

A IA já está sendo adotada ou está em vias de implementação por 75% das organizações consultadas. O estudo realizado pela KPMG, abrangendo 17 países e contemplando 17 mil indivíduos, revela que 56% dos brasileiros entrevistados expressam confiança na Inteligência Artificial. Paralelamente, uma pesquisa conjunta das prestigiadas instituições acadêmicas, Universidade de Stanford e Instituto de Tecnologia de Massachusetts (MIT), divulgou neste ano um aumento notável de 14% na produtividade dos colaboradores, atribuído ao emprego da IA.

Esse incremento na produtividade não se limita a um único setor, mas atravessa as várias esferas de uma empresa. No campo da Proteção e Privacidade de Dados, essa tendência se intensifica, sobretudo após a implementação da Lei Geral de Proteção de Dados (LGPD) em agosto de 2020. A legislação visa regulamentar o tratamento de informações pessoais, estabelecendo um ambiente propício para a aplicação de soluções tecnológicas que garantam a conformidade das empresas com os requisitos legais.

Contudo, surge uma indagação de grande relevância: a Inteligência Artificial possuirá o potencial real de substituir a atuação humana em um futuro próximo? Essa interrogação promove a necessidade de uma mudança paradigmática quanto às contribuições da IA para profissionais e organizações.

Um exemplo que ilustra essa questão é o trabalho dos Data Protection Officers (DPOs) em empresas em processo de adequação à LGPD. Atualmente, a maioria conduz essa adaptação de maneira manual, utilizando planilhas, o que claramente impede a escalabilidade, a eficiência e a continuidade do processo. Para os DPOs, a automação dessas tarefas proporciona mais tempo para a execução de atividades de valor agregado.

A IA, ao conferir escala, eficiência operacional, redução do trabalho repetitivo e precisão nas análises, reconfigura a visão convencional que limita a mudança positiva e enriquecedora no ambiente laboral. Um aspecto notável é que essa abordagem se reflete concretamente no cotidiano do DPO, onde certas etapas do processo de conformidade com a LGPD demandam um tempo considerável, tanto para o DPO quanto para os usuários finais. Surge então uma realidade de plataformas de gestão da LGPD, que automatizam procedimentos e aplicam IA no mapeamento, conferindo agilidade tanto ao DPO quanto aos usuários.

Assim, a IA desempenha um papel de extrema relevância nas organizações, facilitando a adaptação à LGPD. Por meio dessa tecnologia, é viável compreender a finalidade do processamento de dados, auxiliar na identificação e classificação, além de reconhecer e priorizar as áreas de risco elevado para violações, permitindo a adoção de medidas de segurança apropriadas. Paralelamente, ela também transforma o papel do DPO em uma atividade mais estratégica e precisa.

Em síntese, a Inteligência Artificial proporciona vantagens significativas nos setores envolvidos na adaptação à LGPD, especialmente para os DPOs. Ao ampliar a escala, potencializar o desempenho operacional e incrementar a produtividade, a IA capacita a manutenção da qualidade e eficiência do trabalho, mesmo em cenários de elevada demanda de dados. Logo, é importante que as empresas direcionem investimentos para soluções embasadas nessa tecnologia, uma vez que ela oferece um conjunto substancial de benefícios para o dia a dia dos profissionais.

Publicado em

O GESTUAL DE ‘PAZ E AMOR’ NAS FOTOS PODE COMPROMETER SUA SEGURANÇA DIGITAL, ALERTAM PESQUISADORES JAPONESES

O atributo alt desta imagem está vazio. O nome do arquivo é image.png

Uma descoberta do Instituto Nacional de Informática do Japão trouxe à tona preocupações sobre a segurança digital em tempos de compartilhamento frequente de fotos em redes sociais. Os pesquisadores, liderados pelo Professor Isao Echizen, revelaram que o icônico gesto de “paz e amor”, tão popular entre os japoneses em suas imagens, poderia inadvertidamente expor suas digitais a invasões cibernéticas.

Em uma entrevista ao jornal japonês Sankei Shinbum, o Professor Echizen explicou que a simples ação de fazer esse sinal em frente a uma câmera comum poderia resultar na exposição ampla das digitais do fotografado. A equipe conseguiu copiar informações biométricas dos dedos de indivíduos em uma foto tirada a uma distância de até três metros. Isso significa que mesmo com um smartphone comum, contanto que as condições de foco e iluminação estejam adequadas, essa vulnerabilidade poderia ser explorada.

As implicações desse risco são substanciais, considerando que os sensores de digitais são agora comuns em caixas eletrônicos, portas de segurança e smartphones, sendo utilizados como meio de acesso.

No entanto, a equipe do Professor Echizen não apenas identificou o problema, mas também está trabalhando ativamente em uma solução inovadora. Eles estão desenvolvendo uma película fina feita de óxido de titânio, que, quando aplicada, protegerá as digitais de ficarem visíveis nas fotos, ao mesmo tempo em que permitirá o uso de dispositivos de tela sensível ao toque. A previsão é que essa tecnologia de proteção esteja disponível dentro dos próximos dois anos.

Diante dessa descoberta, a conscientização sobre a segurança digital e a proteção das informações biométricas tornam-se essenciais. Como ressaltou o Professor Echizen, essa ameaça potencial supera até mesmo a preocupação com senhas, uma vez que as informações biométricas são imutáveis ao longo da vida. Portanto, entender esses riscos e adotar medidas de precaução torna-se importante para garantir a segurança de nossas informações pessoais em um mundo cada vez mais conectado.