Publicado em

LGPD, DIPLOMACIA DIGITAL E O DESAFIO DAS TRANSFERÊNCIAS INTERNACIONAIS DE DADOS

A revolução digital deste século, marcada pela massificação da internet e pela circulação de informações em escala nunca vista, inaugurou uma nova ordem jurídica para a proteção da privacidade. Os dados pessoais passaram a ser compreendidos como ativos estratégicos, comparados ao “novo petróleo”, exigindo normas específicas para equilibrar inovação tecnológica, segurança e direitos fundamentais.

Foi nesse contexto que surgiram legislações como o Regulamento Europeu de Proteção de Dados (GDPR), em vigor desde 2018, e a Lei Geral de Proteção de Dados (LGPD) no Brasil, que entrou em plena aplicação em 2020. Ambas compartilham a missão de proteger liberdades individuais e assegurar tratamento responsável de dados pessoais, estabelecendo padrões que influenciam empresas em todo o mundo.

Um levantamento recente da International Association of Privacy Professionals aponta que 144 países já contam com normas nacionais de proteção de dados. Isso significa que mais de 6,6 bilhões de pessoas — aproximadamente 82% da população mundial — estão hoje abrangidas por algum tipo de legislação sobre o tema.

Transferências internacionais e soberania regulatória

A LGPD trouxe diretrizes rigorosas para a transferência de dados pessoais ao exterior. Tais fluxos somente são permitidos se o país de destino demonstrar nível de proteção equivalente ao brasileiro ou se forem adotadas salvaguardas específicas, como cláusulas contratuais padrão, regras corporativas globais ou certificações.

Em 2024, a Autoridade Nacional de Proteção de Dados (ANPD) editou resolução que define os critérios de “nível adequado de proteção” e estruturou mecanismos legais para validar transferências internacionais. Trata-se de um movimento alinhado ao que a legislação europeia também exige, ao condicionar a exportação de dados a garantias sólidas de conformidade.

Pressões comerciais dos Estados Unidos

O debate ganhou contornos geopolíticos com a decisão recente do governo norte-americano de instaurar investigação formal contra o Brasil, com base na Seção 301 da Lei de Comércio de 1974. O argumento central é de que a legislação brasileira seria restritiva em excesso, dificultando a livre circulação de dados para os Estados Unidos e impondo barreiras a empresas daquele país.

Para Washington, os requisitos da LGPD podem atrapalhar operações comerciais rotineiras, inviabilizando a prestação de serviços a partir de servidores próprios e comprometendo a integração transfronteiriça. O embate revela como a proteção de dados ultrapassa as fronteiras da privacidade e passa a ocupar espaço estratégico no comércio internacional.

Contrastes com a União Europeia

A situação chama atenção especialmente quando se observa que Estados Unidos e União Europeia assinaram, em 2023, um novo acordo de transferência de dados — o Data Privacy Framework — com o objetivo de restaurar a segurança jurídica para fluxos transatlânticos.

Entretanto, a regulação norte-americana permanece fragmentada e setorial, sem a existência de uma lei federal geral de proteção de dados. Essa ausência cria dificuldades para que outros países reconheçam equivalência de padrões, em especial aqueles que se inspiraram no modelo europeu, como o Brasil.

Desafios e perspectivas

A disciplina sobre transferências internacionais de dados cumpre papel estratégico: preserva a privacidade dos cidadãos, fortalece a soberania normativa e cria previsibilidade para empresas globais. Ao mesmo tempo, estimula a elevação de padrões internacionais e consolida um ambiente digital mais seguro e confiável.

A atuação da ANPD, nesse contexto, tem buscado construir um equilíbrio entre segurança jurídica e valores democráticos, reforçando a ideia de que a regulação de dados não é apenas uma questão técnica, mas também de política pública e diplomacia econômica.

A história do direito ensina que a cada transformação social e tecnológica surgem novas demandas de proteção. Hoje, o desafio é ajustar a legislação ao ritmo das inovações digitais, sem perder de vista a defesa da dignidade humana. O direito da privacidade, que já foi redefinido tantas vezes ao longo dos séculos, continua a se expandir para responder às exigências de um mundo hiperconectado.

Publicado em

UNIÃO EUROPEIA INICIA NOVA FASE DE REGRAS PARA INTELIGÊNCIA ARTIFICIAL

A partir do último sábado (2), entraram em vigor na União Europeia novas regras voltadas à transparência e à proteção de direitos autorais para sistemas de Inteligência Artificial de propósito geral, como assistentes virtuais e modelos de linguagem. As medidas preveem a obrigação de esclarecer o funcionamento dos modelos e informar quais dados foram utilizados em seu treinamento.

Outra exigência é a adoção de políticas específicas relacionadas a direitos autorais, atendendo a demandas de setores como o artístico e o jornalístico. Para sistemas classificados como de risco sistêmico, será necessária a realização de avaliações de risco e a elaboração de relatórios sobre incidentes.

Essas determinações fazem parte da implementação gradual da Lei de Inteligência Artificial da União Europeia, aprovada no ano passado. Na etapa inicial, já havia sido proibido o desenvolvimento e uso de tecnologias consideradas de risco inaceitável, como sistemas de crédito social e reconhecimento emocional.

O início deste mês também marca a aplicação das penalidades previstas no texto legal. Multas para sistemas classificados como inaceitáveis podem chegar a 35 milhões de euros (cerca de 223 milhões de reais) ou 7% do faturamento global da empresa. Para os demais casos, o valor pode atingir 15 milhões de euros (aproximadamente 95 milhões de reais) ou 3% do faturamento mundial.

A norma europeia tem servido de referência para a elaboração do marco legal brasileiro sobre IA, atualmente em análise na Câmara dos Deputados.

No mês passado, foi publicado um código de práticas para orientar o setor no cumprimento das exigências legais. Dividido em três capítulos, o documento estabelece compromissos em áreas como transparência, direitos autorais e segurança. Embora de adesão voluntária, já conta com a participação de 26 empresas do setor, incluindo alguns dos principais desenvolvedores globais de tecnologia.

Publicado em

UNIÃO EUROPEIA IMPÕE UMA ALTA MULTA AO LINKEDIN POR INFRAÇÕES AO GDPR

O LinkedIn foi recentemente condenado a pagar uma multa significativa de 310 milhões de euros (aproximadamente R$ 1,9 bilhão) por violação à legislação de privacidade e proteção de dados da União Europeia. A decisão foi tomada após uma investigação iniciada em 2018 pela Comissão Irlandesa de Proteção de Dados (IDPC), que analisou como a plataforma de rede social processava os dados pessoais de seus usuários.

A denúncia inicial, feita por uma organização francesa de direitos digitais, apontava irregularidades na forma como o LinkedIn solicitava o consentimento dos usuários. Especificamente, as autoridades irlandesas concluíram que a plataforma não informava adequadamente os usuários ao coletar dados de terceiros para fins de análise comportamental e publicidade direcionada, o que configuraria violação ao Regulamento Geral de Proteção de Dados (GDPR).

Além da penalidade financeira, a empresa recebeu um prazo de três meses para ajustar suas práticas aos padrões exigidos pela regulamentação europeia. Em resposta, um representante do LinkedIn afirmou que a empresa não considera que suas práticas violavam o GDPR, mas que está empenhada em aprimorar seus métodos de publicidade e realizar as mudanças solicitadas dentro do prazo estipulado pela IDPC.

Esse caso serve como um importante lembrete da rigidez da legislação europeia de proteção de dados e da crescente vigilância sobre as práticas de coleta e processamento de dados das grandes plataformas digitais.

Publicado em

A SUPREMA ARTE DE RELATIVIZAR DIREITOS FUNDAMENTAIS

A recente decisão do Supremo Tribunal Federal (STF), que julgou constitucional o acesso a dados cadastrais por parte de autoridades policiais e do Ministério Público sem a necessidade de autorização judicial, marca um ponto crítico na fragilização das garantias constitucionais de privacidade e proteção de dados pessoais. Com esse entendimento, o STF não só relativiza direitos fundamentais, como também negligência os precedentes que a própria Corte havia estabelecido em julgamentos anteriores. Sob a justificativa de combater crimes como a lavagem de dinheiro, a Corte colocou em risco uma das maiores conquistas da Constituição de 1988: a proteção da intimidade e dos dados pessoais como direitos inalienáveis.

O Contexto da ADI 4906 e o Perigo do Acesso Indiscriminado

A Ação Direta de Inconstitucionalidade (ADI) 4906 foi protocolada em 01 de fevereiro de 2013 pela Associação Brasileira de Concessionárias de Serviço Telefônico Fixo Comutado (ABRAFIX), que questionava a constitucionalidade do art. 17-B da Lei nº 9.613/1998. Esse dispositivo permite que autoridades policiais e o Ministério Público requisitem, sem necessidade de ordem judicial, dados cadastrais básicos (qualificação pessoal, filiação e endereço) de pessoas investigadas por crimes graves, como a lavagem de dinheiro.

Desde o início, a ação trazia à tona um debate profundo sobre a necessidade de equilibrar os poderes investigativos do Estado e a proteção dos direitos individuais, em especial, a privacidade. Em 03 de fevereiro de 2014, o Supremo admitiu a Associação Nacional dos Delegados de Polícia Federal (ADPF) como amicus curiae, permitindo que ela sustentasse seus argumentos a favor da manutenção da norma que possibilitava o acesso irrestrito aos dados cadastrais.

Contudo, o verdadeiro choque veio com a suspensão do julgamento em 05 de julho de 2023. Com votos de ministros como Gilmar Mendes, Edson Fachin, Dias Toffoli e Rosa Weber, que defendiam a parcial procedência da ação, limitando o acesso aos dados estritamente necessários — qualificação pessoal, filiação e endereço — o julgamento foi suspenso para aguardar o voto do novo ministro. A decisão final, proferida em 11 de setembro de 2024, foi um golpe na proteção dos direitos fundamentais, uma vez que a maioria dos ministros julgou improcedente o pedido da ação e manteve a constitucionalidade do dispositivo, permitindo o acesso aos dados sem supervisão judicial.

Incoerência Constitucional: Uma Contradição com Precedentes Recentes

Um dos pontos mais críticos dessa decisão é a incoerência com precedentes anteriormente firmados pelo próprio STF. Em 2020, a Corte suspendeu a Medida Provisória 954/20, que previa o compartilhamento de dados de usuários de telecomunicações com o IBGE para fins estatísticos durante a pandemia de COVID-19. Na ocasião, a Corte foi rigorosa ao destacar que o compartilhamento de dados sem salvaguardas adequadas violaria os direitos à privacidade e à proteção de dados. O então ministro Alexandre de Moraes foi enfático ao apontar a violação da intimidade e vida privada, estabelecendo que a relativização de direitos fundamentais deve seguir estritos princípios de razoabilidade e proporcionalidade.

Por que, então, o STF seguiu caminho diferente na ADI 4906? É grave subestimar a relevância dos dados cadastrais na era digital. O acesso indiscriminado a informações como nome, endereço e filiação pode ser o ponto de partida para práticas de vigilância estatal indevida, abrindo brechas para abusos e violando garantias constitucionais.

Autodeterminação Informativa: Um Direito Fundamental Ignorado

Desde a decisão de 2020 sobre a MP 954/20, o STF já havia reconhecido o direito à autodeterminação informativa como um direito fundamental autônomo, derivado dos direitos à privacidade e à dignidade humana, conforme o artigo 5º, incisos X e LXXIX da Constituição. Esse direito se traduz na capacidade do indivíduo de controlar suas próprias informações, decidindo como e por quem elas podem ser acessadas. A autodeterminação informativa é um conceito crucial em um mundo cada vez mais digitalizado, onde o controle sobre dados pessoais é sinônimo de liberdade.

Ao permitir o acesso a dados cadastrais sem a devida autorização judicial, o STF enfraquece a autodeterminação informativa, criando uma perigosa exceção à regra constitucional. Dados cadastrais podem parecer superficiais, mas quando cruzados com outras informações, permitem a construção de perfis detalhados e a vigilância contínua de indivíduos, comprometendo a privacidade e, por extensão, a dignidade humana. É inadmissível que o tribunal ignore essa realidade.

A LGPD e o Marco Civil da Internet: Proteções Ignoradas

A Lei Geral de Proteção de Dados (LGPD) e o Marco Civil da Internet estabelecem proteções rigorosas para o tratamento de dados pessoais. A LGPD, em especial, delineia princípios como finalidade, transparência, necessidade e segurança no tratamento de dados, exigindo que o acesso a informações pessoais tenha uma justificativa legal robusta. O acesso indiscriminado a dados cadastrais, sem supervisão judicial, é um flagrante desrespeito aos princípios da LGPD. A lei foi criada exatamente para evitar que o Estado ou entidades privadas usem dados pessoais de maneira arbitrária ou desproporcional.

O Marco Civil da Internet, por sua vez, reforça a proteção dos dados pessoais, limitando o acesso a essas informações sem autorização judicial. Portanto, ao declarar constitucional o acesso aos dados cadastrais sem supervisão, o STF ignorou esses marcos legais que foram instituídos precisamente para proteger a privacidade dos cidadãos.

O Perigo da Relativização dos Direitos Fundamentais

Relativizar direitos fundamentais em nome da segurança pública é um caminho perigoso. O combate à criminalidade não pode ser utilizado como pretexto para a violação da privacidade dos cidadãos. A Constituição Federal, em seu artigo 5º, inciso XII, protege o sigilo de comunicações e de dados pessoais, e essa proteção não pode ser lida de maneira restritiva. O acesso a dados cadastrais, ainda que não envolvam o conteúdo de comunicações, faz parte da proteção à privacidade e deve ser tratado com o mesmo rigor.

Ao permitir o acesso indiscriminado a essas informações, o STF criou uma brecha perigosa que pode ser explorada para abusos no futuro. A vigilância estatal, por mais justificada que possa parecer em situações excepcionais, deve sempre ser supervisionada pelo Judiciário, que funciona como barreira contra a erosão dos direitos individuais. A decisão da Corte, ao permitir o acesso irrestrito, sem controle judicial, mina essa barreira e enfraquece as garantias fundamentais.

Direito Comparado: Lições Ignoradas pela Corte

Em julgamentos anteriores, o STF fez uso de precedentes do direito comparado para sustentar suas decisões. No caso da MP 954/20, o Tribunal de Justiça da União Europeia e o Tribunal Constitucional Alemão foram amplamente citados para reforçar a importância da proteção de dados e da autodeterminação informativa. Por que esses precedentes foram ignorados na ADI 4906? A decisão da União Europeia no caso Digital Rights Ireland e a lei do censo de 1983 na Alemanha estabeleceram a necessidade de limites claros para o acesso a dados pessoais, exatamente para evitar que o Estado se torne uma ferramenta de vigilância.

O Tribunal Constitucional Alemão, ao reconhecer a autonomia do direito à autodeterminação informativa, destacou que o processamento de dados pessoais deve ser restrito para garantir que o Estado não ultrapasse os limites de sua função. Essas lições deveriam ter servido como guia para o STF, mas a Corte, ao contrário, ignorou as advertências do direito comparado, favorecendo uma postura mais permissiva.

Vigilância Estatal: Um Risco Imediato

O perigo de um Estado vigilante está mais presente do que nunca. O art. 12 da Declaração Universal dos Direitos Humanos, que o Brasil ratificou, proíbe ingerências arbitrárias na vida privada dos cidadãos. A partir do momento em que o Estado tem acesso irrestrito a dados cadastrais sem a necessidade de autorização judicial, cria-se o risco de um aparato de vigilância institucionalizado. Essa realidade é exacerbada em um contexto de avanço tecnológico, no qual informações triviais podem ser facilmente agregadas para revelar aspectos profundos da vida de um indivíduo.

A vigilância estatal constante é uma ameaça não apenas à privacidade, mas à própria liberdade. A história nos ensina, através de exemplos trágicos, que o controle estatal de informações pessoais pode ser usado para abusos e perseguições, como ocorreu na Alemanha nazista. A decisão do STF nos coloca em um caminho preocupante, que deve ser revertido antes que as liberdades individuais sejam completamente corroídas.

O Papel do STF: Guardião ou Flexibilizador dos Direitos Fundamentais?

O STF tem uma responsabilidade sagrada como guardião da Constituição. Seu dever é assegurar que os direitos fundamentais dos cidadãos prevaleçam sobre as pressões do Estado, especialmente em tempos de incerteza e crise. No entanto, ao flexibilizar o acesso a dados pessoais sem supervisão judicial, a Corte corre o risco de se transformar em um facilitador de práticas abusivas, que minam a confiança dos cidadãos no Estado e no Judiciário.

A função do Judiciário não é apenas garantir a aplicação da lei, mas também proteger as liberdades individuais contra a intervenção excessiva do Estado. Ao abdicar desse papel fiscalizador, o STF enfraquece o próprio fundamento da democracia.

Conclusão: A Defesa Intransigente da Privacidade

A decisão do STF de permitir o acesso irrestrito a dados cadastrais sem autorização judicial representa um retrocesso na proteção dos direitos fundamentais. A privacidade não pode ser relativizada em nome de conveniências institucionais ou sob o pretexto de facilitar investigações criminais. O direito à autodeterminação informativa, consagrado pela Constituição, deve ser protegido de maneira rigorosa, sem exceções que comprometam a integridade dos direitos dos cidadãos.

O STF, como guardião da Constituição, tem a responsabilidade de reverter essa decisão e garantir que a privacidade e a proteção de dados pessoais sejam tratadas com a Constitucionalidade que merecem. A privacidade é a base da dignidade humana, e sem ela, a liberdade individual é comprometida.

Que a defesa da privacidade e da proteção de dados seja intransigente, pois não há maior patrimônio em uma democracia do que a garantia de que os direitos fundamentais dos cidadãos sejam preservados e respeitados em sua totalidade.

Publicado em

DESAFIOS REGULATÓRIOS NA ERA DIGITAL: REFLEXÕES A PARTIR DA DENÚNCIA SOBRE A APLICAÇÃO TEMU

A denúncia recente recebida pela “Iniciativa CpC: Cidadãos pela Cibersegurança” sobre a aplicação móvel TEMU levanta preocupações significativas em relação à proteção de dados, privacidade digital e à eficácia dos mecanismos regulatórios vigentes.

As práticas relatadas no caso chamam a atenção pela possibilidade de uma aplicação móvel acessar, processar e utilizar dados pessoais de maneira que pode ser considerada invasiva, sem que o usuário tenha um conhecimento claro ou tenha dado consentimento explícito. Este tipo de comportamento pode ser interpretado como uma contravenção ao Regulamento Geral sobre a Proteção de Dados (RGPD) e pode comprometer a confiança dos consumidores nas plataformas digitais, que têm o dever de resguardar a segurança e a privacidade dos seus usuários.

A resposta da Comissão Nacional de Proteção de Dados (CNPD) também merece análise. Ao direcionar o reclamante para a própria empresa acusada de violação de privacidade, a CNPD pode estar deixando de cumprir plenamente sua função de defesa dos direitos dos cidadãos. Tal postura sugere a necessidade de uma revisão dos mecanismos de proteção de dados, especialmente em um cenário digital cada vez mais complexo e globalizado.

O caso expõe dois problemas centrais: o primeiro, relacionado às empresas que podem estar se aproveitando de lacunas na regulamentação para explorar dados dos usuários de maneira inadequada; e o segundo, à estrutura regulatória que, por vezes, não oferece a proteção esperada, deixando os cidadãos em uma posição vulnerável frente a empresas que atuam em diversas jurisdições.

Esses desafios apontam para a necessidade de uma revisão das políticas de proteção de dados e de uma cooperação mais efetiva entre os países da União Europeia. A fragmentação das responsabilidades regulatórias, onde cada país é responsável pelas entidades sediadas em seu território, pode resultar em uma aplicação menos eficaz da legislação, principalmente no caso de grandes empresas tecnológicas que operam em múltiplos países.

Além disso, a exigência de que as queixas sejam apresentadas em inglês a uma entidade estrangeira, como a Data Protection Commission (DPC) na Irlanda, pode representar um obstáculo adicional para muitos cidadãos, dificultando o exercício dos seus direitos. Este é um ponto que o Parlamento Europeu deve considerar com seriedade, assegurando que os cidadãos da UE possam exercer seus direitos de maneira acessível e justa, sem serem prejudicados por barreiras linguísticas ou geográficas.

O caso da TEMU sugere que é necessário um maior rigor na análise das permissões e na transparência da coleta de dados em aplicações móveis, além de uma atenção redobrada para possíveis falhas no sistema de proteção de dados da União Europeia. É importante que a CNPD e outras autoridades competentes adotem uma abordagem mais proativa, garantindo que os direitos dos consumidores sejam devidamente protegidos, sem transferir responsabilidades para os próprios consumidores.

Publicado em

REGULAMENTO EUROPEU: ESTABELECENDO PADRÕES PARA UMA IA CONFIÁVEL NA UNIÃO EUROPEIA

O Regulamento (UE) 2024/1689 foi implementado com o intuito de uniformizar as normas referentes à inteligência artificial (IA) em toda a União Europeia, promovendo uma IA que prioriza a confiabilidade e o bem-estar humano. Este regulamento visa proteger a saúde, segurança e direitos fundamentais dos cidadãos, ao mesmo tempo em que incentiva a inovação tecnológica.

Sistemas de IA de Alto Risco

Os sistemas de IA considerados de alto risco são aqueles que podem ter um impacto significativo na saúde, segurança ou direitos fundamentais das pessoas. Exemplos destes sistemas incluem IA utilizada em diagnósticos médicos, processos de recrutamento e vigilância pública.

Requisitos para Sistemas de Alto Risco

Para assegurar que esses sistemas operem de maneira segura e ética, o regulamento estabelece critérios rigorosos a serem seguidos:

  • Transparência: Deve ser claramente informado quando estamos interagindo com uma IA.
  • Segurança: Esses sistemas devem passar por avaliações de conformidade e manter registros detalhados.
  • Ética: É imperativo que os usuários saibam que estão interagindo com uma IA e que seus dados sejam tratados com segurança e responsabilidade.

Garantindo Segurança e Confiabilidade

A transparência é um pilar fundamental para garantir que os dados utilizados pelos sistemas de IA sejam seguros e confiáveis. Essa abordagem visa proteger os direitos de todos os cidadãos, promovendo uma IA ética e centrada no ser humano.

Publicado em

RELATÓRIO DA UNIÃO EUROPEIA QUESTIONA A PRECISÃO DOS DADOS DO CHATGPT

A equipe de defesa da privacidade da União Europeia (UE) avaliou que os esforços da OpenAI para reduzir o número de informações falsas geradas pelo ChatGPT ainda não são suficientes para cumprir as rigorosas políticas de dados da UE.

Conforme detalhado em um relatório publicado no site da equipe, as medidas adotadas para aumentar a transparência, apesar de úteis para evitar interpretações errôneas dos resultados do ChatGPT, ainda não atendem plenamente ao critério de precisão de dados exigido pela legislação europeia.

No ano passado, conforme noticiado pela Reuters, autoridades europeias de proteção de dados formaram uma equipe especializada para abordar questões específicas relacionadas ao ChatGPT. Essa ação foi motivada por preocupações levantadas por reguladores nacionais sobre o uso crescente deste serviço de inteligência artificial.

O relatório aponta que algumas investigações conduzidas por organizações nacionais de proteção de dados em vários Estados-Membros ainda estão em andamento. Portanto, os resultados apresentados devem ser entendidos como observações preliminares comuns a essas autoridades. A exatidão dos dados é uma das principais diretrizes da regulamentação de proteção de dados da UE.

“Devido à natureza probabilística do sistema, a metodologia atual de treinamento pode gerar informações tendenciosas ou fictícias,” destaca o relatório. “Além disso, os usuários finais podem interpretar os resultados gerados pelo ChatGPT como fatos precisos, especialmente quando se referem a dados sobre indivíduos, sem verificar a veracidade dessas informações.”

Esse levantamento sublinha a importância de medidas adicionais para garantir que as saídas do ChatGPT não apenas evitem erros interpretativos, mas também cumpram os elevados padrões de precisão de dados exigidos pela UE.

Publicado em

META UTILIZA DADOS DE USUÁRIOS PARA TREINAR IA, EXCETO NA UNIÃO EUROPEIA

Recentemente, foi revelado que a Meta está utilizando informações de perfis de usuários do Instagram e Facebook para aprimorar seus modelos de Inteligência Artificial (IA). Essa coleta abrange postagens e comentários, que são integrados aos sistemas de IA generativa da empresa. No entanto, contas localizadas na União Europeia estão isentas desse processo devido às rigorosas legislações de privacidade.

Dada a regulamentação de proteção de dados no Reino Unido e na União Europeia, a Meta é obrigada a informar os usuários sobre a coleta e uso de seus dados. Para isso, está enviando e-mails detalhados aos usuários do Instagram e Facebook, esclarecendo as mudanças na Política de Privacidade.

Conforme comunicado pelo portal 9to5Mac, esses e-mails destacam a ampliação das iniciativas de IA da empresa e afirmam que a Meta usará a base legal dos “interesses legítimos” para o uso dos dados dos usuários.

Modelo de e-mail enviado pela Meta:

Atualização da Política de Privacidade com Expansão da IA na Meta

Olá, ,

Estamos nos preparando para expandir nossas experiências de IA na Meta para sua região. A IA na Meta é nossa coleção de recursos e experiências generativas de IA, incluindo Meta AI e ferramentas criativas de IA, juntamente com os modelos que os alimentam.

O que isso significa para você

Para oferecer essas experiências, utilizaremos a base legal dos interesses legítimos para usar suas informações no desenvolvimento e melhoria da IA na Meta. Você tem o direito de se opor a essa utilização. Caso opte pela objeção, ela será aplicada daqui em diante.

Atualizamos nossa Política de Privacidade para refletir essas mudanças. As atualizações entram em vigor em 26 de junho de 2024.

Obrigado, equipe Meta Privacy”

A nova versão da Política de Privacidade, que entrará em vigor no dia 26 de junho, concede aos usuários o direito de recusar o uso de seus dados para o treinamento de IA. O e-mail esclarece que, caso a objeção seja validada, as informações da conta deixarão de ser usadas para esse propósito. No entanto, a aprovação não é garantida, e os usuários devem justificar sua objeção.

O Regulamento Geral de Proteção de Dados (GDPR) da União Europeia proporciona proteções robustas contra o uso impróprio de dados pessoais, permitindo aos usuários solicitar a remoção de suas informações e obter uma cópia dos dados utilizados. A Meta utiliza a base legal dos “interesses legítimos” para processar dados, uma prática que, apesar de autorizada para objetivos empresariais, enfrenta críticas devido à sua interpretação ampla.

Embora a Meta esteja sob críticas, a empresa afirma que processa automaticamente as solicitações de desativação. Usuários relataram nas redes sociais que, após enviarem a recusa, receberam um e-mail confirmando que seu pedido foi aceito e será cumprido.

Publicado em

RELATÓRIO DA UNIÃO EUROPEIA APONTA INSUFICIÊNCIAS NA TRANSPARÊNCIA DO CHATGPT

Uma equipe do órgão de defesa da privacidade da União Europeia (UE) divulgou um relatório indicando que os esforços da OpenAI para diminuir o número de resultados factualmente incorretos do ChatGPT ainda não são suficientes para atender às rigorosas políticas de dados da UE.

O relatório aponta que, embora as iniciativas para aumentar a transparência sejam positivas para evitar interpretações errôneas dos resultados do ChatGPT, essas medidas não bastam para garantir a precisão dos dados, conforme exigido pelas normas da UE.

No ano passado, as autoridades europeias de proteção de dados formaram uma equipe especializada para abordar questões relacionadas ao ChatGPT, após preocupações levantadas por reguladores nacionais sobre o serviço de inteligência artificial amplamente utilizado. Segundo o relatório, investigações conduzidas por organizações nacionais de proteção de dados em vários Estados-Membro ainda estão em andamento, e, portanto, os resultados completos não podem ser divulgados. Assim, os pontos destacados no relatório devem ser vistos como observações comuns entre as autoridades nacionais.

Uma regra fundamental de proteção de dados na UE é a exatidão. No entanto, o relatório enfatiza que, devido à natureza probabilística do ChatGPT, o modelo pode gerar informações tendenciosas ou fabricadas. Além disso, os resultados fornecidos pelo ChatGPT podem ser interpretados pelos usuários como fatos precisos, sem considerar a veracidade das informações.

É importante ressaltar a necessidade contínua de melhorar os mecanismos de precisão no ChatGPT para que se alinhem plenamente com os rigorosos padrões de proteção de dados da UE, destacando os desafios e a complexidade envolvidas na gestão da precisão em sistemas de inteligência artificial.

Publicado em

REGULAMENTAÇÃO DA IA: LIÇÕES DA UNIÃO EUROPEIA E PERSPECTIVAS PARA O BRASIL

Em 10 de abril de 2018, vinte e quatro Estados-Membros da União Europeia assinaram um termo de cooperação durante o evento “Digital Day 2018” para tratar da inteligência artificial (IA). Em 25 de abril do mesmo ano, a Comissão Europeia emitiu uma comunicação sobre IA, sugerindo o avanço da capacidade tecnológica e industrial da União Europeia em prol da IA, a preparação para mudanças socioeconômicas decorrentes dessa tecnologia e a criação de um marco regulatório eficaz, baseado em valores democráticos e na proteção dos direitos fundamentais, para garantir o desenvolvimento ético da IA.

A Comissão Europeia solicitou que os Estados-Membros coordenassem planos estratégicos nacionais para a implementação da IA até o final de 2018. Na ocasião, foi criado o Grupo de Peritos de Alto Nível em Inteligência Artificial (AI HLEG), composto por pesquisadores, acadêmicos, representantes da indústria e da sociedade civil. Paralelamente, foi estabelecida a “Aliança Europeia para a IA” para fomentar a participação democrática, incluindo audiências públicas sobre diversos temas relacionados à IA.

Em 18 de dezembro de 2018, o AI HLEG submeteu à consulta pública o primeiro esboço das “Diretrizes Éticas para a Fiabilidade da Inteligência Artificial”. Após debates intensos, a versão final foi apresentada em 8 de abril de 2019, intitulada “Ethics Guidelines for Trustworthy AI”. Este documento delineou quatro princípios éticos fundamentais:

  1. Respeito à autodeterminação humana: A IA deve respeitar os direitos e garantias fundamentais, bem como a democracia.
  2. Prevenção de danos: Devem ser adotadas medidas robustas para evitar danos aos seres humanos.
  3. Justiça: Garantir uma distribuição equitativa dos benefícios e custos, eliminando qualquer tipo de preconceito.
  4. Transparência e clareza: Os sistemas de IA devem ser compreensíveis para os operadores humanos.

Além dos princípios, foram apresentados requisitos para a fiabilidade da IA, abrangendo supervisão humana, robustez técnica, privacidade e proteção de dados, transparência, diversidade, bem-estar social e ambiental, e prestação de contas.

Em 7 de dezembro de 2018, a União Europeia estabeleceu um plano coordenado de medidas para a implementação da IA, incentivando os Estados-Membros a elaborarem planos nacionais até meados de 2019. Posteriormente, em 19 de fevereiro de 2020, a Comissão Europeia lançou o relatório “White Paper on Artificial Intelligence: an European approach to excellence and trust”, reforçando as diretrizes éticas e destacando a necessidade de regulação da responsabilidade civil por danos causados por produtos e serviços de IA. Sugeriu-se a revisão da “Product Liability Directive” de 1985, para abordar as complexidades da IA, como a dificuldade de provar defeitos de programação em tecnologias como carros autônomos.

Na mesma data, a Comissão Europeia aprovou o plano estratégico para os dados, prevendo um aumento significativo no volume de dados na era do Big Data. Este plano destacou a cooperação internacional necessária para a aplicação de medidas regulatórias devido à circulação transfronteiriça de dados.

Nos Estados Unidos, o “Future of AI Act” de 2017 propôs diretrizes éticas para o desenvolvimento de IA, sem abordar diretamente a área da saúde. Documentos recentes, como o “Artificial Intelligence Act” europeu e o “Algorithmic Accountability Act” norte-americano, evitam discutir a terminologia de “inteligência”, preferindo referir-se a “sistemas decisionais automatizados” e reafirmando a importância de parâmetros éticos para o desenvolvimento de algoritmos.

No Brasil, várias iniciativas legislativas buscaram regulamentar a IA, mas com propostas inicialmente superficiais. Em fevereiro de 2022, foi instituída uma comissão de juristas para elaborar um substitutivo sobre IA, resultando no Projeto de Lei nº 2.338/2023. Este projeto, inspirado na abordagem europeia, estratifica soluções conforme o grau de risco de cada atividade de IA.

Desde sua apresentação, o projeto recebeu diversas emendas parlamentares e está sendo analisado pela Comissão Temporária Interna sobre Inteligência Artificial no Brasil, um fórum multissetorial que garante regulamentações abrangentes e eficazes, equilibrando inovação tecnológica e proteção de direitos fundamentais. A versão mais recente, proposta em abril de 2024, reflete uma preocupação com a parametrização ética, alinhando-se aos princípios europeus.

A aprovação do Regulamento Geral Europeu sobre IA representa um marco significativo, baseado em princípios éticos que contribuem para o debate sobre responsabilidade civil. Este esforço europeu, resultado de anos de discussões, serve de exemplo inspirador para outras nações, incluindo o Brasil, onde os trabalhos legislativos sobre IA continuam em andamento, merecendo atenção e acompanhamento cuidadoso.

Publicado em

A APROVAÇÃO DA LEGISLAÇÃO SOBRE INTELIGÊNCIA ARTIFICIAL NA UNIÃO EUROPEIA

Recentemente, o Parlamento Europeu aprovou uma legislação destinada a regular o uso da inteligência artificial na União Europeia, marcando um momento histórico no cenário global. Essa é a primeira vez que uma legislação oficial para essa tecnologia é estabelecida em nível mundial, com o objetivo de proteger os direitos fundamentais da sociedade. Essa decisão pode influenciar outras regiões do mundo a seguirem iniciativas semelhantes.

Essa conquista pode ser comparada à aprovação do Regulamento Geral sobre a Proteção de Dados (GDPR) pela União Europeia em 2018, que serviu de inspiração para a criação de legislações semelhantes em outras partes do mundo. No Brasil, por exemplo, há uma crescente discussão sobre a regulamentação do uso da inteligência artificial, com diversos projetos de lei em tramitação no Congresso Nacional.

Para fornecer insights adicionais sobre este tema, especialistas respeitados no campo da privacidade e proteção de dados podem oferecer contribuições valiosas. Esse diálogo é essencial para entender as complexidades e implicações da regulamentação da inteligência artificial, especialmente à luz das experiências anteriores com legislações de proteção de dados.

Publicado em

PARLAMENTO EUROPEU ESTABELECE MARCO REGULATÓRIO PARA INTELIGÊNCIA ARTIFICIAL

Na recente aprovação pelo Parlamento Europeu da primeira legislação destinada a regular o uso da inteligência artificial (IA) dentro da União Europeia, testemunhamos um marco significativo no direcionamento das políticas tecnológicas globais. Este desenvolvimento, inédito em sua essência, é impulsionado pela intenção de assegurar que os avanços tecnológicos se alinhem com os direitos fundamentais da sociedade, estabelecendo um precedente que provavelmente inspirará iniciativas regulatórias similares ao redor do mundo.

A nova legislação serve como um paradigma ético e jurídico, visando equilibrar o progresso tecnológico com a proteção dos indivíduos, de maneira similar ao impacto que o Regulamento Geral sobre a Proteção de Dados (GDPR) teve desde sua implementação em 2018 pela União Europeia. O GDPR não apenas reformulou as práticas de privacidade e proteção de dados mas também motivou a criação de legislações correspondentes em diversas jurisdições, demonstrando o potencial de tais regulamentações para modelar padrões globais.

No contexto brasileiro, percebe-se um crescente interesse legislativo pela inteligência artificial, refletido na tramitação de numerosas propostas que buscam estabelecer um marco regulatório para o uso da IA. Esta movimentação evidencia um reconhecimento da necessidade de diretrizes claras para orientar o desenvolvimento tecnológico de forma responsável e alinhada com os interesses da sociedade.

A adoção desta legislação na União Europeia ressalta a importância de um diálogo contínuo e informado sobre as implicações éticas, sociais e legais da inteligência artificial. Ao mesmo tempo, sublinha a urgência em estabelecer frameworks regulatórios que possam não apenas promover a inovação mas também garantir que tal inovação proceda de forma ética e com respeito aos direitos humanos fundamentais. A iniciativa europeia pode, portanto, servir de inspiração para que outras regiões desenvolvam suas próprias abordagens regulatórias, ajustadas às suas realidades específicas e aos desafios apresentados pela IA.