Publicado em

UNIÃO EUROPEIA INICIA NOVA FASE DE REGRAS PARA INTELIGÊNCIA ARTIFICIAL

A partir do último sábado (2), entraram em vigor na União Europeia novas regras voltadas à transparência e à proteção de direitos autorais para sistemas de Inteligência Artificial de propósito geral, como assistentes virtuais e modelos de linguagem. As medidas preveem a obrigação de esclarecer o funcionamento dos modelos e informar quais dados foram utilizados em seu treinamento.

Outra exigência é a adoção de políticas específicas relacionadas a direitos autorais, atendendo a demandas de setores como o artístico e o jornalístico. Para sistemas classificados como de risco sistêmico, será necessária a realização de avaliações de risco e a elaboração de relatórios sobre incidentes.

Essas determinações fazem parte da implementação gradual da Lei de Inteligência Artificial da União Europeia, aprovada no ano passado. Na etapa inicial, já havia sido proibido o desenvolvimento e uso de tecnologias consideradas de risco inaceitável, como sistemas de crédito social e reconhecimento emocional.

O início deste mês também marca a aplicação das penalidades previstas no texto legal. Multas para sistemas classificados como inaceitáveis podem chegar a 35 milhões de euros (cerca de 223 milhões de reais) ou 7% do faturamento global da empresa. Para os demais casos, o valor pode atingir 15 milhões de euros (aproximadamente 95 milhões de reais) ou 3% do faturamento mundial.

A norma europeia tem servido de referência para a elaboração do marco legal brasileiro sobre IA, atualmente em análise na Câmara dos Deputados.

No mês passado, foi publicado um código de práticas para orientar o setor no cumprimento das exigências legais. Dividido em três capítulos, o documento estabelece compromissos em áreas como transparência, direitos autorais e segurança. Embora de adesão voluntária, já conta com a participação de 26 empresas do setor, incluindo alguns dos principais desenvolvedores globais de tecnologia.

Publicado em

TRANSPARÊNCIA E CAPACITAÇÃO: PILARES PARA REDUZIR RISCOS CIBERNÉTICOS NO SETOR DE SAÚDE

No setor de saúde, a segurança da informação enfrenta um desafio singular: proteger dados extremamente sensíveis em um ambiente que exige agilidade operacional e, muitas vezes, convive com sistemas legados. Essa combinação cria condições favoráveis para que criminosos digitais direcionem ataques a hospitais, laboratórios, farmácias e demais organizações da área.

Ainda que a Lei Geral de Proteção de Dados (LGPD) tenha impulsionado investimentos relevantes em tecnologia, é evidente que apenas recursos tecnológicos não bastam. Grande parte dos incidentes de segurança decorre de falhas humanas ou comportamentos inseguros. A engenharia social e o phishing seguem como vetores predominantes, explorando a falta de atenção ou de preparo dos usuários.

Uma estratégia eficaz de proteção exige integração de dados e processos. Centralizar informações provenientes de canais distintos — como plataformas digitais, sistemas de atendimento e pontos físicos — reduz a superfície de ataque e facilita a gestão de riscos. Quanto mais fragmentada for a base de dados, maior a probabilidade de falhas e brechas de segurança.

Entre as medidas que demonstram bons resultados, destacam-se:

  • Aplicação consistente de criptografia em dados sensíveis e realização periódica de testes de intrusão para identificar vulnerabilidades.
  • Disponibilização de portais de transparência, permitindo que titulares consultem, atualizem ou solicitem a exclusão de seus dados pessoais.
  • Atuação preventiva de comitês especializados em segurança para avaliar riscos antes da implementação de novos projetos ou campanhas.
  • Simulações práticas de incidentes para treinar equipes, aperfeiçoando tanto a resposta técnica quanto a comunicação com usuários e clientes.

A forma como a organização reage a um incidente influencia diretamente a preservação da confiança. Posturas transparentes, com comunicação objetiva e tempestiva, transmitem comprometimento e fortalecem a credibilidade institucional.

No contexto da saúde, a segurança da informação deixou de ser tratada como formalidade e passou a integrar a estratégia central das empresas. A questão não é mais se um ataque ocorrerá, mas quando. Estar preparado para esse momento é o que definirá a capacidade de continuidade das operações sem comprometer a integridade de pacientes e dados.

Publicado em

ARMAZENAMENTO PERMANENTE DE CONVERSAS: ATÉ ONDE A TECNOLOGIA PODE IR COM SEUS DADOS?

Uma decisão judicial proferida nos Estados Unidos reacendeu discussões importantes sobre a forma como plataformas de inteligência artificial tratam as interações com seus usuários. Ao determinar que uma popular ferramenta de IA poderá manter registros indefinidos das conversas realizadas, o tribunal lança luz sobre um tema que já preocupa profissionais do Direito, da tecnologia e da proteção de dados: a guarda permanente de informações pessoais em ambientes digitais.

Essa mudança de postura na retenção de dados exige atenção não apenas dos usuários, mas também das autoridades reguladoras e das empresas que operam sistemas baseados em inteligência artificial. A partir do momento em que essas interações deixam de ser transitórias e passam a integrar bancos de dados permanentes, surgem questionamentos legítimos sobre os limites éticos e legais para o uso, a reutilização e até mesmo a análise desses conteúdos.

Ainda que alguns entendam essa medida como um avanço no sentido da transparência e da melhoria de serviços, é preciso considerar os riscos envolvidos. A depender da forma como esses dados forem utilizados, armazenados e compartilhados, pode-se comprometer não apenas a privacidade dos indivíduos, mas também a confiança no uso da tecnologia.

No Brasil, a Lei Geral de Proteção de Dados Pessoais (LGPD) já prevê diretrizes claras quanto à necessidade de informar os titulares sobre o tratamento de seus dados, além de garantir direitos como acesso, retificação e exclusão. A decisão norte-americana levanta, portanto, a reflexão sobre como essas garantias se mantêm válidas quando o processamento de informações ocorre fora do território nacional, por plataformas com alcance global.

De forma semelhante, o Regulamento Geral sobre a Proteção de Dados (GDPR), vigente na União Europeia, reforça o direito do cidadão à autodeterminação informativa. A diferença de posturas entre jurisdições, no entanto, pode provocar um descompasso no grau de proteção efetiva assegurado aos usuários.

Outro ponto delicado está no impacto dessa decisão sobre a relação entre o usuário e a plataforma. Em um contexto onde a segurança das informações se tornou um ativo tão valioso quanto os próprios dados, a ausência de clareza sobre os critérios de retenção e uso pode afastar o público da tecnologia — justamente no momento em que ela se insere com mais intensidade no cotidiano.

Cabe, portanto, às empresas e aos legisladores ampliarem o debate sobre governança algorítmica, transparência e proteção de dados. A evolução tecnológica não pode se dar de forma dissociada da responsabilidade jurídica e ética no trato das informações que pertencem, em última instância, aos próprios cidadãos.

Este momento exige reflexão, responsabilidade e, sobretudo, um esforço conjunto para que o progresso da inteligência artificial se dê com respeito à privacidade, à liberdade e aos direitos fundamentais. Não se trata de frear a inovação, mas de garantir que ela sirva às pessoas, e não o contrário.

Publicado em

COMO O CLIQUE EM ‘ACEITO OS TERMOS’ PODE COMPROMETER SEUS DADOS

O clique no botão “Aceito os termos” se tornou uma ação rotineira na vida digital de muitos usuários. Plataformas de redes sociais, aplicativos e sites frequentemente solicitam esse tipo de consentimento sem que os usuários se preocupem em ler os termos e condições que aceitam. Esse comportamento está se tornando cada vez mais comum, principalmente entre os jovens. Embora as plataformas ofereçam contratos digitais, muitos não têm plena consciência do que estão autorizando, o que pode gerar consequências negativas, especialmente no que diz respeito à privacidade de dados.

A Lei Geral de Proteção de Dados (LGPD), que entrou em vigor em 2020, exige que o consentimento do usuário seja claro, informado e inequívoco. O que significa que os usuários devem entender exatamente que dados estão sendo coletados, qual será a finalidade do uso e com quem as informações serão compartilhadas. No entanto, na prática, esse padrão de consentimento ainda não é amplamente seguido. A Autoridade Nacional de Proteção de Dados (ANPD) tem identificado casos em que a aceitação é feita sem a devida transparência, o que caracteriza um consentimento viciado e coloca as empresas em risco de responsabilidade legal.

A maioria dos termos de uso e políticas de privacidade permite que as empresas coletem uma ampla gama de dados. Esses dados podem incluir informações sobre a localização do usuário, hábitos de navegação, interações em redes sociais, e até conteúdos compartilhados, como fotos, vídeos e áudios. Além disso, aplicativos modernos, especialmente aqueles que integram sistemas de inteligência artificial, costumam incluir cláusulas que permitem o uso de conteúdo publicado para treinar algoritmos, uma prática que muitas vezes não é devidamente destacada no meio de contratos extensos.

Com a introdução da inteligência artificial em diversas plataformas, o uso de dados dos usuários para treinar sistemas de IA se tornou uma prática cada vez mais comum. Em muitos casos, os contratos exigem o aceite de forma automática para que o usuário tenha acesso ao serviço. No entanto, ao aceitar essas condições, o usuário muitas vezes não percebe que está permitindo o uso de suas informações pessoais para finalidades que vão além da interação básica com o serviço.

A LGPD garante aos titulares de dados uma série de direitos, como saber quais informações estão sendo coletadas, corrigir dados errados, limitar o uso de suas informações ou até mesmo pedir a exclusão dos registros. Contudo, para que o usuário possa exercer esses direitos, ele precisa primeiro compreender o que está realmente aceitando ao clicar no botão de consentimento. Muitos especialistas orientam os usuários a procurarem versões resumidas dos termos de uso e políticas de privacidade, revisar as permissões de acesso nos dispositivos e evitar fazer login em sites e aplicativos de terceiros por meio de redes sociais.

Além disso, a revogação do consentimento, quando possível, é uma recomendação importante, principalmente quando a finalidade do uso dos dados muda ao longo do tempo. Embora algumas plataformas já ofereçam ferramentas de privacidade mais acessíveis, o desconhecimento sobre os direitos garantidos pela LGPD ainda é elevado, o que dificulta a plena conscientização dos usuários.

Diante disso, é essencial que os usuários sejam mais críticos e informados sobre os termos e condições aos quais estão aderindo. As empresas, por sua vez, devem garantir que seus contratos digitais sejam claros, acessíveis e verdadeiramente informativos, evitando cláusulas abusivas e o uso inadequado de dados. O consentimento do usuário não deve ser um simples procedimento burocrático, mas um processo transparente e consciente que respeite os direitos dos titulares de dados.

Publicado em

TENHO UM SITE, PRECISO ME PREOCUPAR COM A LGPD?

Se você mantém um site na internet, mesmo que simples ou institucional, a resposta para essa pergunta é sim. A Lei Geral de Proteção de Dados Pessoais (LGPD) se aplica sempre que há coleta, uso, armazenamento ou compartilhamento de dados pessoais. E isso inclui desde formulários de contato até ferramentas de análise de acesso como o Google Analytics.

O ponto central da LGPD é a proteção das informações que possam identificar uma pessoa, direta ou indiretamente. Isso envolve não apenas nome, CPF ou e-mail, mas também dados como endereço IP, localização geográfica e preferências de navegação, que muitas vezes são capturados automaticamente por meio de cookies.

Os cookies, por exemplo, são pequenos arquivos armazenados no dispositivo do visitante para registrar suas interações com o site. Eles podem ser utilizados para melhorar a experiência do usuário, personalizar conteúdo, lembrar preferências ou gerar estatísticas de acesso. No entanto, alguns tipos de cookies são considerados não essenciais e, portanto, só podem ser ativados com o consentimento livre, informado e inequívoco do titular dos dados.

Outro ponto de atenção são os formulários. Quando o visitante preenche um campo com seu nome, telefone ou e-mail para entrar em contato ou fazer uma solicitação, ele está fornecendo dados pessoais. Esses dados devem ser tratados com responsabilidade e apenas para as finalidades informadas no momento da coleta.

A ferramenta de análise de dados, como o Google Analytics, também deve ser configurada para respeitar as exigências da LGPD, evitando o rastreamento indevido ou o compartilhamento de informações sem base legal adequada.

Diante disso, é essencial que seu site contenha uma Política de Privacidade clara e acessível, que informe ao visitante:

  • Quais dados pessoais são coletados
  • Como e por que esses dados são utilizados
  • Com quem eles podem ser compartilhados
  • Quais direitos o titular dos dados possui
  • Como ele pode exercer esses direitos
  • Quem é o responsável pelo tratamento dos dados e como pode ser contatado

Além disso, é necessário ter a exibição de um aviso de cookies logo na primeira visita ao site, permitindo que o usuário aceite ou rejeite os cookies não obrigatórios.

Ter um site é abrir uma porta de entrada para seu negócio ou projeto. E com essa visibilidade vem também a responsabilidade. A conformidade com a LGPD não é apenas uma exigência legal, mas uma demonstração de respeito e compromisso com a privacidade das pessoas que interagem com você no ambiente digital.

Publicado em

CONSUMIDORES EXIGEM MAIOR SEGURANÇA DE DADOS NAS TECNOLOGIAS ATUAIS

A crescente preocupação com a privacidade e segurança dos dados está se tornando um tema dominante entre os consumidores da indústria tecnológica, conforme revelado por uma pesquisa recente. Este estudo, realizado em 2024, envolveu mais de dois mil consumidores e destacou que a grande maioria dos participantes se sente alarmada com as questões de privacidade e segurança em suas vidas diárias, com 77% dos entrevistados expressando preocupação significativa.

Este tema não é apenas uma preocupação de minorias ou gerações mais velhas, mas sim uma questão transgeracional. Desde os Baby Boomers, que demonstram uma preocupação acentuada, até a Geração Z, criada em um ambiente digital, uma significativa parcela de cada grupo etário manifesta inquietação. A preocupação mais expressiva, no entanto, está no setor de criptomoedas, onde apenas uma pequena fração dos entrevistados acredita que o setor está comprometido com a proteção de dados.

Além disso, a pesquisa evidenciou uma sensação de impotência entre os consumidores sobre o controle de seus próprios dados. A maioria dos participantes admitiu ter pouco ou nenhum controle sobre as informações pessoais que fornecem às empresas, um fato que só amplia a desconfiança em relação às práticas de privacidade da indústria.

As consequências dessa desconfiança são amplas e estão impulsionando a demanda por inovações focadas em privacidade. Muitos consumidores estão ansiosos por novos produtos e ferramentas que possam oferecer soluções de privacidade mais eficazes, com uma porcentagem significativa pronta para adotar tecnologias que garantam a proteção dos seus dados.

Este panorama sugere uma encruzilhada crítica para a indústria de tecnologia. É imperativo que as empresas respondam a estas preocupações com ações concretas e inovações significativas. A adoção da criptografia de ponta a ponta e outras tecnologias de proteção de dados não são apenas desejáveis, mas essenciais para restaurar a confiança do consumidor e pavimentar o caminho para a adoção em massa dessas tecnologias.

Assim, enquanto a indústria de tecnologia continua a evoluir, ela enfrenta o desafio substancial de balancear inovação com responsabilidade. Garantir que os avanços tecnológicos vão de mãos dadas com compromissos robustos de privacidade e segurança será decisivo para o futuro da adoção tecnológica e para a aceitação mais ampla pela sociedade. O sucesso neste empreendimento não só determinará a trajetória futura da indústria, mas também definirá a relação entre tecnologia e usuário no novo milênio.

Publicado em

A ERA DOS ESTÚDIOS DE JORNALISMO IMPULSIONADOS POR IA E BLOCKCHAIN

Hoje, um avanço no uso da Inteligência Artificial (IA) em transmissões televisivas marca um novo capítulo na maneira como consumimos notícias. Informações divulgadas indicam que uma grande rede de televisão está prestes a inaugurar seus mais recentes estúdios de jornalismo, integrando de forma pioneira o poder da IA para proporcionar uma experiência mais envolvente aos espectadores. Esta inovação é particularmente visível nos telejornais matutinos, vespertinos e noturnos, que passarão a oferecer conteúdos jornalísticos com um nível de tecnologia e imersão sem precedentes.

A integração da IA nos novos estúdios não se limita apenas a uma atualização estética ou tecnológica superficial. Ela se aprofunda na forma como as notícias são apresentadas, utilizando a IA para analisar e refletir sobre uma ampla gama de dados relacionados a diversos temas. Uma das características mais notáveis dessa inovação é a capacidade de criar múltiplos cenários virtuais dentro de um mesmo espaço físico, o que promete revolucionar a forma como as informações são visualmente compartilhadas com o público.

Paralelamente, a discussão sobre o papel da tecnologia blockchain no contexto da IA ganha destaque, sendo vista como um elemento transformador no setor tecnológico. A blockchain, conhecida por sua robustez na segurança digital, é apontada como um mecanismo fundamental para assegurar a confiabilidade e segurança das aplicações de IA. Esse sistema de registro distribuído oferece uma forma verificável e inalterável de registrar transações e decisões, contribuindo para a confiança e transparência nos sistemas de IA.

Além disso, a interseção entre IA e blockchain abre novas avenidas para a monetização de dados e modelos de IA. Por meio de contratos inteligentes, é possível criar um sistema em que criadores de conteúdo, como fotógrafos, sejam remunerados de forma justa e automática pela contribuição de seus trabalhos na geração de novas criações IA. Esse modelo promove não apenas uma distribuição equitativa de valor, mas também incentiva uma colaboração mais ampla e segura entre criadores e tecnologias.

Essas inovações destacam uma evolução significativa na maneira como as tecnologias de IA e blockchain estão sendo integradas em diversas áreas, desde a transmissão de notícias até a proteção e monetização de propriedade intelectual. Representam um passo em direção a um futuro onde a tecnologia não apenas informa e entretem, mas também protege e recompensa de forma justa a contribuição de cada indivíduo no ecossistema digital.

Publicado em

ANPD LANÇA MAPA DE TEMAS PRIORITÁRIOS PARA MOLDAR O FUTURO DA PROTEÇÃO DE DADOS NO BRASIL

A Autoridade Nacional de Proteção de Dados (ANPD) do Brasil anunciou um marco importante na quarta-feira, 13 de dezembro, com a divulgação da primeira edição do Mapa de Temas Prioritários (MTP). Este documento estratégico delineia áreas focais para futuras atividades de estudo e fiscalização ao longo dos próximos dois anos. Este desenvolvimento representa um avanço significativo, prometendo benefícios tangíveis para a sociedade, incluindo o aprimoramento da governança, maior transparência e previsibilidade nas decisões e ações da ANPD.

O MTP se concentra em quatro eixos de ação essenciais: a proteção dos direitos dos titulares de dados, o tratamento de dados pessoais de crianças e adolescentes no ambiente digital, a aplicação de inteligência artificial em reconhecimento facial e tratamento de dados pessoais, e, finalmente, a questões em torno da raspagem de dados e agregadores de dados.

Esses temas foram selecionados após um processo de análise meticuloso realizado pela Coordenação-Geral de Fiscalização (CGF) da ANPD, em colaboração com diversas áreas técnicas. Este processo incluiu a identificação de áreas críticas em proteção de dados para foco de estudo ou fiscalização, seguido de uma avaliação de demandas anteriores e a consideração de como esses temas se alinham aos objetivos institucionais da ANPD.

Além de estabelecer áreas de foco, o MTP também esclarece o processo decisório da ANPD, os objetivos específicos de cada eixo de ação e as atividades prioritárias. Ele inclui ainda um cronograma detalhado para implementação e destaca a importância da interação com outras entidades da Administração Pública e, quando necessário, com autoridades de proteção de dados de outros países.

Camila Falchetto Romero, a Coordenadora-Geral de Fiscalização Substituta da ANPD, enfatiza a importância do MTP como um complemento vital aos outros instrumentos de governança da ANPD. Segundo ela, a ferramenta é essencial para orientar a direção do órgão nos próximos dois anos, definindo prioridades em estudos e atividades de fiscalização em todas as suas dimensões. Isso visa garantir uma congruência efetiva entre o tratamento de dados pessoais e os mandatos estabelecidos pela Lei Geral de Proteção de Dados Pessoais (LGPD) do Brasil.

Publicado em

COMO DEVERÍAMOS REGULAR A INTELIGÊNCIA ARTIFICIAL EM NOSSA SOCIEDADE?

Atualmente, estamos vivendo uma era onde a inteligência artificial (IA) se tornou um pilar central nas relações econômicas e sociais, operando predominantemente através de plataformas tecnológicas avançadas. Este cenário tem suscitado debates em nível global sobre a necessidade de estabelecer regulamentações para a IA, buscando assim um uso mais ético e responsável dessa tecnologia, de modo a proteger os direitos dos indivíduos.

A União Europeia (UE) está na vanguarda deste movimento com sua proposta conhecida como AI Act. Esta iniciativa tem como objetivo principal assegurar a segurança, respeitar os direitos humanos, incrementar a confiança e a transparência no uso da IA, além de fomentar a inovação no mercado digital unificado. A proposta da UE busca prevenir preconceitos e discriminações e estabelecer diretrizes claras para sistemas de IA de alto e baixo risco. Em contraste, França, Alemanha e Itália recentemente adotaram uma abordagem de autorregulação obrigatória, que envolve códigos de conduta para os principais modelos de IA, uma estratégia que tende a ser menos restritiva do que as regulações governamentais e que pode preservar a competitividade no mercado global.

Nos Estados Unidos, uma ordem executiva assinada pelo presidente Joe Biden em outubro deste ano reflete preocupações similares. Esta ordem exige que desenvolvedores de sistemas de IA compartilhem resultados de testes e segurança com o governo, e estabelece a adoção de padrões pelo Instituto Nacional de Padrões e Tecnologia (NIST). Além disso, impõe a utilização de marca d’água para ajudar a identificar conteúdos criados por IA, uma medida para combater fraudes e desinformação.

No Brasil, inspirado pelo movimento da UE, o Projeto de Lei nº 2.338/2023 está em discussão, visando regulamentar o uso de sistemas baseados em IA. Atualmente, apenas a Lei Geral de Proteção de Dados (Lei 13.709/2018) oferece algum nível de proteção contra riscos relacionados ao uso de IA, principalmente no que tange à revisão de decisões automatizadas que afetam direitos individuais.

Este cenário emergente sinaliza algumas tendências claras em relação à autorregulação na IA. Um dos aspectos centrais é a importância da governança como um elemento chave no uso ético da IA. Existe um consenso crescente em torno de quatro pilares éticos fundamentais para a IA: o respeito à autonomia individual, o princípio da precaução, a equidade e a transparência.

No contexto da autorregulação, os programas de governança em IA são importantes para assegurar o uso ético da tecnologia, a transparência, a responsabilidade corporativa, a segurança e privacidade dos dados, a justiça social, a conformidade legal e regulatória, e a gestão de riscos. É importante notar que, apesar de um consenso teórico sobre estes temas, na prática, muitas empresas de tecnologia enfrentam críticas em relação à eficácia e transparência de seus comitês de ética, alguns dos quais foram até mesmo desmantelados.

Em resumo, a evolução e adaptação das regulamentações em torno da IA são essenciais para garantir seu uso ético e responsável. A definição de um “mínimo ético” com diretrizes universais é fundamental para assegurar princípios inegociáveis na ética da IA, como respeito à autonomia individual, precaução, equidade e transparência. A tendência de autorregulação e os programas de governança em IA tornam-se essenciais para garantir a conformidade legal, a responsabilidade corporativa, a justiça social e a gestão eficiente de riscos. O futuro da IA, portanto, dependerá da capacidade das organizações de integrar esses princípios éticos no desenvolvimento e na implementação de seus sistemas, promovendo um uso da IA que seja benéfico e sustentável para toda a sociedade.