Publicado em Deixe um comentário

CANAIS DE COMUNICAÇÃO NA LGPD: COMO TORNAR O PROCESSO SIMPLES E EFICIENTE?

Com a entrada em vigor da Lei Geral de Proteção de Dados (LGPD), as empresas brasileiras passaram a lidar com um dos aspectos mais desafiadores da legislação: a criação de canais de comunicação acessíveis e seguros para atender os titulares de dados. Esses canais são essenciais para que as organizações garantam o direito de acesso, retificação, exclusão e demais solicitações previstas na lei. Contudo, como tornar esse processo eficiente e ao mesmo tempo proteger as informações que estão em trânsito?

A necessidade de um canal acessível e seguro

A LGPD exige que as empresas disponibilizem meios de comunicação para que os titulares possam exercer seus direitos. Um canal eficiente não apenas evita penalidades e protege a empresa de litígios, mas também demonstra transparência e comprometimento com a privacidade dos dados.

  • Acessibilidade: O canal precisa ser de fácil acesso, tanto para pessoas com diferentes níveis de alfabetização digital quanto para aquelas com necessidades especiais. Isso inclui disponibilizar informações em linguagem simples e oferecer múltiplas formas de contato, como e-mail, formulários no site, chatbots e até mesmo atendimento presencial.
  • Segurança: É imprescindível garantir a proteção das informações transmitidas pelo canal. Isso inclui a utilização de conexões criptografadas, autenticação de usuários e mecanismos para evitar acessos não autorizados. A segurança do canal reflete diretamente na confiança que os titulares depositam na empresa.

Exemplos de sistemas para implementação

  1. Plataformas de gestão de solicitações (Data Subject Access Request – DSAR): Ferramentas como o OneTrust e TrustArc são exemplos de plataformas específicas para atender às exigências da LGPD. Elas centralizam as solicitações de titulares, automatizam processos e garantem o registro de todas as interações.
  2. Formulários Online Personalizados: Empresas podem usar ferramentas como Google Forms, Typeform ou soluções próprias em seus sites para criar formulários intuitivos. É importante que essas plataformas estejam integradas a sistemas que garantam o armazenamento seguro das informações coletadas.
  3. Chatbots Inteligentes: Soluções como o Twygo ou Zendesk Chat permitem a automação de respostas iniciais, reduzindo o tempo de espera e encaminhando solicitações complexas para atendentes humanos.
  4. E-mail Seguro com Certificação:
    Criar um endereço de e-mail exclusivo para questões de dados pessoais, como privacidade@empresa.com.br, e protegê-lo com ferramentas de certificação digital, como o SSL/TLS, para garantir a confidencialidade da comunicação.
  5. Portais de Privacidade para Autonomia do Titular: Desenvolver um portal dedicado no site da empresa onde o titular possa verificar os dados que possui com a empresa e até mesmo realizar solicitações diretamente, sem intermediários.

Boas práticas para otimizar o canal

  • Treinamento da Equipe: Quem opera o canal precisa estar preparado para orientar o titular, reconhecer solicitações legítimas e lidar com possíveis crises.
  • SLA (Service Level Agreement): Defina prazos claros para resposta e resolução das solicitações, alinhando expectativas com os titulares.
  • Feedback do Usuário: Periodicamente, colete opiniões sobre a eficiência do canal e busque melhorias contínuas.
  • Monitoramento Contínuo: Acompanhe o desempenho do canal, identifique gargalos no atendimento e adote correções rapidamente.

O resultado de um canal bem estruturado

Além de cumprir as obrigações legais, um canal eficiente promove uma imagem de confiança e seriedade. Ele também reduz retrabalho, evita penalidades e fortalece o relacionamento com clientes e parceiros.

Implementar um canal de comunicação acessível e seguro não é apenas uma exigência da LGPD, mas uma oportunidade para criar um diferencial competitivo em um mercado cada vez mais focado na proteção da privacidade e na experiência do usuário.

Publicado em Deixe um comentário

SUA EMPRESA POSSUI UMA POLÍTICA DE PRIVACIDADE CLARA?

A Importância de estar em conformidade com a LGPD

Com a Lei Geral de Proteção de Dados (LGPD) em vigor no Brasil desde 2020, a proteção de dados pessoais deixou de ser apenas um diferencial competitivo para se tornar uma obrigação legal. Nesse contexto, a pergunta “Sua empresa possui uma política de privacidade clara?” não é apenas relevante, mas essencial para a sustentabilidade do seu negócio.

O que é uma Política de Privacidade?

A política de privacidade é um documento que comunica aos usuários como sua empresa coleta, utiliza, armazena e compartilha seus dados pessoais. Ela deve ser transparente, objetiva e acessível, permitindo que o titular dos dados compreenda seus direitos e as práticas adotadas pela empresa.

Mas não basta ter uma política genérica copiada da internet. A LGPD exige que ela seja específica, refletindo a realidade das operações e práticas da sua organização. Além disso, deve ser redigida em linguagem simples, sem jargões legais que dificultem a compreensão.

Por que ter uma Política de Privacidade é essencial?

  1. Conformidade legal
    A LGPD impõe sanções significativas para empresas que não cumprem suas diretrizes, incluindo multas que podem chegar a 2% do faturamento da organização, limitadas a R$ 50 milhões por infração. Ter uma política de privacidade clara e bem estruturada é um dos primeiros passos para demonstrar conformidade.
  2. Confiança do cliente
    Em uma era onde os consumidores estão cada vez mais preocupados com a segurança de seus dados, uma política transparente pode ser um fator decisivo na escolha por sua empresa em detrimento da concorrência. Clientes querem saber se seus dados estão seguros e sendo tratados com responsabilidade.
  3. Evita riscos reputacionais
    Vazamentos de dados ou má gestão da privacidade podem prejudicar gravemente a reputação de uma empresa. Estar alinhado às melhores práticas é um seguro contra danos à imagem e perda de credibilidade.
  4. Valorização de dados
    Quando os dados são tratados corretamente, eles se tornam um ativo estratégico para a empresa. Entender e respeitar as regras de privacidade ajuda a extrair insights de forma ética e benéfica para todas as partes envolvidas.

Como Criar uma Política de Privacidade Clara?

  1. Mapeie os dados
    Identifique quais dados sua empresa coleta, para que fins e como eles são armazenados e protegidos.
  2. Estabeleça as bases legais
    Certifique-se de que todas as atividades de tratamento de dados têm fundamento em uma das bases legais previstas pela LGPD, como consentimento, execução de contrato ou cumprimento de obrigação legal.
  3. Use linguagem acessível
    Evite termos técnicos e priorize a clareza. A política deve ser compreensível para qualquer pessoa.
  4. Inclua os direitos dos titulares
    Informe como os titulares podem exercer seus direitos, como acesso, correção ou exclusão de dados.
  5. Seja transparente
    Explique se os dados serão compartilhados com terceiros, e, em caso afirmativo, quem são esses parceiros e para que finalidades.

O Papel da governança de dados

Além de uma política de privacidade, é essencial investir em boas práticas de governança de dados. Isso inclui treinar equipes, implementar ferramentas de segurança da informação e designar um encarregado pelo tratamento de dados (DPO), responsável por garantir o cumprimento da LGPD na empresa.

Uma política de privacidade clara não é apenas uma obrigação legal, mas também uma oportunidade de fortalecer a confiança de seus clientes e parceiros. Invista no alinhamento às diretrizes da LGPD e transforme a gestão de dados pessoais em um diferencial competitivo. Afinal, em tempos de transformação digital, a privacidade não é um luxo, mas um direito fundamental.

Publicado em Deixe um comentário

TECNOLOGIA INCLUSIVA E ÉTICA: COMO EMPRESAS PODEM GARANTIR TRANSPARÊNCIA, INCLUSÃO E CONFORMIDADE

No universo dinâmico da tecnologia, as inovações avançam rapidamente, e os profissionais de direito trabalham continuamente para acompanhar esse ritmo. As equipes jurídicas nas grandes plataformas digitais têm expandido suas responsabilidades: além das funções tradicionais de compliance, estão cada vez mais envolvidas com políticas para desenvolvedores, moderação de conteúdo, acessibilidade e iniciativas de impacto social. Esse movimento busca equilibrar inovação com responsabilidade, um desafio especialmente crítico com o crescimento da inteligência artificial (IA).

Desde o lançamento de assistentes de IA em 2021, o setor de desenvolvimento de software vive uma transformação acelerada que trouxe à tona questões legais complexas. No campo dos direitos autorais, por exemplo, a IA representa uma ferramenta poderosa, mas levanta desafios únicos. Enquanto produtos criados inteiramente por IA enfrentam questões de proteção autoral, obras que combinam IA com direção humana continuam a ser reconhecidas e protegidas pelo direito.

A regulamentação da IA, sobretudo no que tange à propriedade intelectual e à responsabilidade sobre dados, é um tema que exige acompanhamento constante. Na Europa, por exemplo, iniciativas como o AI Act buscam garantir que o peso regulatório recaia sobre produtos comerciais e não sobre o código aberto, permitindo que este último siga como um motor de inovação sem ser sufocado por normas incompatíveis com sua natureza colaborativa.

Em relação à adoção da IA de forma ética e transparente, há uma recomendação clara para líderes empresariais: priorizar a transparência ao escolher parceiros tecnológicos. A transparência em práticas de IA, privacidade e segurança de dados é um sinal de responsabilidade que CIOs e CEOs devem buscar em seus fornecedores. Além disso, questionar sobre práticas de conformidade regulatória e responsabilidade em IA ajuda as empresas a estarem alinhadas com as exigências legais e éticas emergentes.

Um outro aspecto que exige atenção é a mitigação de vieses e erros, as chamadas “alucinações” de IA – respostas incorretas que podem prejudicar a qualidade do desenvolvimento de software. A formação de equipes diversas tem se mostrado um caminho para minimizar esses riscos, pois a diversidade traz múltiplas perspectivas que reduzem vieses. Em ambientes digitais, é essencial que se mantenham boas práticas tradicionais de desenvolvimento, agora incorporadas ao uso da IA, o que implica um controle rigoroso de qualidade e segurança.

Com o avanço das tecnologias de IA, países como o Brasil têm uma grande oportunidade: investir na capacitação de sua força de trabalho para que o desenvolvimento econômico acompanhe a transformação digital. Nesse cenário, a acessibilidade é um aspecto essencial. Para ampliar o alcance das ferramentas digitais, garantir que elas sejam inclusivas é crucial – especialmente para pessoas com deficiência. Ferramentas acessíveis ajudam a construir um futuro no qual todos podem contribuir, independentemente de limitações físicas.

Assim, ao adotar soluções tecnológicas, as empresas devem assegurar que seus fornecedores sigam boas práticas de acessibilidade. Esse cuidado é um pilar para que a tecnologia seja realmente um instrumento de empoderamento, eliminando barreiras ao invés de criá-las e promovendo um ambiente onde a inclusão seja garantida para todos.

Publicado em Deixe um comentário

RECONHECIMENTO FACIAL: COMBATE ÀS FRAUDES E A NECESSIDADE DE SOLUÇÕES MAIS SEGURAS

O reconhecimento facial, uma tecnologia amplamente utilizada para autenticação em diversos setores, está sob crescente ameaça devido ao aumento das fraudes por técnicas de spoofing. Criminosos têm demonstrado habilidades cada vez mais sofisticadas para enganar sistemas que, até recentemente, eram considerados altamente seguros. Estima-se que o mercado global de reconhecimento facial atinja US$ 13,87 bilhões até 2028, mas o crescimento dessa indústria traz consigo desafios significativos, especialmente no que diz respeito à segurança e confiabilidade dos sistemas.

As fraudes em reconhecimento facial são facilitadas por técnicas avançadas de spoofing, que manipulam sistemas por meio de fotos, vídeos ou até máscaras 3D. A atratividade de usar o próprio rosto como uma senha, embora conveniente, apresenta riscos consideráveis. Isso ocorre porque o rosto é uma característica invariável e, muitas vezes, pública, o que facilita a coleta de dados pelos fraudadores. A segurança dos sistemas de reconhecimento facial depende, portanto, tanto da robustez do dispositivo utilizado quanto da qualidade do algoritmo implementado.

Nesse contexto, a cibersegurança se torna um tema central. Com os crimes cibernéticos projetados para custar ao mundo cerca de US$ 10,5 trilhões por ano até 2025, a necessidade de identificar e mitigar fraudes em sistemas de reconhecimento facial é mais urgente do que nunca. As soluções para combater essas fraudes incluem treinamentos contínuos dos modelos de IA e investimentos em produtos de biometria de alta qualidade. No entanto, a pressa em lançar novos produtos pode levar a falhas, resultando em sistemas que não são suficientemente testados ou que possuem vieses prejudiciais.

Pesquisas, como a realizada pelo MIT em 2020, destacam a importância de um desenvolvimento cuidadoso e inclusivo desses sistemas. A pesquisa mostrou que sistemas de reconhecimento facial apresentavam taxas de erro significativamente mais altas ao identificar pessoas de diferentes etnias, com uma discrepância alarmante: taxas de erro de até 35% para mulheres de pele escura, em comparação com menos de 1% para homens de pele clara. Isso evidencia a necessidade de mais pesquisas e investimentos em soluções robustas para garantir a proteção de dados e a integridade dos sistemas.

Em um ambiente digital cada vez mais interconectado, a segurança de dados e a confiança nas tecnologias emergentes são prioridades que exigem atenção contínua. A evolução dos métodos de autenticação e a melhoria dos algoritmos são essenciais para enfrentar os desafios impostos pelas fraudes e garantir a segurança dos usuários.

Publicado em Deixe um comentário

A ASCENSÃO DA IA GENERATIVA: DESAFIOS E OPORTUNIDADES NA ERA DIGITAL

A Revolução da Inteligência Artificial

A Inteligência Artificial (IA) é, sem dúvida, o termo que mais ressoa atualmente, marcando presença nas discussões cotidianas e transformando operações empresariais. Longe de ser uma moda passageira, a IA está aqui para ficar, e uma de suas vertentes mais discutidas é a Inteligência Artificial Generativa (IAG). Essa tecnologia, que já impacta profundamente diversos setores, merece uma análise criteriosa sobre seus benefícios, desafios e implicações para o futuro.

O Que é Inteligência Artificial Generativa?

A IAG é uma forma avançada de IA capaz de criar novos conteúdos, como textos, imagens e músicas, a partir de um vasto conjunto de dados em que foi treinada. A popularização dessa tecnologia se deu, em grande parte, por sua aproximação com o uso cotidiano, tornando-se mais acessível e intuitiva para o público em geral. Ao interagir com essas IAs por meio de comandos específicos, conhecidos como prompts, os usuários conseguem gerar respostas e conteúdos personalizados, revolucionando a forma como criamos e consumimos informações.

O Papel Essencial do Humano na Jornada da IAG

Embora a IAG esteja ganhando destaque, é crucial lembrar que o elemento humano continua sendo indispensável nessa jornada. Cabe a nós garantir que essa ferramenta poderosa seja utilizada de maneira ética e responsável. A tecnologia, por si só, é neutra; são as decisões humanas que determinarão se seu impacto será positivo ou negativo. Assim, é fundamental que a sociedade se mobilize para proteger-se contra o uso indevido da IAG, ao mesmo tempo em que se aproveita de suas incríveis potencialidades.

Aplicações Cotidianas da IAG: Inovação ao Alcance de Todos

No cotidiano, a IAG já se faz presente de maneiras surpreendentes. Desde a criação de conteúdo criativo, como poemas e histórias, até a tradução de idiomas e a geração de textos com correção gramatical, essas ferramentas estão facilitando a vida de milhões de pessoas. Exemplos notáveis incluem o modelo GPT-3 da OpenAI, que consegue criar textos de alta qualidade, e o Google Translate, que permite a comunicação entre diferentes línguas de forma mais fluida.

IAG no Marketing e Educação: Personalização e Engajamento

O marketing é outro campo onde a IAG está se destacando, oferecendo experiências personalizadas aos usuários com base em seus padrões de navegação e preferências. Isso não só aumenta a relevância do conteúdo, mas também melhora o engajamento dos consumidores. Na educação, a IAG está revolucionando a aprendizagem ao oferecer experiências adaptativas e personalizadas, além de gamificação e tutores virtuais, tornando o processo de ensino mais interativo e eficaz.

Arte, Música e Propriedade Intelectual na Era da IAG

A criação artística também foi transformada pela IAG. Com o uso de tecnologias como Redes Neurais Generativas Adversariais (GANs) e Redes Neurais Autoencoder Variacional (VAEs), artistas e músicos têm explorado novas fronteiras criativas. No entanto, essa inovação traz à tona questões complexas sobre propriedade intelectual e autoria. Quando uma obra é gerada por uma IA, quem deve ser considerado o autor? Esse debate é ainda mais pertinente quando analisamos casos como o uso de imagens de artistas falecidos em campanhas publicitárias, como ocorreu com Elis Regina na propaganda da Volkswagen no Brasil.

O Futuro da IAG: Desafios e Oportunidades

À medida que a IAG continua a evoluir, suas aplicações se expandirão para praticamente todos os aspectos da vida humana. No entanto, com essa expansão, surge a necessidade de desenvolver políticas e regulamentações que garantam o uso ético e seguro dessa tecnologia. Questões como privacidade de dados, segurança, equidade e responsabilidade devem ser tratadas com seriedade para evitar que a IAG amplie desigualdades ou viole direitos fundamentais.

O futuro com IAG é promissor, mas depende de nossa capacidade de moldá-lo de forma que respeite os valores humanos e promova o bem-estar coletivo. É nosso dever, como sociedade, assegurar que a inovação tecnológica continue a servir como uma força para o bem, beneficiando a todos e construindo um futuro mais justo e inclusivo.

Publicado em Deixe um comentário

INCIDENTE DE SEGURANÇA COM CHAVES PIX AFETA COOPERATIVAS FILIADAS À UNICRED

O Banco Central (BC) anunciou em 29 de julho um incidente de segurança envolvendo dados pessoais associados às chaves Pix de três cooperativas filiadas à Unicred do Brasil. A falha ocorreu devido a problemas pontuais nos sistemas da instituição.

Em comunicado ao InfoMoney, a Unicred confirmou o incidente, que ocorreu entre os dias 6 e 7 de julho. A cooperativa destacou que não houve comprometimento de dados sensíveis, classificando o vazamento como um “incidente malicioso de segurança”.

Segundo o BC, não foram expostos dados sensíveis, como senhas, informações de transações financeiras, saldos de contas ou quaisquer outras informações protegidas por sigilo bancário. As informações obtidas são de natureza cadastral e não permitem movimentação de recursos, nem acesso às contas ou a outras informações financeiras.

A Unicred informou que implementou medidas adequadas de contenção imediatamente após a detecção do incidente. As contas potencialmente afetadas foram bloqueadas para investigação interna, com dados de login e senha resetados. Os titulares das contas foram notificados sobre a situação.

O BC assegurou que as pessoas afetadas serão informadas exclusivamente através do aplicativo ou internet banking de sua instituição financeira. A instituição alertou que nem o BC nem as instituições participantes utilizarão outros meios de comunicação, como aplicativos de mensagens, chamadas telefônicas, SMS ou e-mail, para evitar possíveis golpes.

O Banco Central está conduzindo uma investigação detalhada do caso e informou que aplicará medidas sancionatórias conforme a regulamentação vigente.

A Unicred lamentou qualquer inconveniente causado pelo incidente e reafirmou seu compromisso com a segurança e privacidade dos dados dos seus clientes.

Publicado em Deixe um comentário

WHATSAPP E ANPD SÃO ALVOS DE AÇÃO CIVIL PÚBLICA POR MPF E IDEC

Quatro anos após sua criação, a Autoridade Nacional de Proteção de Dados (ANPD) enfrenta um desafio inédito: a sua capacidade de cumprir seu papel institucional está sendo questionada judicialmente. O Ministério Público Federal (MPF) e o Instituto Brasileiro de Defesa do Consumidor (Idec) ajuizaram uma ação civil pública na 2ª Vara Cível Federal de São Paulo, alegando que a ANPD favoreceu uma empresa em detrimento do enforcement regulatório.

Na ação, o MPF e o Idec apontam diversas falhas na política de privacidade do WhatsApp, vigente de 2021 até junho deste ano, e destacam que os termos dessa política configuram violações aos direitos fundamentais dos cidadãos brasileiros, especialmente o direito à informação e ao consentimento informado.

Política de privacidade controversa

O principal argumento é que a política de privacidade do WhatsApp não fornecia informações claras e precisas sobre o tratamento dos dados pessoais dos usuários, violando o direito à informação previsto na Lei Geral de Proteção de Dados (LGPD). Embora a empresa alegue que as conversas são protegidas por criptografia de ponta a ponta, o WhatsApp coleta diversos metadados que revelam informações substanciais sobre o comportamento dos usuários, como localização habitual e preferências pessoais. Essa coleta massiva de metadados configura uma invasão significativa de privacidade, não devidamente esclarecida aos usuários.

Além disso, o MPF e o Idec argumentam que o consentimento obtido dos usuários é viciado, pois a complexidade e a falta de clareza das informações impedem a compreensão plena dos termos. Isso viola os princípios de transparência e consentimento da LGPD. A política é ainda acusada de permitir tratamentos desnecessários de dados pessoais e de aplicar práticas comerciais abusivas, especialmente em comparação com os usuários europeus. Esses problemas configuram uma violação abrangente e sistemática dos direitos dos usuários brasileiros, exigindo uma resposta judicial rigorosa.

Atuação da ANPD sob escrutínio

A ação também critica a atuação da ANPD, acusando a autarquia de falhar na fiscalização do WhatsApp e de adotar uma postura omissa e avessa à accountability pública. Segundo o processo, durante a apuração conduzida pelo MPF e pelo Idec, a ANPD teria negado reiteradas vezes acesso a processos administrativos, sob o argumento de segredos comerciais e industriais. Esta postura de sigilo, paradoxalmente, ocorre em uma investigação sobre a falta de transparência de um dos maiores agentes de tratamento de dados do país.

A ação civil pública busca dois objetivos principais: que o WhatsApp repare os danos causados a seus milhões de usuários no Brasil, suspendendo imediatamente os tratamentos excessivos de dados pessoais, e que a ANPD entregue todos os documentos produzidos durante a apuração sobre a política de privacidade do WhatsApp, justificando cada sigilo atribuído, além de elaborar uma normativa para garantir máxima publicidade às suas futuras investigações.

Este caso marca um momento importante na defesa dos direitos de proteção de dados no Brasil, buscando não apenas reparar danos causados pela política de privacidade do WhatsApp, mas também reforçar a importância de uma fiscalização transparente e responsável pela ANPD. A autarquia e seus diretores, pela primeira vez, enfrentam a responsabilidade judicial por suas ações.

Publicado em Deixe um comentário

RELATÓRIO DA UNIÃO EUROPEIA QUESTIONA A PRECISÃO DOS DADOS DO CHATGPT

A equipe de defesa da privacidade da União Europeia (UE) avaliou que os esforços da OpenAI para reduzir o número de informações falsas geradas pelo ChatGPT ainda não são suficientes para cumprir as rigorosas políticas de dados da UE.

Conforme detalhado em um relatório publicado no site da equipe, as medidas adotadas para aumentar a transparência, apesar de úteis para evitar interpretações errôneas dos resultados do ChatGPT, ainda não atendem plenamente ao critério de precisão de dados exigido pela legislação europeia.

No ano passado, conforme noticiado pela Reuters, autoridades europeias de proteção de dados formaram uma equipe especializada para abordar questões específicas relacionadas ao ChatGPT. Essa ação foi motivada por preocupações levantadas por reguladores nacionais sobre o uso crescente deste serviço de inteligência artificial.

O relatório aponta que algumas investigações conduzidas por organizações nacionais de proteção de dados em vários Estados-Membros ainda estão em andamento. Portanto, os resultados apresentados devem ser entendidos como observações preliminares comuns a essas autoridades. A exatidão dos dados é uma das principais diretrizes da regulamentação de proteção de dados da UE.

“Devido à natureza probabilística do sistema, a metodologia atual de treinamento pode gerar informações tendenciosas ou fictícias,” destaca o relatório. “Além disso, os usuários finais podem interpretar os resultados gerados pelo ChatGPT como fatos precisos, especialmente quando se referem a dados sobre indivíduos, sem verificar a veracidade dessas informações.”

Esse levantamento sublinha a importância de medidas adicionais para garantir que as saídas do ChatGPT não apenas evitem erros interpretativos, mas também cumpram os elevados padrões de precisão de dados exigidos pela UE.

Publicado em Deixe um comentário

INSS REFORÇA POLÍTICAS DE ACESSO PARA PROTEGER DADOS DE BENEFICIÁRIOS

Recentemente, foi identificada uma vulnerabilidade nos sistemas do Instituto Nacional do Seguro Social (INSS), comprometendo a segurança dos dados de milhões de brasileiros. A falha, presente no Sistema Único de Informações de Benefícios (Suibe), permitiu o acesso indevido a informações cadastrais, gerando preocupações entre beneficiários e especialistas em segurança digital.

Detalhes da Exposição de Dados

A falha foi associada à distribuição de senhas para usuários externos sem a devida supervisão ou restrições após o término de suas funções. Historicamente, acessos não eram bloqueados após o desligamento de colaboradores, permitindo que ex-funcionários ou pessoas não autorizadas acessassem o sistema.

Medidas Corretivas Implementadas

Para corrigir essa vulnerabilidade, o INSS realizou mudanças nas políticas de acesso ao Suibe. Agora, o acesso ao sistema requer não apenas uma senha, mas também um certificado digital e criptografia, elevando o nível de segurança.

Ações de Reforço na Segurança

Além de novos métodos de autenticação, a infraestrutura de segurança do Suibe foi revisada e atualizada. O INSS intensificou o monitoramento e a auditoria dos acessos ao sistema para assegurar que eventuais tentativas de violação sejam prontamente identificadas e contidas. Medidas adicionais incluem:

  • Implementação de criptografia para proteger os dados transmitidos.
  • Consideração da autenticação de dois fatores para futuras adições.
  • Revisões periódicas das permissões de acesso para garantir que apenas usuários autorizados tenham acesso ao sistema.

Impacto das Medidas Adotadas

O INSS ainda está investigando se houve extração de dados através do Suibe. No entanto, já foi observada uma diminuição nas reclamações relacionadas a empréstimos consignados não autorizados, indicando que as medidas adotadas estão sendo eficazes na proteção dos dados dos beneficiários.

Compromisso com a Segurança

Este incidente ressalta a importância de vigilância contínua e atualização dos sistemas de segurança, especialmente em instituições que gerenciam grandes volumes de dados pessoais. O INSS reitera seu compromisso com a privacidade e segurança das informações de todos os seus beneficiários, implementando medidas robustas para proteger os dados sensíveis.

Publicado em Deixe um comentário

FIM DOS COOKIES: COMO EMPRESAS BRASILEIRAS PODEM SE BENEFICIAR DA MUDANÇA

Com o adiamento da descontinuação dos cookies de terceiros pelo Google para 2025, a transição para uma publicidade digital mais orientada à privacidade permanece em foco. Esses cookies, que têm sido a base da personalização de anúncios, estão sendo gradualmente eliminados, desafiando os profissionais de marketing a encontrar novas formas de acessar dados detalhados dos usuários.

É importante enfatizar que as empresas brasileiras devem aproveitar esse tempo adicional para otimizar o uso de dados primários e se preparar para um ambiente publicitário sem cookies.

A tendência do mercado brasileiro de adotar uma abordagem de “último minuto” pode, paradoxalmente, ser uma vantagem neste contexto.

O prazo estendido também possibilita mais testes dentro do Privacy Sandbox, uma iniciativa do Google que visa estabelecer novos padrões para a publicidade personalizada. Além disso, permite que os anunciantes se preparem para outras estratégias, como a utilização de dados primários para addressability.

Uma dúvida recorrente entre os profissionais de marketing é sobre a eficácia do Privacy Sandbox. Os resultados não devem ser o único foco. É necessário que mais anunciantes testem o Privacy Sandbox para alcançar a significância estatística necessária para avaliar se as APIs são alternativas viáveis aos cookies de terceiros. Apesar dos desafios, o futuro sem cookies traz consigo enormes oportunidades.

Para navegar nesse novo cenário, é fundamental explorar abordagens alternativas, como e-mails criptografados (hashed e-mails), Retail Media e redes sociais. Preparar-se meticulosamente para o futuro sem cookies permitirá uma estratégia de addressability dinâmica e multifacetada.

Publicado em Deixe um comentário

META UTILIZA DADOS DE USUÁRIOS PARA TREINAR IA, EXCETO NA UNIÃO EUROPEIA

Recentemente, foi revelado que a Meta está utilizando informações de perfis de usuários do Instagram e Facebook para aprimorar seus modelos de Inteligência Artificial (IA). Essa coleta abrange postagens e comentários, que são integrados aos sistemas de IA generativa da empresa. No entanto, contas localizadas na União Europeia estão isentas desse processo devido às rigorosas legislações de privacidade.

Dada a regulamentação de proteção de dados no Reino Unido e na União Europeia, a Meta é obrigada a informar os usuários sobre a coleta e uso de seus dados. Para isso, está enviando e-mails detalhados aos usuários do Instagram e Facebook, esclarecendo as mudanças na Política de Privacidade.

Conforme comunicado pelo portal 9to5Mac, esses e-mails destacam a ampliação das iniciativas de IA da empresa e afirmam que a Meta usará a base legal dos “interesses legítimos” para o uso dos dados dos usuários.

Modelo de e-mail enviado pela Meta:

Atualização da Política de Privacidade com Expansão da IA na Meta

Olá, ,

Estamos nos preparando para expandir nossas experiências de IA na Meta para sua região. A IA na Meta é nossa coleção de recursos e experiências generativas de IA, incluindo Meta AI e ferramentas criativas de IA, juntamente com os modelos que os alimentam.

O que isso significa para você

Para oferecer essas experiências, utilizaremos a base legal dos interesses legítimos para usar suas informações no desenvolvimento e melhoria da IA na Meta. Você tem o direito de se opor a essa utilização. Caso opte pela objeção, ela será aplicada daqui em diante.

Atualizamos nossa Política de Privacidade para refletir essas mudanças. As atualizações entram em vigor em 26 de junho de 2024.

Obrigado, equipe Meta Privacy”

A nova versão da Política de Privacidade, que entrará em vigor no dia 26 de junho, concede aos usuários o direito de recusar o uso de seus dados para o treinamento de IA. O e-mail esclarece que, caso a objeção seja validada, as informações da conta deixarão de ser usadas para esse propósito. No entanto, a aprovação não é garantida, e os usuários devem justificar sua objeção.

O Regulamento Geral de Proteção de Dados (GDPR) da União Europeia proporciona proteções robustas contra o uso impróprio de dados pessoais, permitindo aos usuários solicitar a remoção de suas informações e obter uma cópia dos dados utilizados. A Meta utiliza a base legal dos “interesses legítimos” para processar dados, uma prática que, apesar de autorizada para objetivos empresariais, enfrenta críticas devido à sua interpretação ampla.

Embora a Meta esteja sob críticas, a empresa afirma que processa automaticamente as solicitações de desativação. Usuários relataram nas redes sociais que, após enviarem a recusa, receberam um e-mail confirmando que seu pedido foi aceito e será cumprido.

Publicado em Deixe um comentário

REGULAMENTAÇÃO DA IA: LIÇÕES DA UNIÃO EUROPEIA E PERSPECTIVAS PARA O BRASIL

Em 10 de abril de 2018, vinte e quatro Estados-Membros da União Europeia assinaram um termo de cooperação durante o evento “Digital Day 2018” para tratar da inteligência artificial (IA). Em 25 de abril do mesmo ano, a Comissão Europeia emitiu uma comunicação sobre IA, sugerindo o avanço da capacidade tecnológica e industrial da União Europeia em prol da IA, a preparação para mudanças socioeconômicas decorrentes dessa tecnologia e a criação de um marco regulatório eficaz, baseado em valores democráticos e na proteção dos direitos fundamentais, para garantir o desenvolvimento ético da IA.

A Comissão Europeia solicitou que os Estados-Membros coordenassem planos estratégicos nacionais para a implementação da IA até o final de 2018. Na ocasião, foi criado o Grupo de Peritos de Alto Nível em Inteligência Artificial (AI HLEG), composto por pesquisadores, acadêmicos, representantes da indústria e da sociedade civil. Paralelamente, foi estabelecida a “Aliança Europeia para a IA” para fomentar a participação democrática, incluindo audiências públicas sobre diversos temas relacionados à IA.

Em 18 de dezembro de 2018, o AI HLEG submeteu à consulta pública o primeiro esboço das “Diretrizes Éticas para a Fiabilidade da Inteligência Artificial”. Após debates intensos, a versão final foi apresentada em 8 de abril de 2019, intitulada “Ethics Guidelines for Trustworthy AI”. Este documento delineou quatro princípios éticos fundamentais:

  1. Respeito à autodeterminação humana: A IA deve respeitar os direitos e garantias fundamentais, bem como a democracia.
  2. Prevenção de danos: Devem ser adotadas medidas robustas para evitar danos aos seres humanos.
  3. Justiça: Garantir uma distribuição equitativa dos benefícios e custos, eliminando qualquer tipo de preconceito.
  4. Transparência e clareza: Os sistemas de IA devem ser compreensíveis para os operadores humanos.

Além dos princípios, foram apresentados requisitos para a fiabilidade da IA, abrangendo supervisão humana, robustez técnica, privacidade e proteção de dados, transparência, diversidade, bem-estar social e ambiental, e prestação de contas.

Em 7 de dezembro de 2018, a União Europeia estabeleceu um plano coordenado de medidas para a implementação da IA, incentivando os Estados-Membros a elaborarem planos nacionais até meados de 2019. Posteriormente, em 19 de fevereiro de 2020, a Comissão Europeia lançou o relatório “White Paper on Artificial Intelligence: an European approach to excellence and trust”, reforçando as diretrizes éticas e destacando a necessidade de regulação da responsabilidade civil por danos causados por produtos e serviços de IA. Sugeriu-se a revisão da “Product Liability Directive” de 1985, para abordar as complexidades da IA, como a dificuldade de provar defeitos de programação em tecnologias como carros autônomos.

Na mesma data, a Comissão Europeia aprovou o plano estratégico para os dados, prevendo um aumento significativo no volume de dados na era do Big Data. Este plano destacou a cooperação internacional necessária para a aplicação de medidas regulatórias devido à circulação transfronteiriça de dados.

Nos Estados Unidos, o “Future of AI Act” de 2017 propôs diretrizes éticas para o desenvolvimento de IA, sem abordar diretamente a área da saúde. Documentos recentes, como o “Artificial Intelligence Act” europeu e o “Algorithmic Accountability Act” norte-americano, evitam discutir a terminologia de “inteligência”, preferindo referir-se a “sistemas decisionais automatizados” e reafirmando a importância de parâmetros éticos para o desenvolvimento de algoritmos.

No Brasil, várias iniciativas legislativas buscaram regulamentar a IA, mas com propostas inicialmente superficiais. Em fevereiro de 2022, foi instituída uma comissão de juristas para elaborar um substitutivo sobre IA, resultando no Projeto de Lei nº 2.338/2023. Este projeto, inspirado na abordagem europeia, estratifica soluções conforme o grau de risco de cada atividade de IA.

Desde sua apresentação, o projeto recebeu diversas emendas parlamentares e está sendo analisado pela Comissão Temporária Interna sobre Inteligência Artificial no Brasil, um fórum multissetorial que garante regulamentações abrangentes e eficazes, equilibrando inovação tecnológica e proteção de direitos fundamentais. A versão mais recente, proposta em abril de 2024, reflete uma preocupação com a parametrização ética, alinhando-se aos princípios europeus.

A aprovação do Regulamento Geral Europeu sobre IA representa um marco significativo, baseado em princípios éticos que contribuem para o debate sobre responsabilidade civil. Este esforço europeu, resultado de anos de discussões, serve de exemplo inspirador para outras nações, incluindo o Brasil, onde os trabalhos legislativos sobre IA continuam em andamento, merecendo atenção e acompanhamento cuidadoso.