Publicado em

GOOGLE AI EDGE GALLERY: UMA NOVA FORMA DE UTILIZAR MODELOS DE IA SEM CONEXÃO COM A INTERNET

A integração da inteligência artificial ao uso cotidiano tem dado um passo importante com o desenvolvimento do Google AI Edge Gallery. Trata-se de um aplicativo que permite aos usuários explorar modelos avançados de IA diretamente em seus dispositivos móveis, sem depender de servidores externos ou conexão constante com a internet.

Ao contrário das soluções tradicionais baseadas na nuvem, o Google AI Edge Gallery possibilita o download e execução local de modelos generativos, oferecendo maior autonomia e controle sobre os dados. Isso significa que funcionalidades como geração de imagens, interação com chatbots ou respostas automatizadas podem ser executadas no próprio smartphone, com mais privacidade e sem a necessidade de enviar informações para fora do aparelho.

A instalação e o funcionamento do aplicativo são baseados em uma proposta prática: o usuário acessa os modelos disponíveis por meio da plataforma Hugging Face, que reúne projetos como Qwen 2.5 e Gemma 3n. Esses modelos oferecem capacidades variadas, como responder perguntas, sintetizar textos e criar imagens a partir de comandos.

No entanto, vale destacar que, por serem tecnologias exigentes, o desempenho do aplicativo depende diretamente das especificações do aparelho. Smartphones mais modernos e com melhor capacidade de processamento tendem a oferecer uma experiência mais fluida.

Entre os benefícios de rodar modelos de IA localmente, dois pontos merecem destaque. O primeiro é a proteção da privacidade, já que não há necessidade de envio de dados para servidores. O segundo é a autonomia de uso, permitindo que o recurso funcione mesmo sem acesso à internet. Isso amplia o alcance da tecnologia, tornando-a mais acessível a usuários em diferentes contextos e localidades.

Atualmente, o Google AI Edge Gallery está disponível em fase de testes (Alpha), podendo ser instalado via pacote APK por meio do GitHub. Para isso, o usuário precisa permitir a instalação de aplicativos de fontes externas nas configurações do aparelho Android. Segundo o Google, uma versão para iOS também está em desenvolvimento.

Essa iniciativa representa um movimento interessante em direção à descentralização da inteligência artificial, com foco em uso prático, privacidade e acessibilidade. À medida que novos modelos forem incorporados à plataforma, o aplicativo tende a se consolidar como uma ferramenta útil para quem deseja experimentar IA de forma simples e segura, diretamente no próprio celular.

Publicado em

INVASÃO DE PERFIL NO INSTAGRAM GERA DEVER DE INDENIZAR E VIOLA DIREITOS FUNDAMENTAIS

O uso diário das redes sociais passou a integrar a rotina de milhões de pessoas e, com ele, também surgiram novos riscos. Entre eles está a invasão de contas por terceiros, que, além de perdas financeiras, a prática vem gerando a violação de dados pessoais, constrangimentos públicos e prejuízos à reputação digital dos usuários.

A perda do controle de um perfil, especialmente em plataformas populares como o Instagram, implica a possibilidade de uso indevido da identidade digital do titular. Golpes podem ser aplicados por meio da conta invadida, conteúdos inadequados podem ser publicados, e, em alguns casos, os próprios seguidores são alvo de extorsão. Essa situação traz impactos significativos, inclusive de ordem emocional, já que o vínculo com o ambiente virtual se tornou, para muitos, uma extensão da própria vida pessoal ou profissional.

Nos termos do ordenamento jurídico brasileiro, as plataformas que operam no país têm o dever de garantir o funcionamento seguro de seus serviços. A relação estabelecida entre o usuário e a empresa responsável pela rede social caracteriza-se como uma relação de consumo. Desse modo, aplica-se o regime de responsabilidade objetiva previsto no Código de Defesa do Consumidor, segundo o qual basta a comprovação do defeito no serviço e do dano causado para que haja o dever de indenizar. Não se exige a demonstração de culpa, pois o risco é inerente à atividade exercida pela empresa.

Além do CDC, a Lei Geral de Proteção de Dados impõe à empresa a obrigação de adotar medidas técnicas e administrativas aptas a proteger os dados pessoais dos usuários contra acessos não autorizados ou situações ilícitas. A falha nesse dever configura descumprimento legal e fortalece a possibilidade de responsabilização civil por parte da plataforma.

Os tribunais brasileiros vêm reconhecendo que a demora injustificada na resposta às tentativas de recuperação, a ausência de suporte eficaz e a vulnerabilidade do sistema de segurança constituem falhas na prestação do serviço. Em diversas decisões, o Judiciário tem determinado o pagamento de indenização por danos morais e materiais, mesmo sem a comprovação de culpa direta da empresa.

Para que se possa buscar reparação judicial, é essencial reunir provas que demonstrem o ocorrido. Isso inclui registros de conversas, e-mails, notificações, capturas de tela e qualquer evidência de que houve tentativa de contato com a plataforma, sem solução adequada. Também é possível solicitar que a conta seja excluída, caso não haja forma de recuperá-la, de modo a evitar o agravamento dos prejuízos.

Entre os pedidos possíveis em uma ação judicial estão a restituição do controle da conta, a exclusão do perfil comprometido, a indenização por danos morais, especialmente em casos em que a conta foi utilizada para lesar terceiros, e, quando aplicável, o ressarcimento por prejuízos financeiros decorrentes da impossibilidade de exercer atividade profissional vinculada ao perfil. Em alguns casos, pode-se ainda requerer tutela de urgência, com imposição de multa diária, para que a plataforma tome providências imediatas.

A invasão de contas em redes sociais representa uma afronta direta ao direito à privacidade, à honra e à imagem, todos assegurados pela Constituição Federal. A ausência de medidas adequadas por parte das empresas responsáveis pode gerar consequências jurídicas relevantes, cabendo aos prejudicados o exercício legítimo do direito à reparação. A manutenção da confiança nas plataformas digitais depende, em larga medida, do comprometimento dessas empresas com a proteção de seus usuários.

Publicado em

LGPD EM 2025: QUANDO A PROTEÇÃO DE DADOS SE TORNA PARTE DA ROTINA DOS NEGÓCIOS

Chegamos a um momento em que a proteção de dados deixou de ser um tema restrito ao departamento jurídico ou à área de tecnologia. Em 2025, a LGPD começa a ocupar um espaço mais orgânico nas rotinas das empresas, sendo percebida não apenas como uma obrigação legal, mas como um valor que fortalece a relação entre empresas e pessoas.

A Autoridade Nacional de Proteção de Dados (ANPD) já atua de forma mais firme e estruturada, trazendo um olhar atento para setores que lidam diretamente com dados sensíveis, como a área da saúde, os serviços financeiros e o mercado de tecnologia. Não se trata mais de ter documentos formais apenas para cumprir um protocolo; o que se espera agora é a demonstração prática de que a proteção dos dados faz parte das escolhas diárias da empresa.

Investir em segurança da informação, realizar análises sobre o impacto do uso de dados e criar uma cultura de responsabilidade interna são medidas que passaram a ser vistas como naturais, especialmente por aquelas empresas que compreendem a privacidade como um elemento essencial para manter a confiança de seus clientes e parceiros.

Por outro lado, a tecnologia avança a passos largos, e com ela surgem novos desafios. A inteligência artificial, por exemplo, já faz parte de muitas soluções que utilizamos no dia a dia, mas seu uso exige cuidado. Os algoritmos precisam ser mais transparentes, e as empresas, mais dispostas a explicar como as decisões automatizadas podem afetar a vida das pessoas. Esse é um tema que a própria ANPD tem buscado regulamentar, o que mostra uma preocupação legítima com a proteção dos direitos dos cidadãos.

As pequenas e médias empresas ainda enfrentam algumas dificuldades para atender às exigências da lei, e é natural que seja assim. Muitas vezes, faltam recursos ou orientação técnica adequada. No entanto, esse movimento de adequação tende a ganhar força com o apoio de soluções mais simples e acessíveis, desenvolvidas justamente para ajudar esse público a se adaptar sem comprometer o orçamento.

Além disso, novas formas de interação digital — como o metaverso, os dispositivos conectados à internet e o uso crescente de criptomoedas — trazem questões importantes sobre privacidade. Esses temas estão ganhando espaço nas conversas de quem pensa o futuro dos negócios. Cada vez mais, será necessário incluir a proteção de dados desde o início dos projetos, de forma que a preocupação com a privacidade acompanhe o desenvolvimento de novos produtos e serviços.

O mais interessante de tudo isso é perceber que os próprios consumidores estão mais atentos e informados. Hoje, as pessoas sabem o valor que seus dados têm e exigem que esse valor seja respeitado. As empresas que souberem conduzir essa relação com transparência e honestidade terão mais chances de criar vínculos duradouros e de fortalecer sua imagem no mercado.

Por fim, é importante lembrar que a proteção de dados é uma forma de demonstrar respeito pelas pessoas. E, nesse sentido, o Brasil tem a chance de se destacar internacionalmente, harmonizando suas regras com as melhores práticas já adotadas em outros países e atraindo investimentos que reconheçam esse compromisso.

A forma como cada empresa escolhe lidar com a privacidade será, um reflexo da sua visão de futuro e da sua responsabilidade social. E, diante de tudo isso, cabe uma reflexão simples, mas necessária: estamos, de fato, preparados para lidar com esse novo momento com a seriedade que ele exige?

Publicado em

USO DE IMAGENS POR INTELIGÊNCIA ARTIFICIAL EM REDES SOCIAIS CORPORATIVAS

A popularização das ferramentas de inteligência artificial trouxe inúmeras possibilidades para o marketing digital, incluindo a personalização de conteúdo e a automação de processos. No entanto, ao lado dessas vantagens, surgem riscos concretos que não podem ser ignorados, especialmente no que se refere ao uso de imagens de pessoas em campanhas e publicações institucionais.

Uma das práticas mais sensíveis é o uso de rostos reais sem autorização. Seja de colaboradores, consumidores ou influenciadores, a reprodução da imagem sem consentimento pode gerar responsabilidade civil e comprometer a reputação da empresa. Não basta estar disponível na internet. A Lei Geral de Proteção de Dados Pessoais (LGPD) trata a imagem como dado pessoal sensível, exigindo uma base legal específica para seu tratamento, geralmente o consentimento expresso.

O uso de ferramentas que geram ou manipulam rostos com aparência realista, como os chamados deepfakes, representa uma camada adicional de risco. Embora possam ser utilizadas para criar conteúdos criativos e envolventes, essas tecnologias também podem ser empregadas de forma antiética, inclusive na composição de vídeos ou fotos que simulam falas ou comportamentos de pessoas reais. Quando isso ocorre sem autorização, o problema deixa de ser apenas ético e passa a ter implicações jurídicas sérias.

Empresas que adotam a inteligência artificial como aliada na comunicação institucional devem estabelecer critérios claros para o uso de imagens. Isso envolve desde políticas internas até treinamentos de equipes de marketing e comunicação. Também é recomendável a revisão dos contratos com agências terceirizadas, garantindo cláusulas específicas sobre responsabilidade no uso de conteúdo gerado por IA.

A construção da confiança com o público passa, hoje, pelo respeito à identidade visual e à integridade da imagem das pessoas. Utilizar a inteligência artificial com responsabilidade não é apenas uma questão de conformidade legal, mas de respeito à dignidade humana.

A tecnologia avança, mas os princípios continuam os mesmos: transparência, ética e respeito. É por esses caminhos que as empresas devem conduzir suas estratégias digitais.

Publicado em

INDÍCIOS COMUNS DE QUE SEUS DADOS FORAM VAZADOS

A proteção das informações pessoais tornou-se uma preocupação constante para cidadãos e empresas. A exposição indevida de dados pode gerar transtornos significativos, desde fraudes financeiras até o uso indevido da identidade. Por essa razão, é importante que qualquer pessoa saiba reconhecer os sinais mais comuns de que seus dados podem ter sido comprometidos.

O primeiro indício costuma ser o recebimento de e-mails suspeitos. Mensagens que solicitam o clique em links ou o envio de informações pessoais, especialmente quando enviadas por remetentes desconhecidos ou com erros de ortografia, merecem atenção. O objetivo desses e-mails pode ser a coleta de senhas ou a instalação de programas maliciosos.

Outro sinal frequente é o acesso não autorizado a contas. Alterações em senhas, notificações de login a partir de dispositivos ou localizações incomuns e movimentações que o usuário não reconhece são sinais claros de que houve violação. Muitas plataformas digitais, inclusive redes sociais e serviços de armazenamento em nuvem, informam ao usuário sempre que há uma tentativa de acesso fora do padrão. Ignorar esse alerta pode significar permitir que terceiros se aproveitem de dados pessoais.

Notificações de bancos e instituições financeiras também devem ser observadas com atenção. Transações bancárias desconhecidas, cobranças indevidas ou até o bloqueio repentino de cartões podem ser consequências diretas do uso indevido de informações bancárias por terceiros.

Vale destacar que empresas sérias costumam comunicar seus usuários quando identificam falhas em seus sistemas ou suspeitam de acessos indevidos. É recomendável manter os dados de contato atualizados junto aos serviços utilizados, pois muitas dessas comunicações são feitas por e-mail ou por aplicativos.

Por fim, a atenção a pequenos detalhes pode evitar grandes problemas. Ao identificar qualquer um desses sinais, recomenda-se a troca imediata de senhas, o contato com os serviços afetados e, em casos mais graves, o registro de boletim de ocorrência e a comunicação com os órgãos de proteção ao consumidor ou com a Autoridade Nacional de Proteção de Dados (ANPD).

Prevenir e agir com rapidez são atitudes que fazem diferença. A vigilância permanente é, hoje, uma parte do cuidado com a vida digital.

Publicado em

IA PODE VIOLAR A LGPD? COMO EVITAR QUE SUA EMPRESA USE IA DE FORMA ILEGAL E COMPROMETA DADOS PESSOAIS

A inteligência artificial já faz parte do dia a dia das empresas, seja para otimizar processos, personalizar experiências ou analisar grandes volumes de informações. Mas junto com seus benefícios, surgem preocupações legítimas: será que o uso de IA pode violar a Lei Geral de Proteção de Dados (LGPD)? Como evitar riscos e garantir que a tecnologia trabalhe a favor da empresa sem comprometer os direitos dos titulares dos dados?

O que a LGPD diz sobre IA?

A LGPD não menciona explicitamente a inteligência artificial, mas suas diretrizes se aplicam a qualquer forma de tratamento de dados pessoais, incluindo aqueles processados por algoritmos. Isso significa que, ao usar IA, uma empresa precisa seguir os princípios da lei, como transparência, necessidade e segurança.

Se um sistema de IA coleta, armazena ou analisa informações de clientes ou funcionários, ele deve respeitar as bases legais de tratamento, garantir que os dados sejam protegidos contra acessos indevidos e oferecer formas para que os titulares possam exercer seus direitos.

Riscos que as empresas precisam evitar

O uso irresponsável da IA pode levar a problemas sérios, como o tratamento de dados sem consentimento ou sem base legal, a coleta excessiva de informações e a falta de explicação sobre como as decisões automatizadas são tomadas.

Alguns erros comuns incluem:

  • Falta de transparência: O cliente não sabe que seus dados estão sendo usados por uma IA ou como isso afeta suas interações com a empresa.
  • Uso indevido de dados sensíveis: Informações sobre saúde, crenças ou origem racial podem ser processadas sem o devido cuidado.
  • Tomada de decisão automatizada sem supervisão: Sistemas que negam crédito, ajustam preços ou avaliam perfis sem que o usuário possa contestar ou entender os critérios utilizados.

Além disso, se a empresa terceiriza ferramentas de IA sem avaliar como os dados são tratados, pode acabar envolvida em violações sem nem perceber.

Como usar IA de forma responsável

Para evitar problemas, a empresa deve adotar boas práticas que garantam conformidade com a LGPD. Algumas medidas importantes são:

  • Deixe claro como a IA trata os dados: O titular precisa saber que suas informações estão sendo analisadas por um sistema automatizado.
  • Escolha bases legais adequadas: Nem tudo pode ser tratado com base no consentimento. Avalie se há uma justificativa legal para o uso dos dados.
  • Implemente medidas de segurança: Proteja as informações contra vazamentos e acessos não autorizados.
  • Revise contratos com fornecedores de IA: Garanta que as soluções adotadas seguem a legislação brasileira e oferecem mecanismos de controle.
  • Ofereça formas de contestação: Se um cliente for afetado por uma decisão automatizada, ele deve ter o direito de pedir revisão humana.

O equilíbrio entre inovação e proteção

A inteligência artificial é uma aliada valiosa, mas não pode operar sem responsabilidade. O uso correto passa por respeitar direitos e garantir que a tecnologia esteja a serviço das pessoas, e não o contrário. Empresas que investem em boas práticas evitam riscos legais e fortalecem a confiança dos clientes. Afinal, inovação e proteção de dados devem caminhar juntas.

Publicado em

USO DE REDES WI-FI PÚBLICAS E COMO ISSO PODE EXPOR DADOS DA EMPRESA

Em um mundo onde a conectividade define a produtividade, a facilidade de acesso à internet em redes públicas pode parecer uma solução conveniente para quem precisa trabalhar remotamente. No entanto, essa comodidade esconde riscos que muitas vezes passam despercebidos.

O uso de redes Wi-Fi abertas, como as disponíveis em cafeterias, aeroportos e hotéis, pode expor informações sensíveis da empresa a interceptações. Isso acontece porque, na maioria dos casos, essas redes não possuem protocolos de segurança adequados, tornando os dados trafegados mais vulneráveis a ataques. Informações como credenciais de acesso, documentos confidenciais e até mesmo comunicações internas podem ser capturadas por terceiros sem que o usuário perceba.

Os chamados ataques “man-in-the-middle” são um exemplo comum desse risco. Neles, um invasor se posiciona entre o dispositivo do usuário e a rede, monitorando ou até manipulando os dados transmitidos. Em alguns casos, criminosos criam redes falsas com nomes semelhantes aos de estabelecimentos conhecidos, induzindo as pessoas a se conectarem sem suspeitar da fraude.

Para mitigar esses riscos, algumas medidas devem ser adotadas. O uso de redes privadas virtuais (VPNs) é uma alternativa eficiente, pois cria um túnel seguro para a transmissão de dados. Além disso, ativar a autenticação em dois fatores para acessos a sistemas corporativos reduz as chances de comprometimento de credenciais. Também é recomendável que conexões Wi-Fi públicas sejam evitadas ao lidar com informações sensíveis, priorizando redes móveis, que oferecem um nível maior de segurança.

A conscientização dos colaboradores sobre esses riscos é essencial para proteger os dados da empresa. Pequenas mudanças nos hábitos digitais podem fazer uma grande diferença na preservação da segurança da informação, reduzindo as vulnerabilidades associadas ao uso de redes desconhecidas.

Publicado em

CIBERSEGURANÇA 2025: TRANSFORMANDO DESAFIOS EM OPORTUNIDADES ESTRATÉGICAS

A cibersegurança desponta como um dos maiores desafios e também uma das mais promissoras oportunidades para organizações e indivíduos nos próximos anos. Em 2025, três aspectos se destacam como cruciais para o panorama global: a expansão da inteligência artificial generativa (IA Gen), o fortalecimento das regulamentações internacionais e a influência do cenário geopolítico na segurança digital.

IA Generativa: Uma Arma de Dois Gumes

A inteligência artificial generativa tem transformado a forma como empresas monitoram, mitigam e reagem a ameaças cibernéticas. Essa mesma tecnologia, que eleva a eficácia das defesas, também possibilita ataques cada vez mais elaborados. Deepfakes, golpes personalizados e malwares avançados são exemplos do uso malicioso da IA por cibercriminosos. O desafio corporativo será aproveitar estrategicamente essa ferramenta, implementando controles rigorosos e avaliando continuamente os riscos.

No contexto social, o uso ético de dados pessoais emerge como um tema central. À medida que a digitalização avança, a privacidade individual estará sob crescente pressão. Governos, organizações e cidadãos precisam buscar um equilíbrio entre inovação tecnológica e proteção de direitos fundamentais.

Regulamentações Rigorosas e a Nova Responsabilidade Corporativa

O aumento das exigências regulatórias, especialmente em setores críticos e financeiros, está redesenhando o papel da gestão empresarial na segurança digital. Novas diretivas exigem que conselhos de administração assumam responsabilidade direta por falhas de conformidade, eliminando a possibilidade de delegar integralmente a questão às equipes técnicas.

Essa transformação insere a cibersegurança no núcleo estratégico das organizações, demandando resiliência operacional e preparo para crises. Para a sociedade, o fortalecimento das regulamentações reduz a vulnerabilidade de serviços essenciais, como bancos e hospitais, ao mesmo tempo que reforça a confiança em ambientes digitais. Isso encoraja o uso seguro de serviços online, promovendo eficiência e inovação.

Geopolítica e a Cibersegurança: Um Cenário de Incertezas

O impacto das tensões geopolíticas sobre a cibersegurança será um dos grandes desafios de 2025. Conflitos internacionais, cibercrimes organizados com ligações políticas e instabilidade em várias nações alimentam um cenário de alta vulnerabilidade. Ataques a infraestruturas críticas, como sistemas de energia e transportes, podem causar interrupções devastadoras, enquanto campanhas de desinformação digital continuam a influenciar processos democráticos e dividir sociedades.

Além disso, operações de espionagem patrocinadas por estados comprometem informações sensíveis, colocando em risco a soberania e a competitividade econômica. Nesse contexto, a cooperação internacional entre empresas, governos e entidades multilaterais será indispensável. Protocolos de resposta conjunta e a troca de conhecimento em tempo real tornam-se estratégias essenciais para mitigar impactos e proteger setores inteiros.

Confiança e Resiliência como Alicerces do Futuro

O cenário de 2025 exige que a cibersegurança transcenda seu papel tradicional de proteção contra ameaças para se posicionar como um motor de confiança e resiliência. Quem estiver preparado para liderar com visão estratégica e antecipação terá melhores condições de prosperar em um ambiente cada vez mais regulado e competitivo.

A cibersegurança não é apenas uma questão técnica; é um compromisso com a sustentabilidade e a soberania, garantindo que os avanços tecnológicos sejam acompanhados por uma estrutura sólida de proteção e governança. O futuro digital depende da capacidade coletiva de enfrentar desafios e transformar a segurança em um diferencial estratégico para o sucesso global.

Publicado em

NETFLIX RECEBE MULTA DE €4,75 MILHÕES POR FALHAS EM TRANSPARÊNCIA SOBRE USO DE DADOS PESSOAIS

A Autoridade Holandesa de Proteção de Dados (DPA) anunciou uma penalidade de €4,75 milhões contra a Netflix por violações relacionadas à transparência no uso de dados pessoais entre 2018 e 2020. A decisão foi comunicada nesta quarta-feira (18), após uma investigação iniciada em 2019, que revelou lacunas nas práticas de privacidade da empresa.

De acordo com o órgão regulador, a plataforma de streaming não detalhou de forma clara, em sua política de privacidade, como utilizava os dados pessoais dos usuários. Além disso, apontou que informações solicitadas diretamente pelos clientes sobre seus dados também não foram fornecidas de maneira adequada. Essas práticas, segundo a DPA, contrariam o Regulamento Geral de Proteção de Dados (GDPR), legislação europeia que estabelece diretrizes rigorosas para a coleta e o uso de informações pessoais.

Desde o início da investigação, a Netflix tomou medidas para corrigir essas questões, atualizando sua política de privacidade e aprimorando a comunicação com seus assinantes. No entanto, a empresa contesta a multa aplicada, alegando que tem colaborado continuamente com as autoridades e ajustado seus processos para garantir maior clareza em relação ao tratamento de dados.

Esse caso reforça a necessidade de empresas globais não apenas seguirem as diretrizes legais, mas também garantirem práticas de transparência que construam confiança com seus usuários. A penalidade destaca o rigor crescente das autoridades em relação à proteção de dados na era digital, um alerta para organizações que operam em múltiplas jurisdições.

Publicado em

STJ REFORÇA RESPONSABILIDADE DAS EMPRESAS PELA SEGURANÇA DE DADOS PESSOAIS EM CASO DE ATAQUES HACKERS

A recente decisão unânime da 3ª Turma do Superior Tribunal de Justiça (STJ) reafirma a responsabilidade das empresas pela proteção de dados pessoais, mesmo quando o vazamento ocorre devido a ataques hackers. O caso envolveu a Eletropaulo, cujo sistema foi invadido, resultando no comprometimento de informações pessoais de seus clientes. A questão central da decisão foi determinar se, diante da origem ilícita do vazamento, a empresa estaria isenta de responsabilidades previstas na Lei Geral de Proteção de Dados (LGPD).

O entendimento do STJ foi claro: o fato de o vazamento ter ocorrido por meio de atividade criminosa não exclui a obrigação da empresa de garantir a segurança dos dados que armazena. A decisão reforça que, de acordo com a LGPD, o agente de tratamento de dados — ou seja, a empresa responsável pelo manejo das informações — deve adotar medidas técnicas e administrativas adequadas para evitar incidentes de segurança.

O ponto central da decisão foi a análise dos artigos 19 e 43 da LGPD. O tribunal entendeu que, mesmo no caso de um ataque ilícito, o dever da empresa de adotar as medidas de segurança não é diluído. O artigo 19 da LGPD determina que a empresa deve agir com diligência na proteção dos dados, enquanto o artigo 43, que trata das hipóteses de exclusão de responsabilidade, não abrange situações em que a empresa não adotou as providências necessárias para resguardar as informações.

A decisão também reforçou que a EC 115/22, que introduziu um novo marco para os direitos da personalidade no Brasil, veio para fortalecer a ideia de que as empresas têm a responsabilidade de adotar padrões rigorosos de segurança. O tribunal sublinhou que a LGPD não trata apenas da coleta e uso dos dados, mas também da segurança das informações, impondo às empresas a obrigação de implementar boas práticas de governança e medidas de segurança adequadas.

Assim, o entendimento do STJ é um importante passo para reforçar a importância da segurança digital e da proteção dos dados pessoais, responsabilizando as empresas não apenas pela conformidade com as obrigações legais, mas também pela adoção de medidas proativas para evitar que os dados que administram sejam acessados de forma indevida. Este precedente se torna um marco relevante para a jurisprudência relacionada à proteção de dados no Brasil e destaca a necessidade de as organizações se prepararem adequadamente para enfrentar as ameaças digitais.

Publicado em

DEEPFAKES E PRIVACIDADE: QUANDO A TECNOLOGIA INVADE O DIREITO DE IMAGEM

Recentemente, um caso viral nas redes sociais chamou a atenção para os riscos do uso de deepfakes e a importância de zelar pela privacidade e segurança online. Tudo começou quando uma internauta descobriu que uma marca havia usado inteligência artificial para recriar seu rosto e promover produtos, sem o consentimento dela. O vídeo em que ela compartilha essa experiência já conta com milhões de visualizações e levantou debates sobre os perigos e a ética do uso da IA.

Deepfakes, que são vídeos e imagens criados ou alterados com IA para parecerem reais, trazem um desafio inédito. A legislação brasileira protege o direito de imagem como um direito fundamental, o que significa que o uso da imagem de uma pessoa sem sua autorização pode, sim, resultar em penalidades legais e até ações por danos morais, principalmente se a imagem for usada de forma que deturpe a identidade ou os valores da pessoa envolvida.

Além disso, o uso de deepfakes em campanhas publicitárias pode confundir o público, dando a entender que a pessoa está associada à marca ou apoia o produto, o que pode ser visto como publicidade enganosa e falsidade ideológica. Para evitar esse tipo de problema, as empresas devem agir com muito cuidado ao usarem IA em estratégias de marketing.

A IA processa e aprende com grandes volumes de dados, o que, em algumas situações, pode levar à utilização de elementos protegidos por direitos de outras pessoas. É fundamental que as marcas estejam atentas e façam uma verificação cuidadosa para garantir que o uso de inteligência artificial seja seguro e ético, respeitando os direitos das pessoas. Monitorar o uso dessas tecnologias e contar com especialistas em proteção de dados são passos essenciais para que o uso de IA esteja alinhado com a legislação e com os valores da empresa.

Inovar e usar a tecnologia de forma responsável, respeitando as pessoas e garantindo que a experiência do cliente seja positiva e de confiança.

Publicado em

RECORDE DE INVESTIGAÇÕES PELA ANPD ALERTA PARA VULNERABILIDADES NO SETOR DE SAÚDE E SEGURANÇA DE DADOS

A Autoridade Nacional de Proteção de Dados (ANPD) intensificou significativamente suas atividades de fiscalização este ano, registrando um número recorde de processos para investigar incidentes de segurança e vazamentos de dados. Esse aumento é especialmente notável em outubro, mês em que a ANPD abriu 21 investigações em apenas duas semanas, superando o total acumulado nos últimos quatro anos da autarquia. Somente em 2024, já foram iniciados 31 processos de apuração, enquanto em todo o ano passado houve apenas um. Entre 2021 e 2023, o número total de investigações foi de apenas 15, refletindo o quanto a atuação da autoridade foi reforçada neste ano.

Esse movimento recente chamou a atenção de especialistas em proteção de dados, gerando discussões sobre o possível endurecimento das ações de fiscalização pela ANPD. No entanto, a própria entidade afirmou que essa intensificação não representa uma mudança de postura, mas sim uma resposta a um evento extraordinário envolvendo o vazamento de dados em grande escala. Em razão da confidencialidade dos processos, a ANPD não detalha a maioria das investigações, com algumas exceções listadas no portal oficial, onde é possível identificar empresas do setor de saúde e instituições públicas que estão sendo apuradas.

O setor de saúde, particularmente sensível pela natureza das informações tratadas, é alvo de grande parte das investigações mais recentes. Instituições do setor, assim como outros órgãos públicos, têm sido foco das apurações, enquanto as autoridades enfrentam desafios legais e estruturais para ampliar a transparência e garantir a segurança dos dados pessoais. Esse episódio levanta questões sobre os limites enfrentados pela ANPD em termos de recursos e autonomia, especialmente em um momento em que a conscientização sobre a importância da proteção de dados cresce tanto no Brasil quanto internacionalmente.