Publicado em Deixe um comentário

CONSEQUÊNCIAS LEGAIS DO USO INDEVIDO DE DADOS EM ESTRATÉGIAS DE MARKETING

Na pressa de cumprir metas ou aumentar engajamento, muitas empresas esquecem o básico: a vontade do cliente. O consentimento, que deveria ser claro e informado, vira só mais uma caixinha marcada por padrão. E é aí que começam os problemas.

Um e-commerce que envia e-mails marketing diários para quem apenas navegou no site, sem autorizar comunicações. Um formulário de cadastro que já vem com o “aceito receber ofertas” marcado automaticamente. Ou um sistema de CRM que compartilha dados de clientes com parceiros sem nunca ter deixado isso transparente. São práticas comuns, mas que podem custar caro.

A LGPD exige que o consentimento seja livre, informado e inequívoco. Opt-ins mal configurados, com linguagem ambígua ou campos pré-marcados, podem ser considerados inválidos. Mais do que um erro técnico, isso representa uma violação ao direito do titular e pode gerar sanções administrativas e ações judiciais.

Em um caso recente, uma empresa foi acionada judicialmente após enviar mensagens automatizadas de WhatsApp com ofertas a uma pessoa que nunca autorizou esse tipo de contato. O número havia sido captado por meio de um lead comprado de terceiro, sem base legal. Resultado: indenização por dano moral e investigação pelo órgão regulador.

A automação de marketing é uma ferramenta valiosa. Mas, se usada sem respeito aos princípios da privacidade e do consentimento, transforma-se em um risco jurídico disfarçado de oportunidade comercial.

Publicado em Deixe um comentário

FRAUDES NO WHATSAPP CORPORATIVO: GOLPE DIGITAL COM USO INDEVIDO DA IDENTIDADE EMPRESARIAL

Nos últimos anos, empresas de diferentes portes têm enfrentado prejuízos significativos causados por golpistas que se passam por representantes legítimos das organizações, utilizando perfis falsos no WhatsApp. Essa prática, além de comprometer a imagem da empresa, afeta diretamente seus clientes e parceiros comerciais, exigindo uma resposta jurídica firme e tecnicamente estruturada.

A primeira providência deve ser interna: é dever da empresa estabelecer normas claras de comunicação institucional. Isso inclui informar de forma ostensiva, em seus canais oficiais, quais números são utilizados para contato e atendimento, bem como orientar seus clientes sobre como identificar interações legítimas. Essa conduta não elimina o risco, mas demonstra diligência na proteção do consumidor, o que poderá ser relevante no eventual afastamento de responsabilidade civil.

Do ponto de vista jurídico, quando um terceiro se aproveita da identidade visual, logotipo ou nome empresarial para aplicar golpes, configura-se a prática de crime de falsidade ideológica, fraude eletrônica (art. 171, §2º-A do Código Penal) e, em determinadas situações, violação da marca registrada. A empresa, nesse caso, também pode ser vítima, mas não está automaticamente isenta de responsabilidade perante terceiros prejudicados.

A jurisprudência tem sinalizado que, quando há omissão por parte da empresa na adoção de medidas preventivas, como autenticação em dois fatores, uso de contas verificadas e ausência de canais seguros de denúncia, pode haver responsabilização com base no art. 14 do Código de Defesa do Consumidor. O Superior Tribunal de Justiça já assentou que, diante do risco inerente à atividade comercial exercida, o fornecedor deve responder pelos danos causados por defeitos na prestação do serviço, inclusive aqueles decorrentes de falhas na segurança da comunicação digital.

Dessa forma, a responsabilização pode se desdobrar em duas frentes: o golpista, que pratica o crime e deve ser identificado e processado criminalmente, e a empresa, que pode responder civilmente se restar demonstrada sua omissão ou negligência. Por isso, é indispensável manter registros das ocorrências, adotar medidas técnicas de segurança e promover campanhas educativas com clientes e colaboradores.

Empresários atentos devem tratar a gestão da identidade digital como um ativo estratégico. Investir em governança, segurança da informação e conformidade com a Lei Geral de Proteção de Dados (LGPD) é uma medida que reduz riscos e fortalece a credibilidade institucional.

A prevenção começa com a informação, mas a responsabilização é construída com provas, registros e condutas coerentes com o dever de zelo.

Publicado em Deixe um comentário

USO DE IMAGENS POR INTELIGÊNCIA ARTIFICIAL EM REDES SOCIAIS CORPORATIVAS

A popularização das ferramentas de inteligência artificial trouxe inúmeras possibilidades para o marketing digital, incluindo a personalização de conteúdo e a automação de processos. No entanto, ao lado dessas vantagens, surgem riscos concretos que não podem ser ignorados, especialmente no que se refere ao uso de imagens de pessoas em campanhas e publicações institucionais.

Uma das práticas mais sensíveis é o uso de rostos reais sem autorização. Seja de colaboradores, consumidores ou influenciadores, a reprodução da imagem sem consentimento pode gerar responsabilidade civil e comprometer a reputação da empresa. Não basta estar disponível na internet. A Lei Geral de Proteção de Dados Pessoais (LGPD) trata a imagem como dado pessoal sensível, exigindo uma base legal específica para seu tratamento, geralmente o consentimento expresso.

O uso de ferramentas que geram ou manipulam rostos com aparência realista, como os chamados deepfakes, representa uma camada adicional de risco. Embora possam ser utilizadas para criar conteúdos criativos e envolventes, essas tecnologias também podem ser empregadas de forma antiética, inclusive na composição de vídeos ou fotos que simulam falas ou comportamentos de pessoas reais. Quando isso ocorre sem autorização, o problema deixa de ser apenas ético e passa a ter implicações jurídicas sérias.

Empresas que adotam a inteligência artificial como aliada na comunicação institucional devem estabelecer critérios claros para o uso de imagens. Isso envolve desde políticas internas até treinamentos de equipes de marketing e comunicação. Também é recomendável a revisão dos contratos com agências terceirizadas, garantindo cláusulas específicas sobre responsabilidade no uso de conteúdo gerado por IA.

A construção da confiança com o público passa, hoje, pelo respeito à identidade visual e à integridade da imagem das pessoas. Utilizar a inteligência artificial com responsabilidade não é apenas uma questão de conformidade legal, mas de respeito à dignidade humana.

A tecnologia avança, mas os princípios continuam os mesmos: transparência, ética e respeito. É por esses caminhos que as empresas devem conduzir suas estratégias digitais.

Publicado em Deixe um comentário

CAPTAÇÃO DE LEADS SEM CONSENTIMENTO: IMPLICAÇÕES LEGAIS PARA EMPRESAS E PROFISSIONAIS

A prática de adquirir bases de dados sem origem legítima ou captar leads sem o devido consentimento pode parecer, à primeira vista, uma forma rápida de alcançar resultados comerciais. Contudo, essa aparente vantagem esconde riscos jurídicos sérios e cada vez mais concretos.

Empresas que compram listas de contatos ou utilizam formulários online sem informar, de forma clara e transparente, como os dados serão tratados, se expõem a dois tipos de consequências: a responsabilização civil por parte dos titulares dos dados e a sanção administrativa por violação à Lei Geral de Proteção de Dados (LGPD).

Do ponto de vista do consumidor, o uso indevido de seus dados pode gerar danos morais e materiais. Há decisões judiciais que reconhecem o direito à indenização em casos nos quais a pessoa sequer sabia que seus dados estavam sendo comercializados ou utilizados por terceiros. Basta uma ligação fora de hora ou um e-mail marketing insistente para dar início a uma ação judicial.

Além disso, a Autoridade Nacional de Proteção de Dados (ANPD) já vem aplicando multas e advertências a empresas que desrespeitam os princípios da boa-fé, da finalidade e da transparência previstos na LGPD. A ausência de base legal válida para a coleta e o uso de informações pessoais – como o consentimento ou o legítimo interesse devidamente documentado – é suficiente para caracterizar infração.

Investir em práticas seguras e éticas de captação de leads, com documentos de privacidade claros, sistemas de registro de consentimento e revisão dos fluxos internos de tratamento de dados, não é apenas uma questão de conformidade: é respeito ao cliente e proteção à reputação da própria empresa.

Publicado em Deixe um comentário

VAZAMENTO DE DADOS SEM MÁ CONDUTA: O QUE A LGPD EXIGE DA SUA EMPRESA

Imagine a seguinte situação: um colaborador, agindo de boa-fé, acessa um link aparentemente legítimo. Em segundos, informações sensíveis de clientes são comprometidas. Não houve má-fé e nem a intenção de causar dano. Ainda assim, o vazamento ocorreu. E agora?

A resposta a essa pergunta encontra respaldo direto na Lei Geral de Proteção de Dados Pessoais (LGPD), que impõe a todas as empresas — independentemente de seu porte ou ramo de atividade — o dever de adotar medidas de segurança aptas a proteger os dados pessoais que tratam. Trata-se do chamado dever de segurança, um compromisso permanente com a prevenção de riscos que envolvem a integridade das informações.

Mais do que isso, a LGPD estabelece que a responsabilidade da empresa, em casos como esse, é objetiva. Isso significa que não importa se o incidente decorreu de erro humano ou de uma falha técnica imprevisível. Se houver prejuízo ao titular dos dados, a empresa poderá responder por ele, mesmo sem dolo ou culpa direta.

Diante disso, surge uma reflexão necessária: o que sua empresa tem feito para evitar esse tipo de ocorrência?

Treinar os colaboradores para reconhecer ameaças digitais, adotar políticas internas de segurança da informação, utilizar ferramentas de proteção adequadas e manter registros organizados de todas essas ações não são apenas boas práticas — são obrigações legais que demonstram diligência e comprometimento com a proteção dos dados.

A cultura da prevenção não se constrói da noite para o dia, mas é a base para mitigar riscos e fortalecer a confiança entre a empresa, seus clientes e o Poder Judiciário.

Investir em segurança da informação e proteção de dados não é um luxo ou um diferencial competitivo. É uma necessidade jurídica, técnica e ética que acompanha qualquer organização comprometida com a continuidade de suas atividades e com o respeito à privacidade dos indivíduos.

A responsabilidade existe, mesmo quando o erro parece pequeno. O preparo é o que diferencia uma empresa que aprende daquela que responde.

Publicado em Deixe um comentário

EXPOSIÇÃO DE DADOS EM REDES SOCIAIS PODE VIRAR AÇÃO JUDICIAL

A facilidade de compartilhar informações nas redes sociais trouxe benefícios para a comunicação, o marketing e até mesmo para o fortalecimento de laços pessoais. No entanto, esse ambiente também representa um ponto de atenção quando se trata da proteção de dados pessoais. O compartilhamento descuidado de informações pode servir de porta de entrada para golpistas e resultar em prejuízos financeiros e morais — situações que, cada vez mais, têm sido levadas ao Poder Judiciário.

Perfis públicos, publicações com dados sensíveis, localização em tempo real, fotos de documentos e até comentários aparentemente inofensivos podem ser utilizados por criminosos para aplicar golpes digitais. A engenharia social — técnica que manipula a vítima a fornecer informações ou realizar ações indevidas — se alimenta dessas pistas espalhadas online. O resultado são fraudes como falsos agendamentos, clonagens de contas e invasões de dispositivos, com impacto direto sobre a privacidade e a segurança dos indivíduos.

É importante destacar que o Marco Civil da Internet (Lei nº 12.965/2014) e a Lei Geral de Proteção de Dados (Lei nº 13.709/2018) asseguram direitos fundamentais ao titular dos dados, inclusive o direito à reparação por danos decorrentes do uso indevido de suas informações. Isso significa que, quando se comprova que uma pessoa sofreu prejuízo em decorrência da exposição indevida de dados nas redes — seja por falha de terceiros ou até mesmo por indução a erro por parte de plataformas — há espaço para responsabilização judicial.

Além disso, empresas e influenciadores digitais que tratam dados de terceiros ou incentivam práticas de exposição sem o devido cuidado podem ser responsabilizados civilmente. Cabe lembrar que a exposição de dados pessoais sem consentimento ou sem finalidade legítima pode configurar violação à LGPD, gerando não apenas multas administrativas, mas também demandas judiciais com pedidos de indenização por danos morais e materiais.

Por esse motivo, adotar uma postura prudente no ambiente digital é uma medida de prevenção. Orientar familiares, colaboradores e clientes sobre os riscos do compartilhamento excessivo é um passo necessário. A atuação de profissionais especializados em proteção de dados pode auxiliar na estruturação de políticas internas e no reforço da conscientização, evitando situações que comprometam a integridade das pessoas e das organizações.

Proteger informações é um dever jurídico e ético que acompanha a transformação digital. As redes sociais continuarão a ser espaços de convivência e expressão, mas devem ser utilizadas com responsabilidade, sob pena de suas facilidades se transformarem em vulnerabilidades.

Publicado em Deixe um comentário

RESPONSABILIDADE NA LGPD: QUEM RESPONDE POR FALHAS NO TRATAMENTO DE DADOS?

A Lei Geral de Proteção de Dados Pessoais (LGPD) exige que empresas adotem medidas claras e eficazes para proteger os dados pessoais que tratam. Quando ocorre uma falha — ou mesmo quando há apenas a percepção de uma irregularidade — é comum que surja a dúvida: quem deve responder por isso?

A responsabilidade legal recai, antes de tudo, sobre a empresa. É ela quem define as finalidades e os meios do tratamento de dados, assumindo, assim, o papel de controladora. Cabe à empresa adotar políticas internas, implementar medidas de segurança, orientar seus colaboradores e fiscalizar eventuais operadores de dados com quem mantenha relação contratual.

O Encarregado de Proteção de Dados (DPO) exerce uma função de orientação e interlocução. É ele quem atua como canal de comunicação entre a empresa, os titulares dos dados e a Autoridade Nacional de Proteção de Dados (ANPD). Ainda que tenha um papel estratégico dentro da governança, o DPO não é o responsável legal pelos atos da empresa. Não decide sozinho, nem executa diretamente o tratamento de dados. Sua responsabilidade pessoal, portanto, só poderá ser cogitada em hipóteses muito específicas, como em casos de má-fé ou omissão grave.

O setor jurídico, por sua vez, tem o papel de interpretar a legislação e apoiar a empresa na adoção de medidas que reduzam riscos legais. Atua na formulação de pareceres, na elaboração de contratos e na definição de políticas. Entretanto, sua atuação também é consultiva. O jurídico não executa o tratamento de dados, nem possui poder de comando sobre os departamentos operacionais.

Dessa forma, em ocorrências envolvendo dados pessoais, a empresa é a principal responsável. É dela a obrigação de garantir a conformidade com a LGPD. O DPO e o jurídico contribuem com suporte técnico e estratégico, mas não substituem a responsabilidade institucional.

A clareza na definição de papéis e o investimento em governança são as melhores ferramentas para evitar falhas — e, sobretudo, para responder adequadamente quando elas ocorrem. Delegar não significa transferir o dever de proteger.

Publicado em Deixe um comentário

EMPRESAS DEVEM RESPONDER POR VAZAMENTO DE DADOS, DECIDE TRIBUNAL SUPERIOR

A recente decisão unânime de um tribunal superior no Brasil consolidou o entendimento de que empresas não estão isentas de responsabilidade em casos de vazamento de dados pessoais, mesmo que sejam considerados não sensíveis, quando esses incidentes decorrem de ataques cibernéticos.

O caso em questão envolveu uma concessionária de energia elétrica cujo sistema foi invadido, resultando na exposição de dados pessoais de clientes. A discussão jurídica girava em torno de dois aspectos cruciais: a aplicação do artigo 19, inciso II, da Lei Geral de Proteção de Dados (LGPD), que trata das obrigações do agente de tratamento, e a possível aplicação do artigo 43, inciso III, da mesma lei, que prevê hipóteses de exclusão de responsabilidade.

Responsabilidade e segurança no tratamento de dados

Na análise do caso, o tribunal reforçou que as empresas que atuam como agentes de tratamento têm o dever legal de adotar medidas robustas de segurança para proteger os dados pessoais sob sua gestão. A decisão destacou que, com a Emenda Constitucional 115/22, os direitos à proteção de dados ganharam status constitucional, elevando ainda mais a exigência de conformidade com a LGPD.

Os sistemas corporativos, de acordo com os fundamentos apresentados, devem estar em total alinhamento com os requisitos de segurança, princípios gerais e boas práticas estabelecidos pela legislação vigente. A adequação às normas de proteção de dados é vista como uma forma indispensável de demonstrar o comprometimento das empresas com a segurança da informação.

Compliance como pilar essencial

A conformidade com a LGPD foi ressaltada como essencial para garantir a eficácia dos programas de proteção adotados pelas organizações. A decisão apontou que, no caso analisado, o tratamento de dados foi considerado insuficiente, uma vez que a empresa não forneceu um nível de proteção adequado às expectativas legítimas dos titulares, de acordo com as circunstâncias específicas do incidente.

Dessa forma, o tribunal manteve a responsabilidade da empresa, negando provimento ao recurso. A decisão reforça a importância de um planejamento rigoroso e de investimentos em governança de dados para prevenir e mitigar riscos relacionados à segurança da informação.

Essa interpretação da LGPD reafirma o papel das empresas na proteção de dados e alerta para a necessidade de constante atualização em relação às normas e boas práticas, especialmente em um cenário onde as ameaças cibernéticas são cada vez mais sofisticadas.

Publicado em Deixe um comentário

JUSTIÇA CONDENA DISTRITO FEDERAL POR EXPOSIÇÃO INDEVIDA DE DADOS DE MENOR APRENDIZ

A 2ª Vara de Fazenda Pública do Distrito Federal determinou que o ente público indenize um menor de idade por danos morais, após a exposição indevida de seus dados pessoais durante seu período de trabalho como aprendiz no Conselho Tutelar da região de Sol Nascente.

Conforme os autos do processo, o jovem relatou que outros menores aprendizes tiveram acesso a documentos que continham informações sensíveis sobre ele e seus familiares, referentes a atendimentos realizados anteriormente pelo Conselho Tutelar. Esses dados teriam sido compartilhados em um grupo de mensagens, gerando constrangimento e situações de humilhação ao menor. Após o ocorrido, o jovem passou a ser alvo de comentários pejorativos, o que tornou inviável a convivência com os demais colegas de trabalho. Além disso, ele revelou que alguns dos envolvidos possuíam histórico de atos infracionais, o que aumentou seu receio de sofrer retaliações. Diante do ambiente hostil, a solução encontrada foi a sua transferência para outra unidade do Conselho.

A defesa do Distrito Federal sustentou que as mensagens anexadas ao processo não seriam suficientes para comprovar a divulgação de informações do autor, alegando falta de evidências que configurassem a violação de dados pessoais. No entanto, a análise do juiz divergiu desse entendimento.

As conversas registradas nos autos demonstravam a exposição indevida dos dados do menor e sua família. “As mensagens revelam claramente o acesso a pastas que continham dados pessoais do autor e de seus familiares”, enfatizou. A decisão ainda frisou a falha do Distrito Federal em proteger informações sensíveis, violando os direitos à privacidade e à dignidade do menor, garantidos pelo Estatuto da Criança e do Adolescente (ECA) e pela Lei Geral de Proteção de Dados (LGPD).

Houve uma clara quebra do sigilo de dados protegidos pela LGPD e uma violação à intimidade do jovem, resultando em danos que não podem ser mensurados. Diante desses fatores, o Distrito Federal foi condenado a pagar uma indenização de R$ 30 mil, além de ser responsabilizado pelas custas processuais e honorários advocatícios.

Essa decisão reforça a importância da proteção de dados pessoais, especialmente no contexto de menores, destacando que a falta de cuidado na gestão de informações sensíveis pode acarretar sérias consequências jurídicas e sociais.

Publicado em Deixe um comentário

REGULAMENTAÇÃO DA IA: LIÇÕES DA UNIÃO EUROPEIA E PERSPECTIVAS PARA O BRASIL

Em 10 de abril de 2018, vinte e quatro Estados-Membros da União Europeia assinaram um termo de cooperação durante o evento “Digital Day 2018” para tratar da inteligência artificial (IA). Em 25 de abril do mesmo ano, a Comissão Europeia emitiu uma comunicação sobre IA, sugerindo o avanço da capacidade tecnológica e industrial da União Europeia em prol da IA, a preparação para mudanças socioeconômicas decorrentes dessa tecnologia e a criação de um marco regulatório eficaz, baseado em valores democráticos e na proteção dos direitos fundamentais, para garantir o desenvolvimento ético da IA.

A Comissão Europeia solicitou que os Estados-Membros coordenassem planos estratégicos nacionais para a implementação da IA até o final de 2018. Na ocasião, foi criado o Grupo de Peritos de Alto Nível em Inteligência Artificial (AI HLEG), composto por pesquisadores, acadêmicos, representantes da indústria e da sociedade civil. Paralelamente, foi estabelecida a “Aliança Europeia para a IA” para fomentar a participação democrática, incluindo audiências públicas sobre diversos temas relacionados à IA.

Em 18 de dezembro de 2018, o AI HLEG submeteu à consulta pública o primeiro esboço das “Diretrizes Éticas para a Fiabilidade da Inteligência Artificial”. Após debates intensos, a versão final foi apresentada em 8 de abril de 2019, intitulada “Ethics Guidelines for Trustworthy AI”. Este documento delineou quatro princípios éticos fundamentais:

  1. Respeito à autodeterminação humana: A IA deve respeitar os direitos e garantias fundamentais, bem como a democracia.
  2. Prevenção de danos: Devem ser adotadas medidas robustas para evitar danos aos seres humanos.
  3. Justiça: Garantir uma distribuição equitativa dos benefícios e custos, eliminando qualquer tipo de preconceito.
  4. Transparência e clareza: Os sistemas de IA devem ser compreensíveis para os operadores humanos.

Além dos princípios, foram apresentados requisitos para a fiabilidade da IA, abrangendo supervisão humana, robustez técnica, privacidade e proteção de dados, transparência, diversidade, bem-estar social e ambiental, e prestação de contas.

Em 7 de dezembro de 2018, a União Europeia estabeleceu um plano coordenado de medidas para a implementação da IA, incentivando os Estados-Membros a elaborarem planos nacionais até meados de 2019. Posteriormente, em 19 de fevereiro de 2020, a Comissão Europeia lançou o relatório “White Paper on Artificial Intelligence: an European approach to excellence and trust”, reforçando as diretrizes éticas e destacando a necessidade de regulação da responsabilidade civil por danos causados por produtos e serviços de IA. Sugeriu-se a revisão da “Product Liability Directive” de 1985, para abordar as complexidades da IA, como a dificuldade de provar defeitos de programação em tecnologias como carros autônomos.

Na mesma data, a Comissão Europeia aprovou o plano estratégico para os dados, prevendo um aumento significativo no volume de dados na era do Big Data. Este plano destacou a cooperação internacional necessária para a aplicação de medidas regulatórias devido à circulação transfronteiriça de dados.

Nos Estados Unidos, o “Future of AI Act” de 2017 propôs diretrizes éticas para o desenvolvimento de IA, sem abordar diretamente a área da saúde. Documentos recentes, como o “Artificial Intelligence Act” europeu e o “Algorithmic Accountability Act” norte-americano, evitam discutir a terminologia de “inteligência”, preferindo referir-se a “sistemas decisionais automatizados” e reafirmando a importância de parâmetros éticos para o desenvolvimento de algoritmos.

No Brasil, várias iniciativas legislativas buscaram regulamentar a IA, mas com propostas inicialmente superficiais. Em fevereiro de 2022, foi instituída uma comissão de juristas para elaborar um substitutivo sobre IA, resultando no Projeto de Lei nº 2.338/2023. Este projeto, inspirado na abordagem europeia, estratifica soluções conforme o grau de risco de cada atividade de IA.

Desde sua apresentação, o projeto recebeu diversas emendas parlamentares e está sendo analisado pela Comissão Temporária Interna sobre Inteligência Artificial no Brasil, um fórum multissetorial que garante regulamentações abrangentes e eficazes, equilibrando inovação tecnológica e proteção de direitos fundamentais. A versão mais recente, proposta em abril de 2024, reflete uma preocupação com a parametrização ética, alinhando-se aos princípios europeus.

A aprovação do Regulamento Geral Europeu sobre IA representa um marco significativo, baseado em princípios éticos que contribuem para o debate sobre responsabilidade civil. Este esforço europeu, resultado de anos de discussões, serve de exemplo inspirador para outras nações, incluindo o Brasil, onde os trabalhos legislativos sobre IA continuam em andamento, merecendo atenção e acompanhamento cuidadoso.

Publicado em Deixe um comentário

JUSTIÇA DECIDE EM FAVOR DE VÍTIMA DE FRAUDE BANCÁRIA VIA WHATSAPP

Recentemente, uma corte em São Paulo emitiu uma decisão importante no campo do direito do consumidor e da segurança de dados, destacando a responsabilidade das instituições financeiras em garantir a proteção de informações pessoais de seus clientes. O caso analisado envolveu um consumidor que foi vítima de uma fraude por meio de uma plataforma de mensagens, onde foi induzido a quitar uma dívida de financiamento veicular através de um boleto bancário fraudulento, apresentado por indivíduos que se passavam por funcionários da instituição financeira.

Este incidente chamou a atenção para o acesso não autorizado a dados pessoais e contratuais, considerado uma falha significativa no serviço fornecido pela entidade financeira. A decisão judicial, fundamentada nos princípios de proteção ao consumidor, enfatizou que os riscos associados às operações comerciais devem, por natureza, ser absorvidos pelas empresas, e não transferidos aos consumidores. Como resultado, a ordem de apreensão do veículo foi anulada, e o pagamento realizado pelo consumidor, sob a presunção de boa-fé, foi reconhecido como válido.

Essa sentença serve como um lembrete para as empresas sobre a importância de implementar e manter controles de segurança da informação, especialmente em um ambiente cada vez mais digitalizado. A proteção de dados pessoais é fundamental para manter a confiança nas relações comerciais e para assegurar que os direitos dos consumidores sejam respeitados. Este caso não apenas proporcionou justiça a uma única vítima de fraude, mas também estabeleceu um precedente importante sobre a responsabilidade das instituições financeiras em prevenir exposições de dados que possam colocar seus clientes em risco.

Publicado em Deixe um comentário

JUSTIÇA BRASILEIRA ESTABELECE NOVOS PADRÕES PARA PUBLICIDADE E CONCORRÊNCIA LEAL NA INTERNET

No recente julgamento pela 3ª turma do Superior Tribunal de Justiça (STJ), uma decisão emblemática marcou a jurisprudência brasileira sobre a responsabilidade civil dos provedores de serviços de internet, particularmente em casos de concorrência desleal por meio de anúncios patrocinados. A questão central girou em torno do uso de marcas registradas como palavras-chave em plataformas de publicidade digital, como o Google Ads, para promover sites de empresas concorrentes.

O caso em questão envolveu uma ação de indenização movida por empresas contra a Google. As autoras alegaram que uma concorrente utilizou indevidamente suas marcas registradas como critérios de busca no Google Ads, prática que foi interpretada como concorrência desleal e violação de direitos marcários. O Tribunal de Justiça de São Paulo (TJ/SP) deu razão às empresas, impondo à Google a responsabilidade por danos morais e materiais.

A discussão ascendeu ao STJ, onde a abordagem sobre a responsabilidade dos provedores de internet foi refinada. A questão não residia no conteúdo dos sites patrocinados, mas na metodologia adotada pelo provedor de serviços publicitários – neste caso, a Google – ao vender anúncios que poderiam induzir ao erro ou confusão dos consumidores, fomentando uma competição predatória.

A prática de concorrência desleal se configura quando uma marca registrada ou nome empresarial é utilizado como palavra-chave para promover o site de um concorrente direto, especialmente se essa ação puder prejudicar as funções identificadoras e de investimento da marca, levando em conta o art. 195, inciso III, da Lei de Propriedade Intelectual, que condena o emprego de meio fraudulento para desviar clientela.

O veredito do STJ não apenas reafirmou a proibição de uso de marcas registradas como palavras-chave por concorrentes diretos, mas também ajustou a ordem judicial para que a restrição se aplique especificamente à comercialização dessas marcas para concorrentes, sem impedir totalmente a utilização da ferramenta Google Ads.

Este julgamento sobre publicidade online e concorrência desleal, esclarece a responsabilidade dos provedores de serviços de internet neste contexto, além de estabelecer um precedente significativo sobre como as práticas de marketing digital devem ser conduzidas, resguardando os direitos de propriedade intelectual e promovendo uma competição leal e transparente no mercado digital.