Publicado em Deixe um comentário

REGULAMENTAÇÃO DA IA: LIÇÕES DA UNIÃO EUROPEIA E PERSPECTIVAS PARA O BRASIL

Em 10 de abril de 2018, vinte e quatro Estados-Membros da União Europeia assinaram um termo de cooperação durante o evento “Digital Day 2018” para tratar da inteligência artificial (IA). Em 25 de abril do mesmo ano, a Comissão Europeia emitiu uma comunicação sobre IA, sugerindo o avanço da capacidade tecnológica e industrial da União Europeia em prol da IA, a preparação para mudanças socioeconômicas decorrentes dessa tecnologia e a criação de um marco regulatório eficaz, baseado em valores democráticos e na proteção dos direitos fundamentais, para garantir o desenvolvimento ético da IA.

A Comissão Europeia solicitou que os Estados-Membros coordenassem planos estratégicos nacionais para a implementação da IA até o final de 2018. Na ocasião, foi criado o Grupo de Peritos de Alto Nível em Inteligência Artificial (AI HLEG), composto por pesquisadores, acadêmicos, representantes da indústria e da sociedade civil. Paralelamente, foi estabelecida a “Aliança Europeia para a IA” para fomentar a participação democrática, incluindo audiências públicas sobre diversos temas relacionados à IA.

Em 18 de dezembro de 2018, o AI HLEG submeteu à consulta pública o primeiro esboço das “Diretrizes Éticas para a Fiabilidade da Inteligência Artificial”. Após debates intensos, a versão final foi apresentada em 8 de abril de 2019, intitulada “Ethics Guidelines for Trustworthy AI”. Este documento delineou quatro princípios éticos fundamentais:

  1. Respeito à autodeterminação humana: A IA deve respeitar os direitos e garantias fundamentais, bem como a democracia.
  2. Prevenção de danos: Devem ser adotadas medidas robustas para evitar danos aos seres humanos.
  3. Justiça: Garantir uma distribuição equitativa dos benefícios e custos, eliminando qualquer tipo de preconceito.
  4. Transparência e clareza: Os sistemas de IA devem ser compreensíveis para os operadores humanos.

Além dos princípios, foram apresentados requisitos para a fiabilidade da IA, abrangendo supervisão humana, robustez técnica, privacidade e proteção de dados, transparência, diversidade, bem-estar social e ambiental, e prestação de contas.

Em 7 de dezembro de 2018, a União Europeia estabeleceu um plano coordenado de medidas para a implementação da IA, incentivando os Estados-Membros a elaborarem planos nacionais até meados de 2019. Posteriormente, em 19 de fevereiro de 2020, a Comissão Europeia lançou o relatório “White Paper on Artificial Intelligence: an European approach to excellence and trust”, reforçando as diretrizes éticas e destacando a necessidade de regulação da responsabilidade civil por danos causados por produtos e serviços de IA. Sugeriu-se a revisão da “Product Liability Directive” de 1985, para abordar as complexidades da IA, como a dificuldade de provar defeitos de programação em tecnologias como carros autônomos.

Na mesma data, a Comissão Europeia aprovou o plano estratégico para os dados, prevendo um aumento significativo no volume de dados na era do Big Data. Este plano destacou a cooperação internacional necessária para a aplicação de medidas regulatórias devido à circulação transfronteiriça de dados.

Nos Estados Unidos, o “Future of AI Act” de 2017 propôs diretrizes éticas para o desenvolvimento de IA, sem abordar diretamente a área da saúde. Documentos recentes, como o “Artificial Intelligence Act” europeu e o “Algorithmic Accountability Act” norte-americano, evitam discutir a terminologia de “inteligência”, preferindo referir-se a “sistemas decisionais automatizados” e reafirmando a importância de parâmetros éticos para o desenvolvimento de algoritmos.

No Brasil, várias iniciativas legislativas buscaram regulamentar a IA, mas com propostas inicialmente superficiais. Em fevereiro de 2022, foi instituída uma comissão de juristas para elaborar um substitutivo sobre IA, resultando no Projeto de Lei nº 2.338/2023. Este projeto, inspirado na abordagem europeia, estratifica soluções conforme o grau de risco de cada atividade de IA.

Desde sua apresentação, o projeto recebeu diversas emendas parlamentares e está sendo analisado pela Comissão Temporária Interna sobre Inteligência Artificial no Brasil, um fórum multissetorial que garante regulamentações abrangentes e eficazes, equilibrando inovação tecnológica e proteção de direitos fundamentais. A versão mais recente, proposta em abril de 2024, reflete uma preocupação com a parametrização ética, alinhando-se aos princípios europeus.

A aprovação do Regulamento Geral Europeu sobre IA representa um marco significativo, baseado em princípios éticos que contribuem para o debate sobre responsabilidade civil. Este esforço europeu, resultado de anos de discussões, serve de exemplo inspirador para outras nações, incluindo o Brasil, onde os trabalhos legislativos sobre IA continuam em andamento, merecendo atenção e acompanhamento cuidadoso.

Publicado em Deixe um comentário

JUSTIÇA DECIDE EM FAVOR DE VÍTIMA DE FRAUDE BANCÁRIA VIA WHATSAPP

Recentemente, uma corte em São Paulo emitiu uma decisão importante no campo do direito do consumidor e da segurança de dados, destacando a responsabilidade das instituições financeiras em garantir a proteção de informações pessoais de seus clientes. O caso analisado envolveu um consumidor que foi vítima de uma fraude por meio de uma plataforma de mensagens, onde foi induzido a quitar uma dívida de financiamento veicular através de um boleto bancário fraudulento, apresentado por indivíduos que se passavam por funcionários da instituição financeira.

Este incidente chamou a atenção para o acesso não autorizado a dados pessoais e contratuais, considerado uma falha significativa no serviço fornecido pela entidade financeira. A decisão judicial, fundamentada nos princípios de proteção ao consumidor, enfatizou que os riscos associados às operações comerciais devem, por natureza, ser absorvidos pelas empresas, e não transferidos aos consumidores. Como resultado, a ordem de apreensão do veículo foi anulada, e o pagamento realizado pelo consumidor, sob a presunção de boa-fé, foi reconhecido como válido.

Essa sentença serve como um lembrete para as empresas sobre a importância de implementar e manter controles de segurança da informação, especialmente em um ambiente cada vez mais digitalizado. A proteção de dados pessoais é fundamental para manter a confiança nas relações comerciais e para assegurar que os direitos dos consumidores sejam respeitados. Este caso não apenas proporcionou justiça a uma única vítima de fraude, mas também estabeleceu um precedente importante sobre a responsabilidade das instituições financeiras em prevenir exposições de dados que possam colocar seus clientes em risco.

Publicado em Deixe um comentário

JUSTIÇA BRASILEIRA ESTABELECE NOVOS PADRÕES PARA PUBLICIDADE E CONCORRÊNCIA LEAL NA INTERNET

No recente julgamento pela 3ª turma do Superior Tribunal de Justiça (STJ), uma decisão emblemática marcou a jurisprudência brasileira sobre a responsabilidade civil dos provedores de serviços de internet, particularmente em casos de concorrência desleal por meio de anúncios patrocinados. A questão central girou em torno do uso de marcas registradas como palavras-chave em plataformas de publicidade digital, como o Google Ads, para promover sites de empresas concorrentes.

O caso em questão envolveu uma ação de indenização movida por empresas contra a Google. As autoras alegaram que uma concorrente utilizou indevidamente suas marcas registradas como critérios de busca no Google Ads, prática que foi interpretada como concorrência desleal e violação de direitos marcários. O Tribunal de Justiça de São Paulo (TJ/SP) deu razão às empresas, impondo à Google a responsabilidade por danos morais e materiais.

A discussão ascendeu ao STJ, onde a abordagem sobre a responsabilidade dos provedores de internet foi refinada. A questão não residia no conteúdo dos sites patrocinados, mas na metodologia adotada pelo provedor de serviços publicitários – neste caso, a Google – ao vender anúncios que poderiam induzir ao erro ou confusão dos consumidores, fomentando uma competição predatória.

A prática de concorrência desleal se configura quando uma marca registrada ou nome empresarial é utilizado como palavra-chave para promover o site de um concorrente direto, especialmente se essa ação puder prejudicar as funções identificadoras e de investimento da marca, levando em conta o art. 195, inciso III, da Lei de Propriedade Intelectual, que condena o emprego de meio fraudulento para desviar clientela.

O veredito do STJ não apenas reafirmou a proibição de uso de marcas registradas como palavras-chave por concorrentes diretos, mas também ajustou a ordem judicial para que a restrição se aplique especificamente à comercialização dessas marcas para concorrentes, sem impedir totalmente a utilização da ferramenta Google Ads.

Este julgamento sobre publicidade online e concorrência desleal, esclarece a responsabilidade dos provedores de serviços de internet neste contexto, além de estabelecer um precedente significativo sobre como as práticas de marketing digital devem ser conduzidas, resguardando os direitos de propriedade intelectual e promovendo uma competição leal e transparente no mercado digital.

Publicado em Deixe um comentário

INTELIGÊNCIA ARTIFICIAL E CONTRATOS ELETRÔNICOS: PERSPECTIVAS LEGAIS E ÉTICAS

A integração da tecnologia nos contratos empresariais está redefinindo o cenário legal contemporâneo, apresentando tanto oportunidades quanto desafios significativos. A evolução dos contratos eletrônicos impulsiona transações mais eficientes e acessíveis, eliminando limitações geográficas e temporais. No entanto, essa conveniência traz consigo questões complexas de segurança, privacidade e validade jurídica.

A responsabilidade civil nos contratos eletrônicos é um ponto necessário a ser tratado, considerando os riscos de fraude e violações de dados. A adequação dos marcos regulatórios existentes para lidar com as particularidades dos contratos digitais é um desafio importante, pois as leis tradicionais muitas vezes não abordam adequadamente as transações digitais.

A incorporação da inteligência artificial (IA) nos contratos empresariais apresenta novos desafios, especialmente em relação à autonomia da IA e à equidade contratual. A capacidade da IA de tomar decisões sem intervenção humana direta levanta questões sobre responsabilidade legal e consentimento informado.

A disparidade de informações entre as partes humanas e as máquinas também desafia a equidade contratual, exigindo abordagens legais e éticas inovadoras. A cooperação internacional e a harmonização das leis são essenciais para criar um ambiente legal coeso que facilite o comércio eletrônico global.

Além da regulamentação, a educação e a conscientização sobre os riscos e benefícios dos contratos eletrônicos e da IA são fundamentais para preparar os stakeholders para este novo paradigma. A capacitação jurídica deve evoluir para incorporar conhecimentos sobre tecnologia digital e IA.

Os contratos eletrônicos e empresariais dentro do âmbito do direito digital exigem uma abordagem multifacetada que inclua reformas legislativas, cooperação internacional e educação jurídica atualizada. Este equilíbrio delicado entre inovação tecnológica e proteção legal efetiva é crucial para moldar o futuro dos contratos digitais.

Publicado em Deixe um comentário

FAKE NEWS: ESTRATÉGIAS LEGAIS E SOCIAIS PARA UMA ERA DIGITAL INFORMADA

A era digital trouxe consigo uma avalanche de informações, acessíveis com um simples clique. No entanto, essa facilidade de acesso também pavimentou o caminho para a propagação de notícias falsas, ou “fake news”, um fenômeno que ameaça a integridade da informação e, por extensão, o tecido social, político e econômico de nossa sociedade.

Entender o que constitui uma notícia falsa é o primeiro passo para combatê-la. Diferentemente da desinformação, que pode ser inadvertida, as fake news são criações maliciosas destinadas a enganar, prejudicar reputações, ganhar vantagem financeira ou política, ou distorcer a opinião pública. Essa distinção é vital para abordar o problema de maneira eficaz.

O impacto das fake news não é trivial. Elas têm o poder de influenciar eleições, diminuir a confiança nas instituições, incitar ódio e violência, e até mesmo afetar a saúde pública, como observado nos boatos sobre vacinas durante a pandemia de Covid-19. A necessidade de uma ação legislativa tornou-se evidente, com vários países, incluindo o Brasil, propondo leis para mitigar esse fenômeno.

No coração do combate às fake news está o direito, servindo como um instrumento para proteger a sociedade. No Brasil, por exemplo, o Projeto de Lei 2.630/2020 representa um esforço para regular a disseminação de informações falsas, introduzindo responsabilidades para as plataformas digitais e promovendo a verificação de fatos e a educação digital. No entanto, é necessário reconhecer que soluções legais não devem se restringir ao âmbito penal, mas também incorporar a responsabilidade civil para tratar os danos causados pela desinformação.

Para efetivamente combater as fake news, é essencial ir além das medidas legais, promovendo a educação digital e a consciência crítica entre a população. Agências de checagem de fatos e iniciativas educacionais, como as do Tribunal Superior Eleitoral (TSE) e do Conselho Nacional de Justiça (CNJ), são fundamentais nesse processo. A responsabilidade individual na verificação e compartilhamento de informações também não pode ser subestimada.

Contudo, o combate às fake news enfrenta desafios significativos, incluindo a proteção da liberdade de expressão e a prevenção da censura por plataformas digitais. Além disso, a proteção da privacidade dos usuários e a garantia de que as medidas contra as fake news não sejam usadas para fins políticos ou ideológicos permanecem preocupações prementes.

As fake news representam um desafio complexo que exige uma resposta multifacetada, envolvendo legislação, educação, responsabilidade individual e coletiva, e a promoção de um jornalismo de qualidade. Somente através de um esforço conjunto, abrangendo todos os setores da sociedade, poderemos esperar proteger nossa democracia e nossos direitos contra o perigo das notícias falsas.

Publicado em Deixe um comentário

AS IMPLICAÇÕES LEGAIS DA EXPOSIÇÃO DE TRAIÇÕES NAS REDES SOCIAIS

No cenário atual, marcado pela prevalência das redes sociais, a descoberta de uma traição frequentemente leva à tentação de expor o incidente online. Contudo, é essencial entender as implicações legais de tal ato. A legislação brasileira, incluindo a Lei Carolina Dieckmann e o Código Civil, estabelece consequências para a invasão de privacidade e a divulgação não autorizada de informações pessoais. A exposição de uma traição pode levar a responsabilidades civis e criminais, independentemente das intenções ou emoções envolvidas.

Ainda que a pessoa traída tenha o direito de expressar suas emoções, é importante manter a cautela para não ultrapassar os limites legais. Ações como compartilhar conversas privadas ou acusar sem provas podem ser consideradas abuso do direito de liberdade de expressão. Por outro lado, se a exposição da traição é realizada por terceiros, a pessoa traída pode buscar reparação legal pelo constrangimento sofrido.

Assim, é fundamental ponderar as consequências antes de publicar detalhes de uma traição nas redes sociais. A prudência e a busca de soluções amigáveis e privadas são recomendadas para evitar complicações jurídicas. Em situações complexas, a orientação de profissionais jurídicos e psicológicos pode ser valiosa para gerenciar adequadamente a situação.

Publicado em Deixe um comentário

IOT E O DIREITO: NAVEGANDO PELOS DESAFIOS JURÍDICOS DA ERA CONECTADA

A Internet das Coisas (IoT) tem rapidamente transformado a maneira como vivemos, integrando tecnologia em muitos aspectos de nossas vidas cotidianas. A IoT oferece inúmeras vantagens, como maior eficiência, automação e aprimoramento da qualidade de vida, mas ao mesmo tempo apresenta complexos desafios legais que não podem ser negligenciados.

A proteção da privacidade dos usuários é, sem dúvida, um dos principais desafios. Com dispositivos IoT constantemente coletando e compartilhando dados pessoais, a preocupação com o uso inadequado dessas informações é legítima. Uma regulamentação sólida e eficaz é essencial para garantir a privacidade individual e o controle sobre os próprios dados.

Outro ponto crítico é a segurança dos dispositivos conectados. A interconexão de objetos introduz novos riscos, como acesso não autorizado e ameaças cibernéticas. É imperativo que as empresas que desenvolvem esses dispositivos adotem medidas de segurança robustas e que haja legislação estabelecendo padrões mínimos de segurança.

A questão da responsabilidade civil também é digna de atenção. Com a IoT, dispositivos conectados podem causar danos a terceiros, seja por falhas de segurança, mau funcionamento ou ações autônomas do dispositivo. Nesses casos, é fundamental definir quem será responsabilizado pelos danos e como a reparação será efetuada.

A proteção de dados é uma preocupação constante. Dada a quantidade de informações coletadas pelos dispositivos IoT, regras claras sobre coleta, armazenamento e compartilhamento de dados são essenciais. A Lei Geral de Proteção de Dados (LGPD) representa um marco importante nesse contexto, estabelecendo diretrizes para o uso responsável de dados pessoais.

Diante desses desafios, é importante que o direito evolua em paralelo ao avanço tecnológico. Uma legislação atualizada e eficaz é necessária para garantir a proteção dos direitos individuais e o desenvolvimento seguro e responsável da IoT.

A IoT traz consigo uma série de complexos desafios legais que requerem atenção cuidadosa. A proteção da privacidade, a segurança dos dispositivos, a questão da responsabilidade civil e a proteção de dados são questões críticas que exigem uma regulamentação sólida e eficaz, garantindo um progresso seguro e responsável na área da IoT.

Publicado em Deixe um comentário

DESAFIOS DA JURISPRUDÊNCIA: QUANDO UM VAZAMENTO DE DADOS GERA RESPONSABILIDADE

Em um caso recente que tem causado reflexões no meio jurídico, a Justiça de São Paulo decidiu sobre uma situação envolvendo alegado vazamento de dados por uma seguradora. Este caso chama a atenção, em particular, por levantar questões relevantes no contexto da Lei Geral de Proteção de Dados (LGPD) e seus impactos na jurisprudência brasileira.

Uma das questões era se a seguradora deveria ser responsabilizada pelo vazamento de dados de um cliente que, posteriormente, alegou ter sido alvo de estelionatários. O cliente buscou reparação por danos morais, e a questão foi, em primeira instância, decidida em seu favor, com uma indenização estabelecida.

Contudo, ao recorrer da decisão, a seguradora trouxe ao debate dois pontos fundamentais: o caráter dos dados vazados e a comprovação do dano.

O Tribunal avaliou que os dados em questão não se enquadravam no conceito de “dados sensíveis” conforme determina a LGPD. A distinção é fundamental, pois a proteção conferida a esses dados é mais ampla, e sua exposição pode gerar repercussões mais significativas. Neste caso, o entendimento foi que não houve exposição de tais dados e, portanto, não caberia a condenação da empresa nesse aspecto.

Além disso, houve um forte argumento de que a responsabilidade pela exposição dos dados não estava, de fato, com a seguradora. Invasões e vazamentos, por mais indesejáveis que sejam, não são necessariamente reflexo de falhas internas da empresa. É uma discussão que vai além da culpa e adentra a efetiva responsabilização.

O Tribunal entendeu que não houve comprovação de dano efetivo ao cliente. A tentativa de golpe alegada não teve relação direta com o incidente de vazamento, faltando assim o nexo causal entre o vazamento e o suposto dano.

No contexto mais amplo, o caso se alinha a um entendimento crescente sobre a aplicabilidade e os limites da LGPD, bem como a necessidade de uma avaliação criteriosa sobre danos morais em situações de vazamento de dados. A decisão reforça a ideia de que cada caso deve ser analisado de maneira individual, levando em consideração a natureza dos dados, as circunstâncias do vazamento e a real extensão do dano causado.