Publicado em Deixe um comentário

COMO A INTELIGÊNCIA ARTIFICIAL ESTÁ SENDO USADA EM GOLPES

O avanço da inteligência artificial (IA) tem trazido benefícios significativos na interação entre humanos e tecnologia, mas o emprego de inteligência artificial (IA) em práticas ilegais tem sido motivo de preocupação.

Um exemplo disso é a utilização de deepfakes, que são vídeos manipulados através da IA, em esquemas de fraude. Nesses golpes, os criminosos usam imagens e vozes sintetizadas para criar videochamadas falsas, com o objetivo de extorquir dinheiro de pessoas próximas às vítimas.

Recentemente, houve um aumento nos relatos de fraudes envolvendo IA, tanto com figuras públicas quanto com cidadãos comuns. Os golpistas geralmente criam situações de emergência falsas para persuadir as vítimas a enviar dinheiro rapidamente, usando tanto vídeos quanto apenas vozes sintetizadas.

As autoridades estão atentas a esses golpes e os classificam como sérias infrações, que podem incluir crimes como falsidade ideológica e estelionato. A natureza global desses crimes e a complexidade envolvida em sua investigação e punição apresentam desafios significativos.

No campo legal, especialistas em direito digital observam a existência de aplicativos que facilitam a venda de dados pessoais e o uso de IA para fins fraudulentos. Alguns casos de fraudes já foram resolvidos, com vítimas recebendo reembolso após a comprovação do uso de IA. Há esforços legislativos para introduzir leis mais rigorosas contra essas práticas.

Para prevenção, recomenda-se medidas como a adoção de códigos secretos para situações de emergência, autenticação de dois fatores em contas online e cuidado ao compartilhar informações pessoais na internet. Em casos de exposição indevida de dados, é importante procurar assistência especializada.

Publicado em Deixe um comentário

ENTENDA COMO A INTELIGÊNCIA ARTIFICIAL ESTÁ REDEFININDO AS REGRAS DA CONCORRÊNCIA

À medida que a inteligência artificial (IA) avança e se integra em diversos setores, surgem importantes questões concorrenciais. Destaca-se a preocupação com as grandes empresas de tecnologia (big techs) usando seu poder de mercado para dominar ferramentas de IA e vastas bases de dados, limitando as opções do consumidor.

Recentemente, em 18 de setembro, um relatório da autoridade de concorrência do Reino Unido, a Competition & Markets Authority (CMA), levantou preocupações sobre a concorrência no desenvolvimento de modelos de base para IA. O relatório enfatiza que o desenvolvimento desses modelos exige um volume substancial de dados, recursos computacionais dispendiosos e expertise técnica, o que pode reduzir a concorrência e desincentivar a inovação. Um estudo do Goldman Sachs projeta um investimento global em IA de cerca de 200 bilhões de dólares até 2025. Governos e autoridades de concorrência ao redor do mundo estão focados na regulação da IA, especialmente considerando seus potenciais impactos negativos na livre concorrência.

Em 2017, a Organização para a Cooperação e Desenvolvimento Econômico (OCDE) publicou o estudo “Algorithms and Collusion: Competition Policy in the Digital Age”, que discute os desafios que os algoritmos representam para a aplicação da lei da concorrência e a regulação do mercado. A CMA também divulgou estudos em 2018 e 2021 sobre o impacto dos algoritmos na concorrência. Autoridades de concorrência de Portugal, França e Alemanha publicaram estudos semelhantes.

Os estudos concordam que o uso de IA, especialmente na forma de algoritmos, pode facilitar a colusão entre concorrentes, formando cartéis conhecidos como “hub and spoke”, ou promover colusão tácita. A CMA e a Autoridade da Concorrência indicaram que plataformas online e empresas com poder de mercado podem usar algoritmos para práticas de self-preferencing, favorecendo seus próprios produtos e serviços em detrimento dos concorrentes, e para acordos de fixação de preços de revenda.

Diante desse cenário, questiona-se a preparação das autoridades globais e brasileiras para enfrentar essa realidade. A OCDE, preocupada com a proteção e promoção da concorrência nos mercados digitais, destacou a importância da transparência dos algoritmos e da responsabilização pelos seus efeitos.

No Brasil, tramitam o PL nº 2.338/2023 para regular a IA, o PL nº 2.630/2020 (Lei das Fake News) para transparência em redes sociais e serviços de mensagens, e o PL nº 2.768/2022 (Lei de Mercado Digital) para regular plataformas digitais, incluindo a concorrência. A OCDE enfatiza a importância dos programas de leniência como ferramenta de denúncia para participantes de carteis, considerando a dificuldade em detectar condutas irregulares facilitadas pela IA.

O Conselho Administrativo de Defesa Econômica (Cade) do Brasil possui um programa de leniência e, em 2022, criou uma unidade especializada em investigações de condutas unilaterais. Além disso, adotou a recomendação da OCDE de implementar ferramentas de IA para monitorar condutas anticompetitivas, desenvolvendo o Projeto Cérebro, que usa mineração de dados e algoritmos para identificar suspeitas de atuação coordenada em mercados.

Com essas iniciativas, o Brasil segue a União Europeia em obrigar empresas a cumprir legislações de proteção de dados e concorrência no desenvolvimento de ferramentas de IA. O Cade também trabalha para criar técnicas que inibam e combatam condutas anticompetitivas de forma eficiente.

A IA, cada vez mais utilizada por empresas para otimizar negócios, traz benefícios aos consumidores, mas levanta preocupações quanto à concentração tecnológica nas mãos das big techs, devido aos altos requisitos financeiros e técnicos. Autoridades de concorrência expressam preocupação com o uso de ferramentas de IA, especialmente algoritmos de precificação e monitoramento, para implementar condutas colusivas e/ou unilaterais

Publicado em Deixe um comentário

COMO A INTELIGÊNCIA ARTIFICIAL ESTÁ TRANSFORMANDO A SOCIEDADE E O DIREITO

A discussão sobre a ascensão da inteligência artificial (IA) e seu impacto na sociedade tem se intensificado recentemente, em grande parte devido aos avanços tecnológicos e à crescente acessibilidade da IA. Um exemplo marcante dessa tendência é o sucesso estrondoso do ChatGPT.

Historicamente, desde a Revolução Industrial, temos testemunhado a substituição do trabalho humano por máquinas. No entanto, o que diferencia a era atual é a velocidade sem precedentes com que a digitalização está evoluindo. A IA depende crucialmente da inteligência humana para seu desenvolvimento e supervisão. Sem essa supervisão, a IA poderia adquirir e perpetuar comportamentos prejudiciais, incluindo discriminação e agressividade, derivados do conteúdo disponível no mundo virtual.

Um aspecto intrigante dessa era digital é nossa percepção da realidade. Consideramos a possibilidade de sermos substituídos ou enganados por avatares digitais algo distante, confiantes na nossa capacidade de distinguir entre uma entidade virtual e uma real. Porém, casos recentes sugerem que essa distinção pode não ser tão clara.

Um exemplo revelador é o da agência de modelos espanhola que criou uma influenciadora digital gerada inteiramente por IA. Esta influenciadora, chamada “Aitana”, rapidamente ganhou popularidade no Instagram, acumulando milhares de seguidores. Com 25 anos virtuais, Aitana aborda temas como games, fitness e amor, apresentando-se de maneira sensual. O mais surpreendente é que muitos seguidores não percebem que Aitana é um produto da IA.

Esse fenômeno levanta preocupações significativas. A intensificação da vida virtual está soando como um alarme na sociedade global, especialmente entre os jovens, muitos dos quais parecem indiferentes em discernir o real do virtual. Assim, torna-se necessário adaptar-se e entender as tecnologias emergentes, bem como o comportamento das novas gerações, para colher os benefícios da IA e minimizar seus malefícios.

Do ponto de vista jurídico, a presença de influenciadores virtuais nas redes sociais não é ilegal, desde que não envolvam atividades ilícitas. Contudo, a responsabilidade por quaisquer danos causados recai sobre os humanos que controlam estas entidades digitais. O desafio legal se torna mais complexo em casos onde os desenvolvedores desses personagens virtuais são desconhecidos, especialmente quando tais personagens estão envolvidos em atividades criminosas.

No Brasil, ainda estamos na fase inicial de desenvolver uma legislação específica para a IA. Existe um projeto de lei sendo estudado por juristas e profissionais em várias regiões, como no Rio Grande do Sul, onde um grupo de trabalho da OAB está dedicado ao tema. A complexidade do assunto requer estudo contínuo, comparação com legislações internacionais e uma avaliação ponderada dos riscos e benefícios da IA.

Por fim, é essencial adotar uma postura de responsabilidade e consciência na utilização da IA, especialmente ao considerar seu impacto sobre crianças e adolescentes nas redes sociais. A IA oferece possibilidades incríveis para o avanço humano, mas também vem com riscos que devem ser cuidadosamente avaliados e regulamentados. À medida que a tecnologia evolui, é provável que sua integração na sociedade e as implicações jurídicas se tornem mais claras e bem regulamentadas.