Publicado em Deixe um comentário

GOLPE UTILIZA NOME DA CACAU SHOW PARA ENGANAR CONSUMIDORES E ROUBAR DADOS

Recentemente, circulam nas redes sociais informações enganosas sobre uma suposta campanha da Cacau Show, que alegadamente oferece descontos em “caixas brancas” de chocolates com defeitos estéticos. Essas mensagens, que têm atraído a atenção de inúmeros consumidores, direcionam para um site fraudulento que, além de não entregar os produtos prometidos, rouba dados pessoais e financeiros das vítimas.

Ao examinar mais de perto o funcionamento desse golpe, é possível observar uma estratégia cuidadosamente elaborada para enganar os usuários. As mensagens nas redes sociais geralmente levam a um site que simula uma pesquisa sobre chocolates, criando a ilusão de que, ao final do processo, o usuário terá direito a comprar as “caixas brancas” com um desconto significativo. No entanto, a realidade é que os golpistas utilizam esse processo para coletar informações sensíveis, como nome, CPF, endereço e telefone.

Depois de preencherem seus dados, os consumidores são induzidos a escolher entre diferentes opções de frete, variando de R$ 17,50 a R$ 32,49. No entanto, após o pagamento, o produto jamais é entregue, e os golpistas se apropriam dos valores e das informações fornecidas.

É importante destacar que, embora a Cacau Show realmente comercialize as chamadas “caixas brancas” com descontos, essa prática é restrita a algumas lojas físicas da marca e não envolve qualquer campanha online. A empresa já emitiu alertas em seus perfis oficiais sobre golpes que utilizam o nome da marca para enganar consumidores, reforçando que nenhuma promoção similar está sendo realizada.

Além disso, a plataforma Reclame Aqui registrou, recentemente, pelo menos 42 denúncias de pessoas que foram vítimas desse golpe. Em todas as situações, os consumidores foram lesados, tanto financeiramente quanto pela exposição indevida de seus dados pessoais.

A prática de golpes utilizando o nome de marcas conhecidas não é nova, mas a sofisticação dessas fraudes exige dos consumidores uma atenção redobrada. Verificar a veracidade das informações antes de fornecer dados pessoais ou realizar pagamentos é essencial para se proteger contra essas práticas criminosas.

Publicado em Deixe um comentário

REGULAÇÃO DE INTELIGÊNCIA ARTIFICIAL ENFRENTA RESISTÊNCIA E GERA DEBATE NO CONGRESSO

A votação do Projeto de Lei 2338, conhecido como PL de IA, foi adiada novamente pela Comissão Temporária Interna sobre Inteligência Artificial no Senado (CTIA), em resposta à pressão crescente da indústria e a ataques nas redes sociais. O texto, que deveria ser votado, enfrentou resistência significativa tanto de setores empresariais quanto de movimentos online, especialmente da extrema-direita, que associaram erroneamente o projeto à censura.

O presidente da CTIA indicou que a votação só ocorrerá após todos os pontos controversos serem devidamente esclarecidos. Ele também abordou a desinformação que circula sobre o PL, afirmando que não haverá votação enquanto todas as dúvidas não forem sanadas. A disseminação de campanhas desinformativas, alegando que o projeto de lei conferiria poderes excessivos ao governo, é uma das principais causas do adiamento.

A pressão da indústria também foi evidente, com entidades representativas lançando comunicados contrários à aprovação do projeto. O setor argumenta que as regras propostas podem prejudicar a inovação e isolar o país tecnologicamente. Além disso, a crítica foi direcionada à chamada “carga de governança excessiva” imposta aos desenvolvedores de IA e à escolha da Autoridade Nacional de Proteção de Dados (ANPD) como coordenadora do sistema de fiscalização, considerando que a ANPD ainda está em fase de estruturação.

Representantes das empresas de tecnologia, que vêm intensificando sua oposição ao PL, marcaram presença significativa na última sessão do Senado, aproveitando seus crachás da Câmara para garantir posições privilegiadas no auditório. As principais objeções das big techs incluem questões sobre direitos autorais em treinamentos de IA, classificação de sistemas de recomendação como de “alto risco” e exigências de transparência.

O adiamento da votação provocou reações imediatas na sociedade civil, com mobilizações para pressionar o Congresso Nacional e intensificar o debate nas redes sociais. Grupos que defendem a regulamentação da IA, como organizações de defesa de direitos e profissionais de dublagem, expressaram sua insatisfação com o adiamento, destacando a necessidade de continuar a pressão sobre os legisladores.

Apesar das preocupações da indústria, diversos estudiosos e organizações da sociedade civil argumentam que a regulação não impede a inovação. Eles comparam a situação atual com outras regulações históricas, como o Código de Defesa do Consumidor e a Lei Geral de Proteção de Dados Pessoais, que demonstraram que regulação e inovação podem coexistir. Segundo esses especialistas, a regulação baseada em riscos dos sistemas de IA pode, na verdade, estimular uma inovação responsável, alinhada ao desenvolvimento econômico, tecnológico e social, ao mesmo tempo em que protege direitos fundamentais.

Publicado em Deixe um comentário

ANÚNCIOS FALSOS PROMETEM INTERNET VITALÍCIA DA STARLINK

Recentemente, têm circulado nas redes sociais anúncios falsos que sugerem que a Starlink, a empresa de internet via satélite de Elon Musk, oferece planos de internet vitalícios. No entanto, essas alegações são enganosas. De acordo com informações do UOL, todos os planos da Starlink disponíveis no Brasil são mensais e podem ser confirmados no site oficial da empresa.

Esses anúncios fraudulentos prometem uma conexão vitalícia sem mensalidades, mas na realidade, são armadilhas para golpes. Vídeos manipulados têm sido usados para espalhar essa desinformação, incluindo imagens e vozes alteradas do deputado Nikolas Ferreira (PL-MG) e do geofísico e youtuber Sergio Sacani. No vídeo manipulado, os dois afirmam: “Elon Musk está distribuindo internet grátis no Brasil inteiro quase que de graça. Só é preciso pagar o plano da Starlink uma única vez que a antena chega diretamente na sua casa e funciona de qualquer lugar do mundo (…) O pagamento é feito uma única vez e você tem internet vitalícia”.

Esses vídeos redirecionam os usuários para links suspeitos. A inconsistência é evidente nos vídeos, onde a falta de sincronia entre os movimentos labiais e o texto falado, além de vozes mecanizadas, indicam manipulação. Além disso, a Starlink não oferece planos vitalícios; todos os seus planos requerem pagamentos mensais, além do custo inicial do equipamento. As informações corretas podem ser verificadas no site oficial da Starlink.

No site Reclame Aqui, há diversos relatos de consumidores que caíram no golpe, pagando R$ 184 pelo suposto “plano vitalício” e não recebendo nada. A Starlink respondeu que não se responsabiliza por compras feitas em sites de terceiros, destacando que todas as transações devem ser realizadas diretamente pelo seu site oficial.

Os vídeos originais utilizados no golpe têm diferentes fontes. O vídeo do deputado Nikolas Ferreira foi originalmente postado em 25 de novembro de 2023, convocando aliados para um ato na avenida Paulista. Já o vídeo de Sergio Sacani foi tirado de sua participação no podcast Podpah em abril de 2021.

Além deste golpe específico, outras alegações falsas sobre a Starlink têm circulado. Recentemente, o UOL Confere desmentiu alegações de que a empresa estaria distribuindo internet gratuitamente para quem respondesse a um quiz online e que seria o único serviço de internet disponível no Rio Grande do Sul após as enchentes. Essas verificações também foram confirmadas pelo Estadão Verifica e AFP Checamos, reforçando a importância de checar a veracidade das informações antes de realizar qualquer transação online.

Publicado em Deixe um comentário

A INTELIGÊNCIA ARTIFICIAL NO CENÁRIO ELEITORAL BRASILEIRO

À medida que caminhamos para as eleições municipais deste ano, a questão da Inteligência Artificial (IA) surge como um ponto focal na discussão sobre como modernizar e assegurar a integridade dos processos eleitorais. Com sua impressionante habilidade de analisar vastos conjuntos de dados e fornecer percepções valiosas quase instantaneamente, a IA promete revolucionar a forma como as campanhas eleitorais se conectam com os eleitores.

Ela oferece a possibilidade de personalizar comunicações políticas de maneira nunca antes vista, otimizando a entrega de mensagens com uma precisão quase cirúrgica. Essa tecnologia, no entanto, não está isenta de riscos. O surgimento de deepfakes – vídeos e áudios altamente realistas gerados por IA que podem imitar perfeitamente figuras públicas – representa um desafio significativo, capaz de propagar desinformação e erodir a confiança nas instituições democráticas.

A facilidade com que a voz e a aparência de um político podem ser replicadas abre caminho para a criação de notícias falsas, a manipulação da opinião pública e a distorção da narrativa política. Adicionalmente, a automação das interações pode resultar na despersonalização da política, fazendo com que os eleitores se sintam tratados mais como alvos de estratégias de marketing do que como participantes essenciais de um processo democrático.

Frente a esses desafios, o Tribunal Superior Eleitoral (TSE) adotou medidas proativas para estabelecer limites claros para o uso ético da IA. A proibição de deepfakes busca preservar a integridade do discurso político, enquanto limitações ao uso de chatbots visam assegurar que os eleitores possam distinguir entre interações humanas e automatizadas. A exigência de que as redes sociais atuem ativamente no combate a discursos de ódio e a conteúdos antidemocráticos sublinha o reconhecimento do papel significativo que estas plataformas desempenham no molde da opinião pública.

Do ponto de vista legal, as regulamentações do TSE criam uma base sólida para ação contra o uso mal-intencionado da IA, impondo penalidades que podem ir de multas a repercussões criminais, dependendo da severidade e do impacto das infrações no debate público. Essas medidas refletem uma consciência crescente da necessidade de uma governança tecnológica que seja ética e que esteja em harmonia com os princípios democráticos.

A influência da IA nas eleições reflete uma dicotomia comum a muitos avanços tecnológicos: seu potencial para benefício público versus seu uso para desinformação e manipulação. As regulamentações implementadas pelo TSE representam um esforço importante para minimizar esses riscos. Contudo, essas normativas não são uma solução definitiva. À medida que a tecnologia avança, as estratégias para seu uso e abuso também se desenvolvem.

Portanto, é essencial manter uma vigilância constante e adaptar as respostas às novas realidades. A trajetória da democracia brasileira no século XXI dependerá de nossa capacidade de equilibrar inovação com responsabilidade, assegurando que a tecnologia reforce os fundamentos da equidade e da participação cidadã.

Publicado em Deixe um comentário

O FUTURO DA IA NO PODER JUDICIÁRIO

Neofobia, ou o medo do novo, é uma condição que impacta diretamente nossa capacidade de aceitar e integrar o desconhecido em nossas vidas. Este fenômeno vai além do simples receio, agindo como uma barreira significativa que afeta diversas áreas, inclusive a adoção de novas tecnologias.

A literatura de ficção científica, com seu encanto pelo futurismo, frequentemente apresenta a inteligência artificial (IA) como uma ameaça potencial à sociedade. Este tema tem alimentado um debate global sobre a necessidade de regular tais tecnologias, especialmente diante de sua capacidade de influenciar a opinião pública e, por extensão, os resultados eleitorais. A preocupação com o uso de deepfakes e outras ferramentas de IA para disseminar desinformação é particularmente relevante em períodos eleitorais, destacando a importância de regulamentar não apenas a tecnologia em si, mas também seu uso por partes interessadas, incluindo políticos e plataformas de mídia social.

No Brasil, a discussão sobre a regulamentação da IA ganhou destaque com a introdução de um projeto de lei específico, evidenciando a necessidade de uma abordagem cuidadosa para garantir que a inovação tecnológica seja acompanhada de ética e responsabilidade. Este debate se estende ao sistema judiciário, onde a implementação de tecnologias de IA está em curso, com mais de cem projetos, alguns dos quais já em estágios avançados de desenvolvimento.

A experiência passada com a adoção de sistemas eletrônicos pelo judiciário, que sofreu de falta de coordenação e padronização, serve de lição para a necessidade de uma estratégia integrada e inclusiva na adoção da IA. Nesse contexto, a formação de um grupo de trabalho pelo Conselho Nacional de Justiça (CNJ) para estudar e propor regulamentações para o uso de IA no judiciário é um passo louvável. O grupo se esforça para criar diretrizes que refletem valores éticos fundamentais, como a dignidade humana, a transparência e a responsabilidade.

Além do judiciário, outras partes do sistema de justiça, incluindo o Ministério Público e a advocacia, estão envolvidas ativamente no diálogo sobre a IA. Propostas para promover o uso seguro e responsável da IA refletem um compromisso compartilhado com a proteção da privacidade, a segurança dos dados e a garantia de que a tecnologia seja utilizada de maneira que respeite os direitos humanos e os valores democráticos.

Este período de inovação tecnológica apresenta uma oportunidade para questionar se estamos à beira de uma revolução científica, ou simplesmente testemunhando uma evolução gradual da ciência. Independentemente da perspectiva, é essencial que a introdução de novas tecnologias seja acompanhada por um debate informado sobre seus riscos e benefícios, evitando que o medo do desconhecido nos impeça de aproveitar as oportunidades que estas inovações podem oferecer.

O avanço tecnológico, particularmente no campo da inteligência artificial, exige uma abordagem cautelosa que equilibre inovação com responsabilidade. A educação e o engajamento dos gestores públicos e dos profissionais do sistema de justiça são cruciais para superar preconceitos e compreender plenamente as implicações das novas tecnologias. Afinal, são as decisões humanas, e não as capacidades das máquinas, que moldarão o futuro da nossa sociedade.

Publicado em Deixe um comentário

FAKE NEWS: ESTRATÉGIAS LEGAIS E SOCIAIS PARA UMA ERA DIGITAL INFORMADA

A era digital trouxe consigo uma avalanche de informações, acessíveis com um simples clique. No entanto, essa facilidade de acesso também pavimentou o caminho para a propagação de notícias falsas, ou “fake news”, um fenômeno que ameaça a integridade da informação e, por extensão, o tecido social, político e econômico de nossa sociedade.

Entender o que constitui uma notícia falsa é o primeiro passo para combatê-la. Diferentemente da desinformação, que pode ser inadvertida, as fake news são criações maliciosas destinadas a enganar, prejudicar reputações, ganhar vantagem financeira ou política, ou distorcer a opinião pública. Essa distinção é vital para abordar o problema de maneira eficaz.

O impacto das fake news não é trivial. Elas têm o poder de influenciar eleições, diminuir a confiança nas instituições, incitar ódio e violência, e até mesmo afetar a saúde pública, como observado nos boatos sobre vacinas durante a pandemia de Covid-19. A necessidade de uma ação legislativa tornou-se evidente, com vários países, incluindo o Brasil, propondo leis para mitigar esse fenômeno.

No coração do combate às fake news está o direito, servindo como um instrumento para proteger a sociedade. No Brasil, por exemplo, o Projeto de Lei 2.630/2020 representa um esforço para regular a disseminação de informações falsas, introduzindo responsabilidades para as plataformas digitais e promovendo a verificação de fatos e a educação digital. No entanto, é necessário reconhecer que soluções legais não devem se restringir ao âmbito penal, mas também incorporar a responsabilidade civil para tratar os danos causados pela desinformação.

Para efetivamente combater as fake news, é essencial ir além das medidas legais, promovendo a educação digital e a consciência crítica entre a população. Agências de checagem de fatos e iniciativas educacionais, como as do Tribunal Superior Eleitoral (TSE) e do Conselho Nacional de Justiça (CNJ), são fundamentais nesse processo. A responsabilidade individual na verificação e compartilhamento de informações também não pode ser subestimada.

Contudo, o combate às fake news enfrenta desafios significativos, incluindo a proteção da liberdade de expressão e a prevenção da censura por plataformas digitais. Além disso, a proteção da privacidade dos usuários e a garantia de que as medidas contra as fake news não sejam usadas para fins políticos ou ideológicos permanecem preocupações prementes.

As fake news representam um desafio complexo que exige uma resposta multifacetada, envolvendo legislação, educação, responsabilidade individual e coletiva, e a promoção de um jornalismo de qualidade. Somente através de um esforço conjunto, abrangendo todos os setores da sociedade, poderemos esperar proteger nossa democracia e nossos direitos contra o perigo das notícias falsas.

Publicado em Deixe um comentário

CLONAGEM DE VOZ POR IA: PROTEGENDO A INTEGRIDADE ELEITORAL E A INFORMAÇÃO PÚBLICA

Com o avanço acelerado da inteligência artificial na geração de áudios, a clonagem de voz tornou-se uma prática comum na indústria do entretenimento, sendo utilizada para dublagens e criação de canções com a voz de atores e artistas já falecidos. Contudo, esse avanço também levanta preocupações, pois o uso indevido da IA para criação de deepfakes de voz pode resultar em ações de desinformação alarmantes. É possível enganar eleitores, criar conflitos políticos e ampliar o espaço para teorias da conspiração.

Recentemente, vimos casos em alguns países onde deepfakes foram utilizados para clonar a voz de líderes políticos. Na Eslováquia, por exemplo, dias antes de uma eleição nacional, um clipe de áudio falsificado de Michal Šimečka, líder do Partido Progressista, circulou descrevendo um esquema de fraude nas eleições por meio do suborno de membros da população cigana. Similarmente, no Reino Unido, um vídeo falso do líder do Partido Trabalhista, Keir Starmer, foi compartilhado, no qual ele proferia ofensas contra seus próprios funcionários.

Esses clipes foram prontamente desmentidos por verificadores de fatos, que os identificaram como prováveis falsificações geradas por softwares de IA. No entanto, é preocupante observar que muitas publicações nas redes sociais continuam a afirmar a veracidade desses clipes, enganando ainda mais os usuários. O Facebook, por exemplo, colocou um selo de advertência em uma das publicações, mas não a removeu, enquanto o vídeo de Starmer não recebeu qualquer tipo de advertência.

Com várias eleições programadas para ocorrer na Europa nos próximos meses, incluindo em países como Polônia, Holanda e Lituânia, Thierry Breton, comissário da União Europeia, enviou uma carta a Mark Zuckerberg, CEO da Meta, pressionando para que medidas sejam adotadas para conter a proliferação de deepfakes nas redes sociais.

Nos Estados Unidos, a preocupação com deepfakes também é evidente, especialmente visando as eleições de 2024. Um vídeo falso do ex-presidente Barack Obama surgiu no TikTok, no qual ele endossava uma teoria da conspiração sobre a morte repentina de seu ex-chefe de cozinha, conforme reportado pelo The New York Times. Esse vídeo foi compartilhado por uma das 17 contas do TikTok que promovem informações falsas por meio de áudios, de acordo com um relatório da NewsGuard, empresa especializada em monitorar desinformação online.

Os deepfakes de voz apresentam uma peculiaridade preocupante: são mais difíceis de serem identificados como falsos, se comparados a imagens ou vídeos gerados por IA. Isso os torna eficazes para enganar os usuários e disseminar desinformação. Diante dessa ameaça, a Comissão Eleitoral Federal (FEC) dos Estados Unidos iniciou uma consulta pública para regular conteúdos gerados artificialmente, especialmente no contexto de anúncios políticos, visando garantir a integridade e transparência nas eleições presidenciais de 2024.