Publicado em

CIBERSEGURANÇA EM TRANSFORMAÇÃO: PRIORIDADES ESTRATÉGICAS PARA OS PRÓXIMOS ANOS

Nos próximos anos, a segurança digital será um dos eixos mais determinantes para a sustentabilidade das organizações. A integração da Inteligência Artificial em praticamente todas as áreas de atividade, somada à proliferação de dispositivos conectados e à sofisticação das ameaças, impõe novas formas de pensar a proteção de dados e sistemas.

Um estudo recente identifica oito áreas que devem orientar a estratégia de cibersegurança. Entre elas, destaca-se o fortalecimento do papel dos responsáveis pela segurança da informação, cuja função se torna cada vez mais complexa diante das exigências regulatórias, da responsabilidade pessoal envolvida e da necessidade de coordenar equipes multidisciplinares. Para que essa função seja efetiva, é essencial assegurar autonomia decisória e visão integrada dos riscos.

Outro ponto de destaque é a carência de profissionais especializados, que ainda representa um obstáculo relevante. A resposta passa por encarar os colaboradores como a primeira linha de defesa, o que exige programas contínuos de capacitação, além de incentivo à diversidade e inclusão, fatores que fortalecem a cultura organizacional de segurança.

A confiança nos sistemas de Inteligência Artificial também assume papel central. Isso inclui estabelecer mecanismos sólidos de governança, políticas claras de uso de dados e estratégias para mitigar riscos relacionados a ferramentas não autorizadas. A IA, por outro lado, oferece oportunidades valiosas para monitoramento em tempo real e automação de processos de proteção.

A gestão da identidade digital ganha relevância diante de falsificações sofisticadas, como os deepfakes. Torna-se indispensável avançar em métodos de autenticação robustos, com uso de biometria e integração de múltiplas camadas de verificação. Soma-se a isso a necessidade de consolidar plataformas de segurança, reforçar a proteção em ecossistemas de dispositivos inteligentes e adotar a resiliência como princípio desde a concepção de produtos e serviços.

O relatório ainda chama atenção para desafios adicionais, como a proteção de ambientes em nuvem, a preparação frente à computação quântica e o enfrentamento da desinformação. O ambiente regulatório, cada vez mais complexo e dinâmico, exige das organizações capacidade de adaptação ágil, conciliando o cumprimento das normas com a eficiência de suas defesas digitais.

Esse conjunto de prioridades evidencia que a segurança da informação deixou de ser apenas uma função técnica e passou a integrar a própria estratégia de negócios, influenciando diretamente a confiança de clientes, parceiros e da sociedade.

Publicado em

BIOMETRIA FACIAL PERDE ESPAÇO PARA VERIFICAÇÃO CADASTRAL NA PREVENÇÃO DE FRAUDES DIGITAIS

A biometria facial, frequentemente apontada como uma das formas mais avançadas de autenticação digital, tem demonstrado limitações diante da sofisticação dos golpes virtuais no Brasil. Levantamentos recentes indicam que, no primeiro semestre de 2025, esse método conseguiu bloquear apenas 41,9% das tentativas de fraude. O índice é inferior ao da verificação de inconsistências cadastrais, que apresentou 50,6% de eficácia e atualmente se destaca como o recurso mais efetivo na prevenção desses delitos.

Casos recentes mostram que, uma vez que dados biométricos e fotográficos são inseridos de forma fraudulenta em sistemas oficiais e aplicativos bancários, criminosos conseguem abrir contas e contratar empréstimos em nome de terceiros, explorando brechas nos processos de autenticação.

A fragilidade do sistema é potencializada pelo uso de técnicas como deepfakes, spoofing, engenharia social e manipulação em videoconferências. A ausência de padrões claros na coleta de biometria e a utilização isolada desse recurso contribuem para o risco. A autenticação multimodal — que combina reconhecimento facial, voz, impressão digital e tokens de segurança — surge como alternativa mais robusta.

Outro ponto relevante é que mecanismos de análise de inconsistências cadastrais permitem detectar irregularidades antes da etapa de autenticação biométrica, interrompendo tentativas de fraude de forma preventiva.

O fortalecimento da segurança digital exige uma combinação de medidas: capacitação dos usuários, integração de diferentes tecnologias de autenticação e sistemas capazes de cruzar informações de forma inteligente. Instituições que adotam recursos adicionais, como bloqueios automáticos diante de atividades suspeitas, validação por voz em contatos telefônicos e alertas imediatos ao usuário, tendem a reduzir significativamente o risco de ataques bem-sucedidos.

Publicado em

FRAUDES EM COMPRAS DIGITAIS: O QUE MAIS ENGANA OS CONSUMIDORES BRASILEIROS

As fraudes em compras digitais seguem evoluindo em complexidade e volume, exigindo atenção redobrada por parte dos consumidores. Um levantamento recente, baseado na análise de mais de 11 mil denúncias registradas em uma plataforma colaborativa, revelou que quase metade das tentativas de golpe (45,1%) está relacionada diretamente ao comércio eletrônico. Esses episódios foram categorizados como fraudes de compra, nas quais a vítima efetua o pagamento por um produto ou serviço que jamais será entregue.

Dentre os estados brasileiros, o Distrito Federal se destacou como o local com maior proporção de vítimas, seguido de Santa Catarina e Rio Grande do Sul. Já os prejuízos mais expressivos por vítima foram registrados em Rondônia, Tocantins, Mato Grosso e Sergipe, com valores que superam a média nacional.

Entre os golpes mais recorrentes, destaca-se a atuação de supostos lojistas ou empresas pouco conhecidas, responsáveis por 15,8% dos casos. Nesses episódios, os fraudadores utilizam perfis em redes sociais para ofertar produtos com valores muito abaixo do mercado, desaparecendo logo após o pagamento. O prejuízo médio para esse tipo de ocorrência gira em torno de R$ 740 por consumidor.

Outra prática comum é a clonagem de sites e marcas legítimas. Representando 8,5% das denúncias, esses casos envolvem páginas falsas cuidadosamente construídas para se assemelharem às originais. Apesar da semelhança, pequenas alterações passam despercebidas por consumidores desatentos. Nessa modalidade, a perda média por vítima foi estimada em R$ 520.

Também empatado em incidência está o golpe do vendedor de itens usados. Nessa fraude, que tem registrado perdas médias acima de R$ 1.800, o criminoso simula a venda de um produto — geralmente com anúncio atrativo — e desaparece assim que o pagamento é realizado.

Um aspecto que chama atenção é o crescimento no uso de empresas registradas por terceiros — popularmente conhecidas como “laranjas”. Essa tática se tornou predominante, saltando de 34% para 67% dos casos analisados no intervalo de um ano. A formalização do CNPJ confere aparência de legitimidade e dificulta a detecção automática por sistemas de segurança.

Além disso, os golpistas vêm incorporando ferramentas de inteligência artificial generativa em suas estratégias. A tecnologia tem sido usada para acelerar a criação de sites fraudulentos, simular vídeos publicitários falsos e até produzir deepfakes que aumentam a capacidade de enganar. Estimativas apontam que mais da metade dos consumidores que passaram por tentativas de fraude acreditam que essas manipulações digitais foram utilizadas para ludibriá-los.

Portanto, fique atento! Não confie em ofertas com preços muito inferiores à média de mercado. É fundamental investigar a reputação do vendedor, confirmar se a loja é oficial e evitar concluir pagamentos por canais não reconhecidos. A proteção contra fraudes começa com informação e cautela.

Publicado em

FRAUDES DIGITAIS COM INTELIGÊNCIA ARTIFICIAL: COMO IDENTIFICAR E PREVENIR MANIPULAÇÕES COM DEEPFAKE

O avanço das ferramentas de inteligência artificial vem transformando profundamente o ambiente digital. Em especial, o uso de tecnologias conhecidas como deepfake, que permitem a manipulação extremamente realista de imagens, vídeos e áudios, tem impulsionado novas formas de fraude e criado riscos concretos para empresas e indivíduos. O que antes era domínio de especialistas técnicos tornou-se acessível a qualquer pessoa com um smartphone e uma conexão à internet.

As práticas de engenharia social, quando combinadas com conteúdos forjados por inteligência artificial, ganharam um grau de sofisticação que dificulta a identificação de tentativas de golpe. É possível simular com alta fidelidade a voz de um familiar, o rosto de um executivo ou até mesmo cenas inteiras que parecem autênticas a olho nu. O impacto dessas fraudes já se reflete no cotidiano de profissionais, consumidores e instituições públicas e privadas.

Empresas relatam casos em que falsas videoconferências com “executivos” resultaram em transferências indevidas de valores. Em outros episódios, mensagens de áudio supostamente enviadas por superiores hierárquicos foram usadas para acelerar decisões de pagamento sem os devidos protocolos de validação. Também são cada vez mais comuns os relatos de cidadãos que receberam pedidos de ajuda financeira em nome de parentes, com vozes idênticas às dos seus entes queridos, gerando perdas financeiras e abalos emocionais.

A disseminação dessas práticas foi impulsionada pela disponibilidade de aplicativos que replicam vozes e criam vídeos personalizados em poucos minutos. A barreira técnica praticamente desapareceu, o que amplia o uso dessas ferramentas com finalidades ilícitas.

A preocupação não se limita ao ambiente corporativo. Famílias, consumidores e usuários de redes sociais também estão expostos. Um conteúdo audiovisual fabricado pode ser compartilhado em massa com objetivos que vão desde o golpe financeiro até a destruição de reputações. Em períodos de alta sensibilidade, como eleições e eventos esportivos, a disseminação de vídeos e áudios falsos pode confundir a opinião pública e manipular decisões.

Algumas medidas podem reduzir significativamente o risco de ser enganado por esse tipo de fraude. Uma prática essencial é a verificação cruzada de qualquer solicitação financeira. Se uma mensagem indicar urgência para pagamento ou transferência, o ideal é confirmar por outros meios, como uma ligação telefônica ou uma conversa presencial. Sinais como mudanças abruptas no padrão de linguagem ou pedidos fora do usual merecem atenção redobrada.

No contexto empresarial, treinamentos voltados para a identificação de ameaças digitais devem incluir simulações e exemplos reais de manipulação por deepfake. Ferramentas que integram autenticação biométrica com validação algorítmica podem ajudar, embora ainda não sejam infalíveis.

Enquanto empresas de tecnologia seguem investindo em soluções de detecção automática de falsificações, cabe a cada usuário e organização desenvolver um olhar crítico e adotar uma postura de vigilância contínua. O simples hábito de desconfiar do incomum e validar informações sensíveis por mais de um canal é um passo valioso na proteção contra golpes digitais.

Publicado em

FRAUDE DIGITAL POR FALSOS PARENTES: COMO RECONHECER E PROTEGER-SE DE MENSAGENS FALSAS EM NOME DE FAMILIARES

Ao longo de 2025, uma modalidade de fraude ganhou destaque pela sofisticação e pela facilidade com que explora sentimentos e vínculos afetivos: trata-se da fraude em que criminosos se passam por familiares ou pessoas próximas da vítima para relatar falsas situações de urgência, como acidentes, dificuldades financeiras ou internações médicas inesperadas. O objetivo é simples, mas eficaz: levar a vítima a agir imediatamente, seja realizando transferências bancárias ou fornecendo dados pessoais, sem checar a veracidade das informações recebidas.

O mecanismo, que antes se baseava em mensagens de texto genéricas, evoluiu significativamente com o uso de tecnologias como inteligência artificial, simulações de voz e até mesmo vídeos manipulados com aparência realista. A facilidade com que criminosos acessam dados publicados voluntariamente em redes sociais, como nomes de filhos, locais frequentados ou viagens realizadas, tem fornecido a matéria-prima para abordagens altamente convincentes.

Essa forma de fraude tornou-se particularmente comum em ambientes digitais devido à combinação de dois fatores: a exposição excessiva de informações pessoais e a instantaneidade das plataformas de comunicação. Aplicativos como WhatsApp e Telegram, por exemplo, são utilizados como meio para disparar mensagens com forte apelo emocional e tom de urgência, fazendo com que o destinatário sinta-se compelido a ajudar sem questionar. O uso de frases como “não conte a ninguém” ou “não posso falar por ligação” são sinais típicos, que visam impedir que a vítima busque confirmação por outros meios.

Há, no entanto, formas práticas de prevenção. A mais recomendada é não agir de imediato diante de um pedido inesperado, especialmente quando envolve valores ou dados sensíveis. Sempre que possível, deve-se buscar contato direto com a pessoa envolvida, utilizando outro número ou canal previamente conhecido. Em paralelo, a proteção dos próprios dados deve ser constante. Isso inclui limitar a exposição de detalhes da vida pessoal nas redes sociais, manter senhas seguras, ativar autenticação em duas etapas e educar familiares sobre as formas de abordagem utilizadas por golpistas.

É importante lembrar que essas fraudes não se restringem a um público específico. Pessoas de diferentes idades, formações e regiões podem ser impactadas, justamente porque a tática apela à empatia, à preocupação e ao desejo de ajudar alguém querido. A desconfiança saudável, aliada ao conhecimento sobre como esses golpes funcionam, é uma das formas mais eficazes de defesa.

A tecnologia, quando utilizada de forma ética e responsável, é uma aliada da comunicação e da proteção. Mas quando usada por quem busca manipular e obter vantagem indevida, torna-se uma ferramenta perigosa. Por isso, informação e vigilância continuam sendo indispensáveis.

Publicado em

GOLPES FINANCEIROS NO BRASIL: ENTENDA OS RISCOS E ADOTE MEDIDAS DE PREVENÇÃO

A digitalização das relações pessoais e comerciais transformou positivamente muitas rotinas, mas também expôs cidadãos e empresas a riscos que exigem atenção redobrada. Em 2024, mais de um terço dos brasileiros foram vítimas ou alvos de tentativas de fraude, o que revela a necessidade de ampliar o debate sobre proteção de dados e comportamento digital seguro.

Golpe ou Fraude? Conceitos e consequências

Ainda que os termos golpe e fraude sejam muitas vezes tratados como equivalentes, há diferenças importantes entre eles. A fraude ocorre sem a participação direta da vítima, geralmente envolvendo uso indevido de dados pessoais obtidos de forma ilícita. Já o golpe é baseado na manipulação da vítima, que é levada a entregar informações ou a realizar ações que favorecem o criminoso.

Por trás desses crimes está a chamada engenharia social. Trata-se da habilidade de induzir comportamentos ou decisões por meio de artifícios emocionais, como urgência, medo, empatia ou confiança. Os fraudadores assumem identidades de bancos, repartições públicas, parentes e até colegas de trabalho, construindo narrativas convincentes para explorar fragilidades humanas.

Táticas mais usadas pelos golpistas

Diversas estratégias têm sido identificadas, e elas se adaptam rapidamente. Algumas das mais recorrentes incluem:

  • Perfis falsos no WhatsApp: Os golpistas utilizam foto e nome de uma pessoa conhecida para solicitar transferências financeiras. Ativar a verificação em duas etapas no aplicativo é medida recomendada.
  • Falsas centrais de atendimento: Chamadas telefônicas com falsos alertas de movimentações suspeitas, em que o interlocutor solicita dados sensíveis ou orienta a realizar transferências para supostas “contas seguras”.
  • Phishing: Mensagens por e-mail ou SMS com links maliciosos, que direcionam a páginas falsas ou instalam programas espiões.
  • Boletos alterados: Contas de consumo adulteradas com códigos de barras redirecionados para contas bancárias dos criminosos.
  • Ofertas de investimentos milagrosos: Promessas de altos lucros, principalmente com criptomoedas ou sistemas de marketing em rede, costumam ocultar fraudes financeiras sofisticadas.
  • Troca de cartão e motoboys falsos: Golpes presenciais em que o cartão é trocado sem que a vítima perceba, ou é recolhido por um suposto funcionário de banco.
  • Entregas falsas com coleta de biometria: Em datas comemorativas, pedidos de fotos ou pagamentos para receber um presente fictício são usados para obter imagem facial ou dados bancários.

Quem são as vítimas?

Há uma percepção equivocada de que idosos seriam os principais alvos. No entanto, levantamentos recentes mostram que jovens adultos, especialmente entre 16 e 29 anos, estão no grupo mais atingido. Isso está associado à maior exposição a interações digitais e ao engajamento com ofertas pouco verificadas, como vagas de emprego falsas ou promoções irreais.

Além disso, dados de 2025 indicam que o PIX vem sendo usado de forma recorrente em golpes com valores médios altos, enquanto o cartão de crédito ainda lidera em número de ocorrências.

O impacto da inteligência artificial nas fraudes

Ferramentas baseadas em inteligência artificial vêm sendo utilizadas tanto para o ataque quanto para a defesa. Do lado dos golpistas, há o uso de deepfakes e sistemas automatizados que simulam interações humanas. Já empresas do setor financeiro estão investindo em algoritmos que detectam padrões suspeitos e interrompem transações em tempo real.

Boas práticas de proteção

A defesa começa pela adoção de comportamentos preventivos. Algumas orientações incluem:

  1. Proteção de Informações Pessoais: Evitar o compartilhamento excessivo de dados e manter documentos seguros. Senhas e números bancários nunca devem ser informados por canais não verificados.
  2. Fortalecimento da Segurança Digital: Utilizar senhas seguras, autenticação em dois fatores e manter dispositivos protegidos por antivírus confiáveis.
  3. Verificação de Fontes: Conferir a origem de mensagens, verificar links e buscar informações diretamente nos canais oficiais antes de realizar qualquer ação.
  4. Monitoramento Contínuo: Acompanhar movimentações financeiras e manter atenção redobrada a qualquer notificação ou transação fora do padrão.
  5. Educação Constante: Atualizar-se sobre novas formas de ataque ajuda a identificar riscos com mais agilidade.

O que fazer em caso de golpe

A resposta imediata pode reduzir significativamente os danos. É recomendado:

  • Comunicar imediatamente o banco ou instituição financeira.
  • Registrar boletim de ocorrência, inclusive por meio de delegacias online.
  • Alertar órgãos de proteção ao crédito e revisar senhas de contas potencialmente expostas.

Responsabilidade compartilhada

A proteção contra fraudes não é responsabilidade apenas dos usuários. O setor público e as instituições privadas têm papel ativo na regulação, prevenção e orientação. Ferramentas para denúncia e verificação de ofertas estão sendo criadas para empoderar o consumidor digital.

Fortalecer a segurança no ambiente online exige esforço coletivo. A conscientização, a adoção de hábitos seguros e o uso responsável da tecnologia são os caminhos mais eficazes para mitigar riscos e proteger patrimônio e identidade digital.

Publicado em

USO DE IMAGENS POR INTELIGÊNCIA ARTIFICIAL EM REDES SOCIAIS CORPORATIVAS

A popularização das ferramentas de inteligência artificial trouxe inúmeras possibilidades para o marketing digital, incluindo a personalização de conteúdo e a automação de processos. No entanto, ao lado dessas vantagens, surgem riscos concretos que não podem ser ignorados, especialmente no que se refere ao uso de imagens de pessoas em campanhas e publicações institucionais.

Uma das práticas mais sensíveis é o uso de rostos reais sem autorização. Seja de colaboradores, consumidores ou influenciadores, a reprodução da imagem sem consentimento pode gerar responsabilidade civil e comprometer a reputação da empresa. Não basta estar disponível na internet. A Lei Geral de Proteção de Dados Pessoais (LGPD) trata a imagem como dado pessoal sensível, exigindo uma base legal específica para seu tratamento, geralmente o consentimento expresso.

O uso de ferramentas que geram ou manipulam rostos com aparência realista, como os chamados deepfakes, representa uma camada adicional de risco. Embora possam ser utilizadas para criar conteúdos criativos e envolventes, essas tecnologias também podem ser empregadas de forma antiética, inclusive na composição de vídeos ou fotos que simulam falas ou comportamentos de pessoas reais. Quando isso ocorre sem autorização, o problema deixa de ser apenas ético e passa a ter implicações jurídicas sérias.

Empresas que adotam a inteligência artificial como aliada na comunicação institucional devem estabelecer critérios claros para o uso de imagens. Isso envolve desde políticas internas até treinamentos de equipes de marketing e comunicação. Também é recomendável a revisão dos contratos com agências terceirizadas, garantindo cláusulas específicas sobre responsabilidade no uso de conteúdo gerado por IA.

A construção da confiança com o público passa, hoje, pelo respeito à identidade visual e à integridade da imagem das pessoas. Utilizar a inteligência artificial com responsabilidade não é apenas uma questão de conformidade legal, mas de respeito à dignidade humana.

A tecnologia avança, mas os princípios continuam os mesmos: transparência, ética e respeito. É por esses caminhos que as empresas devem conduzir suas estratégias digitais.

Publicado em

FOTOS DE BRASILEIROS NA DEEP WEB AUMENTA RISCO DE FRAUDES FINANCEIRAS

Um vasto vazamento de fotos de brasileiros, que possivelmente foram obtidas de bancos de dados policiais, está circulando gratuitamente em fóruns da Deep Web. Mais de 300 mil imagens foram disponibilizadas para download em um dos fóruns, em uma descoberta recente feita por especialistas em cibersegurança. Esse acesso exige créditos pagos, que são trocados pelo download gratuito do conteúdo, expondo milhares de fotos ao alcance de criminosos.

As imagens, supostamente relacionadas a indivíduos em situação de autuação, podem ter origem em bancos de dados policiais de diversos estados, entre eles o Espírito Santo. Algumas apresentam características típicas de fotografias usadas em documentos brasileiros, como RGs e carteiras de motorista, o que levanta preocupações significativas sobre seu possível uso em fraudes financeiras. Com o material, golpistas poderiam se beneficiar de tentativas de criar contas bancárias falsas, solicitar crédito de forma fraudulenta ou até desenvolver fraudes avançadas, como a criação de deepfakes.

Alerta às empresas e consumidores

O vazamento coloca especialmente empresas do setor financeiro em estado de alerta, dado o risco de um aumento nas tentativas de fraudes. Especialistas recomendam que empresas revisem e reforcem seus protocolos de segurança para mitigar o potencial de golpes envolvendo documentos forjados. O acesso massivo a imagens autênticas, distribuídas gratuitamente, pode impulsionar significativamente as fraudes ao permitir a criação de perfis fictícios visualmente realistas.

Por sua vez, consumidores também devem ficar atentos a comunicações suspeitas. Contatos não solicitados de instituições financeiras, solicitando a confirmação de dados pessoais, devem ser redobrados, especialmente aqueles feitos via e-mail ou telefone. Nesse contexto, os cidadãos são orientados a procurar as instituições diretamente, evitando confiar em contatos que possam ser tentativas de phishing. Com uma simples busca por imagens, criminosos conseguem vincular dados como nome, idade e informações de redes sociais ao rosto exibido, facilitando ataques direcionados.

O cenário de cibercrime no Brasil

O cenário de fraudes digitais no Brasil é único e tem se destacado por características próprias. Criminosos locais, voltados para fraudes financeiras, encontram na dark web uma série de ferramentas específicas para explorar as vulnerabilidades de pessoas físicas. Ações como o uso fraudulento de cartões de crédito e transferências via PIX são comuns, muitas vezes em colaboração com grupos de outros países. Além das fraudes contra consumidores, esses grupos têm atuado contra empresas nacionais, utilizando ransomware e sequestro de dados, com o intuito de obter vantagens financeiras.

Esses acontecimentos reforçam a importância de um controle robusto de segurança digital, tanto por parte das empresas quanto dos consumidores, em um contexto onde a exposição de dados é cada vez mais comum e perigosa.

Publicado em

GOLPISTAS UTILIZAM DEEPFAKE PARA ENGANAR EXECUTIVOS

O avanço acelerado da inteligência artificial está equipando fraudadores com novas ferramentas sofisticadas para enganar até mesmo indivíduos de alta posição. Um caso recente exemplifica essa ameaça, onde um executivo de uma renomada montadora de automóveis foi alvo de um golpe utilizando deepfake. A fraude envolveu múltiplas mensagens e chamadas que aparentavam ser do CEO da empresa. No entanto, o executivo conseguiu desmascarar o golpista ao fazer uma pergunta pessoal para verificação.

A situação iniciou-se com uma série de mensagens no WhatsApp, onde o fraudador, se passando pelo CEO, buscava assistência urgente para uma suposta operação confidencial. As mensagens, embora viessem de um número diferente, apresentavam uma foto de perfil do CEO em frente ao emblema da empresa. Uma das mensagens mencionava uma “grande aquisição em andamento” e solicitava que o executivo estivesse pronto para assinar um Acordo de Não Divulgação que seria enviado pelo advogado da empresa.

O tom de urgência das mensagens aumentava a credibilidade do golpe, com o fraudador afirmando que o regulador de mercado do país e a bolsa de valores local já estavam informados, e pedindo máxima discrição. Posteriormente, o executivo recebeu uma ligação que imitava de forma convincente a voz do CEO, incluindo o sotaque característico. O golpista alegou estar usando um número diferente devido à sensibilidade do assunto e pediu ao executivo que realizasse uma “transação de hedge cambial”.

O pedido inusitado de uma transação financeira, juntamente com algumas nuances mecânicas na voz durante a ligação, despertaram suspeitas no executivo. Ele prontamente solicitou a verificação da identidade do suposto CEO, fazendo uma pergunta sobre um livro recentemente recomendado. Incapaz de responder corretamente, o fraudador encerrou a ligação abruptamente.

Fontes não identificadas relataram o incidente, que está sendo investigado pela empresa. Representantes da montadora se recusaram a comentar sobre o ocorrido. Este episódio ressalta a crescente sofisticação das fraudes habilitadas por inteligência artificial e a importância de medidas rigorosas de verificação para proteger contra tais ameaças.

Publicado em

COMO UM TROJAN ESTÁ ROUBANDO DADOS DO FACE ID

Os usuários de iPhone sempre se orgulharam da segurança dos seus dispositivos, acreditando estarem livres de ameaças como trojans, aqueles vírus que roubam informações. No entanto, essa sensação de segurança foi abalada. De acordo com o site BGR, um novo trojan para iPhone está conseguindo roubar o Face ID dos usuários, comprometendo a segurança de suas contas bancárias.

Leia também:

  • Próxima atualização do iPhone vai dificultar a vida de ladrões e invasores
  • Usuários do iPhone 15 Pro ainda reclamam de superaquecimento
  • Apple Vision Pro: atualização promete corrigir duas grandes fraquezas

Evolução da Ameaça

Originalmente criado para atacar dispositivos Android, este trojan foi adaptado para o sistema iOS. Ele possui a capacidade de coletar dados de reconhecimento facial, identificar documentos e interceptar mensagens SMS.

Os pesquisadores responsáveis pela descoberta explicam que o trojan utiliza serviços de troca facial impulsionados por IA para criar deepfakes a partir dos dados biométricos roubados. Quando combinados com documentos de identificação e a interceptação de SMS, esses deepfakes permitem que os cibercriminosos acessem contas bancárias sem autorização.

Método de Infecção

Inicialmente, o trojan infiltrava os dispositivos através do aplicativo TestFlight, baixado pelo usuário. Após a Apple remover o malware, os criminosos desenvolveram uma nova estratégia: persuadir as vítimas a instalar um perfil de gerenciamento de dispositivos móveis, concedendo ao trojan controle total sobre o iPhone infectado.

Devo me preocupar?

Até o momento, especialistas indicam que a atividade maliciosa deste trojan está concentrada na Ásia, especialmente no Vietnã e na Tailândia. No entanto, não há garantias de que o malware não se espalhará para outras regiões, incluindo a América do Sul.

Para se proteger, os usuários devem evitar downloads do TestFlight e de perfis de gerenciamento de dispositivos móveis de fontes desconhecidas, até que a Apple consiga neutralizar o trojan completamente.

A segurança dos dispositivos móveis é uma preocupação crescente, e esta nova ameaça sublinha a importância de estar sempre vigilante e bem-informado sobre as últimas vulnerabilidades e medidas de proteção.

Publicado em

NOVA RESOLUÇÃO DO TSE IMPÕE REGRAS PARA USO DE IA NA PROPAGANDA ELEITORAL

Recentemente, o Tribunal Superior Eleitoral (TSE) aprovou uma nova resolução que impactará a propaganda eleitoral para as eleições municipais de 2024, especificamente abordando o uso de inteligência artificial (IA), proteção de dados e fake news. A Resolução Nº 23.732/24 altera a Resolução nº 23.610/19 e traz à tona questões cruciais sobre a identificação e rotulagem de conteúdo sintético multimídia em peças publicitárias.

Uma das mudanças mais notáveis é a exigência de rotulagem de qualquer peça publicitária que utilize IA. Esta determinação visa informar o público sobre o uso de tecnologia avançada na criação de imagens, textos ou vídeos. No entanto, a aplicação prática dessa exigência gera dúvidas, pois a IA pode ser utilizada em várias fases do desenvolvimento publicitário, desde a pesquisa até a produção final. A resolução esclarece que o rótulo deve ser aplicado ao conteúdo final veiculado ao público, garantindo transparência sobre o uso de IA no material divulgado.

Além disso, o uso de chatbots e avatares foi restringido, proibindo qualquer simulação de conversas com candidatos ou pessoas reais, com o objetivo de evitar a disseminação de informações falsas ou enganosas. A vedação ao uso de deepfakes também é destacada, proibindo a utilização de qualquer conteúdo artificialmente gerado ou modificado que possa influenciar negativamente o processo eleitoral.

A resolução também aborda a proteção de dados, classificando campanhas em cidades com menos de 200.000 eleitores como agentes de tratamento de pequeno porte, aplicando-se as disposições da Resolução CD/ANPD nº 2 de 2022. Há uma exigência de registro detalhado das operações de tratamento de dados, incluindo informações sobre o tipo de dado, sua origem, categorias de titulares, finalidade e medidas de segurança adotadas.

Outra medida significativa é a exigência de um relatório de impacto à proteção de dados (RIPD) para campanhas que realizem tratamento de dados de alto risco, especialmente aquelas que envolvem tecnologias inovadoras ou dados sensíveis. Esse relatório deve ser elaborado pela candidata ou candidato e pelo partido político, detalhando os tipos de dados coletados, os riscos identificados, as metodologias de tratamento e as medidas de mitigação de riscos.

Essas regulamentações são essenciais para garantir que a IA e outras tecnologias emergentes sejam usadas de maneira responsável no contexto eleitoral, preservando a integridade do processo democrático e protegendo os direitos dos eleitores. Em um cenário global onde o uso irresponsável da IA em campanhas eleitorais tem sido reportado, como em casos nos EUA onde telefonemas automatizados enganam eleitores, a iniciativa do TSE representa um avanço significativo na busca por um processo eleitoral mais justo e transparente.

Publicado em

DEEPFAKE ENGANA FUNCIONÁRIO EM TRANSAÇÃO MILIONÁRIA

Em um caso recente de fraude financeira, um funcionário de uma empresa multinacional foi induzido a transferir US$ 25 milhões (cerca de R$ 124 milhões) para criminosos. Estes utilizaram tecnologia deepfake para simular a aparência e a voz do CFO da empresa, bem como de outros membros da equipe, durante uma videoconferência. Este incidente foi investigado pela polícia de Hong Kong, que forneceu detalhes sobre o modus operandi dos fraudadores.

O empregado foi inicialmente abordado por meio de uma comunicação que levantou suspeitas de ser uma tentativa de phishing, mencionando a necessidade de uma transação confidencial. No entanto, a realização de uma videoconferência com a presença de “colegas” simulados por inteligência artificial convenceu o indivíduo da legitimidade do pedido. O golpe veio à tona apenas após o funcionário confirmar a transação com a matriz da empresa.

Agora os golpes financeiros incorporam tecnologias como deepfake para aumentar a credibilidade de suas fraudes. Durante uma coletiva de imprensa, foi mencionado que a polícia de Hong Kong efetuou seis prisões relacionadas a fraudes envolvendo tecnologia deepfake, indicando uma tendência no uso de ferramentas de inteligência artificial para fins criminosos.