Publicado em

FRAUDES DIGITAIS COM INTELIGÊNCIA ARTIFICIAL: COMO IDENTIFICAR E PREVENIR MANIPULAÇÕES COM DEEPFAKE

O avanço das ferramentas de inteligência artificial vem transformando profundamente o ambiente digital. Em especial, o uso de tecnologias conhecidas como deepfake, que permitem a manipulação extremamente realista de imagens, vídeos e áudios, tem impulsionado novas formas de fraude e criado riscos concretos para empresas e indivíduos. O que antes era domínio de especialistas técnicos tornou-se acessível a qualquer pessoa com um smartphone e uma conexão à internet.

As práticas de engenharia social, quando combinadas com conteúdos forjados por inteligência artificial, ganharam um grau de sofisticação que dificulta a identificação de tentativas de golpe. É possível simular com alta fidelidade a voz de um familiar, o rosto de um executivo ou até mesmo cenas inteiras que parecem autênticas a olho nu. O impacto dessas fraudes já se reflete no cotidiano de profissionais, consumidores e instituições públicas e privadas.

Empresas relatam casos em que falsas videoconferências com “executivos” resultaram em transferências indevidas de valores. Em outros episódios, mensagens de áudio supostamente enviadas por superiores hierárquicos foram usadas para acelerar decisões de pagamento sem os devidos protocolos de validação. Também são cada vez mais comuns os relatos de cidadãos que receberam pedidos de ajuda financeira em nome de parentes, com vozes idênticas às dos seus entes queridos, gerando perdas financeiras e abalos emocionais.

A disseminação dessas práticas foi impulsionada pela disponibilidade de aplicativos que replicam vozes e criam vídeos personalizados em poucos minutos. A barreira técnica praticamente desapareceu, o que amplia o uso dessas ferramentas com finalidades ilícitas.

A preocupação não se limita ao ambiente corporativo. Famílias, consumidores e usuários de redes sociais também estão expostos. Um conteúdo audiovisual fabricado pode ser compartilhado em massa com objetivos que vão desde o golpe financeiro até a destruição de reputações. Em períodos de alta sensibilidade, como eleições e eventos esportivos, a disseminação de vídeos e áudios falsos pode confundir a opinião pública e manipular decisões.

Algumas medidas podem reduzir significativamente o risco de ser enganado por esse tipo de fraude. Uma prática essencial é a verificação cruzada de qualquer solicitação financeira. Se uma mensagem indicar urgência para pagamento ou transferência, o ideal é confirmar por outros meios, como uma ligação telefônica ou uma conversa presencial. Sinais como mudanças abruptas no padrão de linguagem ou pedidos fora do usual merecem atenção redobrada.

No contexto empresarial, treinamentos voltados para a identificação de ameaças digitais devem incluir simulações e exemplos reais de manipulação por deepfake. Ferramentas que integram autenticação biométrica com validação algorítmica podem ajudar, embora ainda não sejam infalíveis.

Enquanto empresas de tecnologia seguem investindo em soluções de detecção automática de falsificações, cabe a cada usuário e organização desenvolver um olhar crítico e adotar uma postura de vigilância contínua. O simples hábito de desconfiar do incomum e validar informações sensíveis por mais de um canal é um passo valioso na proteção contra golpes digitais.

Publicado em

ENGENHARIA SOCIAL: PROTEJA SUA EMPRESA CONTRA MANIPULAÇÕES PSICOLÓGICAS

A segurança da informação não depende apenas de sistemas tecnológicos avançados. Muitas vezes, as maiores vulnerabilidades estão nas próprias pessoas, alvos de manipulações sutis e bem planejadas. Esse fenômeno é conhecido como engenharia social — um conjunto de estratégias utilizadas por indivíduos mal-intencionados para induzir colaboradores a fornecer dados confidenciais ou realizar ações que colocam a empresa em risco.

Para mitigar esse tipo de ameaça, é essencial adotar medidas que fortaleçam a postura de segurança no ambiente de trabalho. O primeiro passo é estabelecer protocolos claros para o compartilhamento de informações. Colaboradores precisam saber exatamente quais dados podem ser divulgados, a quem e por quais canais. Esse cuidado evita a exposição de informações sensíveis em contatos informais ou por meios inseguros.

Outro aspecto relevante é a realização de treinamentos periódicos sobre segurança da informação. A conscientização constante prepara os colaboradores para identificar abordagens suspeitas, como ligações telefônicas, e-mails fraudulentos ou até mesmo contatos presenciais que buscam explorar a boa-fé e a falta de atenção.

Além dessas práticas, a empresa deve incentivar uma cultura organizacional baseada na cautela e na verificação. Questionar solicitações incomuns, confirmar identidades e validar a origem de pedidos são comportamentos que precisam ser valorizados e estimulados no dia a dia corporativo.

Ao adotar essas medidas, a organização reduz significativamente os riscos de ser vítima de ataques baseados em engenharia social, protegendo tanto seus ativos quanto a confiança de seus clientes e parceiros. Segurança é resultado de processos bem definidos, treinamento contínuo e uma postura vigilante de todos os envolvidos.

Publicado em

INTELIGÊNCIA ARTIFICIAL NO BRASIL: A GOVERNANÇA TECNOLÓGICA QUE TRANSFORMA O MERCADO BRASILEIRO

No cenário atual, a inteligência artificial (IA) está rapidamente consolidando seu papel no Brasil, principalmente em compliance e integridade, com grande parte das empresas investindo em soluções que integram essa tecnologia. O Relatório de Integridade Global 2024, produzido pela EY, aponta que mais de metade das empresas brasileiras (51%) já utiliza IA em suas operações, um índice significativamente superior à média global de 29%. Esse diferencial revela um movimento proativo do mercado nacional em relação a novos recursos tecnológicos para aprimorar práticas de governança e monitoramento.

Entre as empresas brasileiras que adotaram IA, impressionantes 92% se mostram atentas aos riscos inerentes, implementando políticas que asseguram o uso ético e seguro dos algoritmos, contemplando questões de segurança da informação, privacidade e integridade dos dados. Esse esforço é essencial para mitigar o risco de alucinação da IA generativa, garantindo que os processos automatizados sejam submetidos a supervisão humana e que as decisões baseadas em IA sejam seguras e confiáveis.

A governança da IA em mercados emergentes, como o Brasil, demonstra estar à frente dos países desenvolvidos. Dados do estudo mostram que quatro em cada dez empresas desses mercados já adotaram diretrizes específicas para a gestão da IA, revelando uma maturidade elevada tanto no uso quanto no entendimento da tecnologia. Em termos de preparação, 51% dos executivos em mercados emergentes receberam treinamento ou orientações de suas empresas sobre o uso seguro da IA, enquanto na América do Sul, 54% afirmam ter esse suporte — números que superam amplamente as médias da Europa Ocidental (35%), América do Norte (32%) e Oceania (28%).

Os departamentos de jurídico e compliance destacam que a IA trouxe melhorias significativas no monitoramento ativo, na análise avançada de riscos e na evolução dos processos de conformidade. Segundo o relatório, as principais áreas beneficiadas incluem coleta e análise de dados para correlação de riscos, com 40% dos respondentes destacando essa função, seguido pelo monitoramento ativo, com 37%, e a pontuação de riscos, com 34%. Além disso, ao cruzar dados internos com informações regulatórias, a IA identifica possíveis lacunas de conformidade, fortalecendo a gestão preventiva de riscos.

Porém, nem tudo é positivo. Desafios para a implementação plena da IA ainda persistem, especialmente em relação à consistência e qualidade dos dados e à falta de expertise interna em tecnologia. Para que a IA gere o máximo valor, é fundamental que as empresas assegurem o alinhamento das ferramentas de IA com diretrizes internas e requisitos legais, e que a tecnologia seja apoiada por uma base sólida de dados de qualidade.

O Relatório de Integridade Global 2024 da EY teve como base uma pesquisa global com 5.464 executivos e colaboradores de grandes organizações de 53 países, realizada entre outubro de 2023 e janeiro de 2024. Em complemento, a EY desenvolveu a série “IA aplicada aos negócios”, que explora práticas seguras e orientações para as empresas interessadas em adotar a tecnologia. Temas como uso tributário da IA, compliance, governança de dados e monitoramento ambiental são explorados, ressaltando a importância da IA para os negócios e a necessidade de uma estratégia sólida de governança.

A adoção da IA no Brasil reflete o crescente entendimento das empresas de que, para usufruir dos benefícios dessa tecnologia sem comprometer sua integridade e reputação, é imprescindível estabelecer uma governança robusta, que contemple todos os aspectos éticos, legais e operacionais.