Publicado em

O DESAFIO DAS FALSIFICAÇÕES DIGITAIS: IMPACTOS JURÍDICOS, SOCIAIS E PSICOLÓGICOS

A evolução da inteligência artificial abriu espaço para ferramentas capazes de criar imagens e vídeos extremamente realistas. Entre essas inovações, destacam-se as chamadas deepfakes, montagens digitais que simulam falas e ações nunca realizadas. A popularização desses recursos, antes restritos a especialistas, ampliou o alcance de usos criativos, mas também de riscos jurídicos, sociais e psicológicos.

Entre inovação e manipulação

O uso de softwares de IA generativa permite alterar registros originais e produzir conteúdos quase indistinguíveis da realidade. Essa tecnologia pode servir à arte e ao entretenimento, mas também se presta a golpes financeiros, ataques à reputação e manipulação política. A fronteira entre liberdade criativa e práticas nocivas é cada vez mais sutil.

No campo jurídico, já existem instrumentos para responsabilizar condutas ilícitas, como enquadramento em crimes de falsidade ideológica ou estelionato. Porém, a rapidez com que esses conteúdos circulam exige respostas complementares: desde medidas regulatórias adaptadas até a criação de protocolos eficazes para sua remoção. A discussão não se limita ao âmbito penal — envolve também questões autorais, democráticas e éticas.

Impactos emocionais e sociais

A propagação de um vídeo adulterado atinge diretamente a honra e a privacidade das pessoas envolvidas. Mesmo quando desmentida, a falsificação deixa marcas, pois muitos já terão acreditado em sua veracidade. As consequências psicológicas incluem ansiedade, vergonha, estresse e, em casos graves, transtornos como síndrome do pânico ou estresse pós-traumático.

Quando o material envolve conteúdo de cunho sexual, o dano tende a ser ainda mais profundo, gerando humilhação, isolamento e até riscos de chantagem e extorsão. Crianças e adolescentes são particularmente vulneráveis, exigindo apoio não apenas no âmbito familiar, mas também escolar, com práticas de acolhimento e conscientização.

O papel das plataformas digitais

As redes sociais e empresas de tecnologia estão no centro dessa discussão. Embora as deepfakes representem apenas mais uma faceta do uso ambíguo da inovação, é inegável que cabe às plataformas criar mecanismos de detecção e remoção rápida. A cooperação com autoridades, somada ao investimento em sistemas de rastreamento digital, é essencial para responsabilizar autores e mitigar danos.

A falta de controle adequado, além de comprometer indivíduos, ameaça a própria democracia, ao permitir a manipulação da opinião pública por meio de vídeos adulterados que influenciam decisões políticas e eleitorais.

Caminhos para o futuro

A tendência é que as falsificações digitais se tornem ainda mais sofisticadas, tornando difícil sua identificação até mesmo por especialistas. Diante disso, três frentes se mostram indispensáveis: educação midiática para formar cidadãos críticos, responsabilização legal para punir abusos e avanços tecnológicos capazes de identificar manipulações.

Mais do que restringir a inovação, o desafio está em preparar a sociedade para lidar com os riscos, aproveitando os benefícios legítimos da tecnologia. Assim como outros inventos da humanidade que serviram tanto ao progresso quanto ao abuso, as deepfakes exigem maturidade coletiva para que sejam incorporadas de forma ética e responsável.

Publicado em

DEEPFAKES E OS RISCOS À CONFIANÇA DIGITAL: DESAFIOS JURÍDICOS, FINANCEIROS E INSTITUCIONAIS

O avanço das técnicas de geração de imagens e vídeos por inteligência artificial trouxe não apenas aplicações inovadoras, mas também um campo fértil para práticas ilícitas. Entre os usos mais preocupantes estão os golpes financeiros, nos quais criminosos utilizam conteúdos falsificados para simular reuniões virtuais ou autorizações corporativas, induzindo empresas a realizar transferências milionárias para contas fraudulentas. Estimativas indicam prejuízos de dezenas de milhões de dólares associados a esse tipo de fraude.

Além do impacto econômico, a manipulação digital de vozes e imagens tem sido explorada em contextos de desinformação e até mesmo como instrumento de guerra psicológica. A criação de vídeos falsos envolvendo líderes políticos já foi usada para tentar influenciar percepções públicas e abalar a confiança em instituições, o que acendeu alertas em órgãos de segurança de diferentes países.

No campo privado, a apropriação indevida da imagem de figuras públicas em conteúdos publicitários ou em materiais de natureza íntima expõe não só os alvos diretos, mas também usuários comuns, que se tornam mais suscetíveis a golpes baseados em campanhas enganosas. Esse tipo de prática levanta sérias questões sobre direitos de personalidade e responsabilidade civil.

Desafios jurídicos e tecnológicos

A popularização das ferramentas de edição, somada à ausência de regulação específica em muitas jurisdições, aumenta a vulnerabilidade de indivíduos e organizações. Embora existam normas gerais de proteção de dados e mecanismos de tutela da honra e da imagem, a sofisticação das manipulações digitais exige respostas jurídicas e técnicas mais rápidas.

Do ponto de vista tecnológico, pesquisadores e empresas vêm desenvolvendo métodos para atestar a autenticidade de conteúdos digitais. Entre eles estão a marcação digital (watermarking), o uso de metadados criptográficos e até aplicações baseadas em blockchain. Também há investimento em sistemas de detecção apoiados em aprendizado de máquina, capazes de identificar padrões de manipulação, ainda que sujeitos a limitações de precisão e vieses.

Prevenção e conscientização

Nenhuma solução, isoladamente, é suficiente. O enfrentamento das deepfakes passa pela combinação de medidas legais, tecnológicas e educativas. A promoção da literacia digital é indispensável para que usuários consigam identificar indícios de manipulação e desconfiar de mensagens e conteúdos suspeitos. No ambiente empresarial, políticas internas de validação de transações financeiras e protocolos de segurança em comunicações virtuais podem reduzir os riscos de fraudes.

Mais do que uma ameaça ao patrimônio ou à reputação, as deepfakes representam um desafio de confiança no ambiente digital. Cabe ao direito, à tecnologia e à sociedade encontrar mecanismos que protejam a integridade das informações e a dignidade das pessoas diante dessa nova fronteira de manipulação.

Publicado em

CIBERSEGURANÇA 2025: TRANSFORMANDO DESAFIOS EM OPORTUNIDADES ESTRATÉGICAS

A cibersegurança desponta como um dos maiores desafios e também uma das mais promissoras oportunidades para organizações e indivíduos nos próximos anos. Em 2025, três aspectos se destacam como cruciais para o panorama global: a expansão da inteligência artificial generativa (IA Gen), o fortalecimento das regulamentações internacionais e a influência do cenário geopolítico na segurança digital.

IA Generativa: Uma Arma de Dois Gumes

A inteligência artificial generativa tem transformado a forma como empresas monitoram, mitigam e reagem a ameaças cibernéticas. Essa mesma tecnologia, que eleva a eficácia das defesas, também possibilita ataques cada vez mais elaborados. Deepfakes, golpes personalizados e malwares avançados são exemplos do uso malicioso da IA por cibercriminosos. O desafio corporativo será aproveitar estrategicamente essa ferramenta, implementando controles rigorosos e avaliando continuamente os riscos.

No contexto social, o uso ético de dados pessoais emerge como um tema central. À medida que a digitalização avança, a privacidade individual estará sob crescente pressão. Governos, organizações e cidadãos precisam buscar um equilíbrio entre inovação tecnológica e proteção de direitos fundamentais.

Regulamentações Rigorosas e a Nova Responsabilidade Corporativa

O aumento das exigências regulatórias, especialmente em setores críticos e financeiros, está redesenhando o papel da gestão empresarial na segurança digital. Novas diretivas exigem que conselhos de administração assumam responsabilidade direta por falhas de conformidade, eliminando a possibilidade de delegar integralmente a questão às equipes técnicas.

Essa transformação insere a cibersegurança no núcleo estratégico das organizações, demandando resiliência operacional e preparo para crises. Para a sociedade, o fortalecimento das regulamentações reduz a vulnerabilidade de serviços essenciais, como bancos e hospitais, ao mesmo tempo que reforça a confiança em ambientes digitais. Isso encoraja o uso seguro de serviços online, promovendo eficiência e inovação.

Geopolítica e a Cibersegurança: Um Cenário de Incertezas

O impacto das tensões geopolíticas sobre a cibersegurança será um dos grandes desafios de 2025. Conflitos internacionais, cibercrimes organizados com ligações políticas e instabilidade em várias nações alimentam um cenário de alta vulnerabilidade. Ataques a infraestruturas críticas, como sistemas de energia e transportes, podem causar interrupções devastadoras, enquanto campanhas de desinformação digital continuam a influenciar processos democráticos e dividir sociedades.

Além disso, operações de espionagem patrocinadas por estados comprometem informações sensíveis, colocando em risco a soberania e a competitividade econômica. Nesse contexto, a cooperação internacional entre empresas, governos e entidades multilaterais será indispensável. Protocolos de resposta conjunta e a troca de conhecimento em tempo real tornam-se estratégias essenciais para mitigar impactos e proteger setores inteiros.

Confiança e Resiliência como Alicerces do Futuro

O cenário de 2025 exige que a cibersegurança transcenda seu papel tradicional de proteção contra ameaças para se posicionar como um motor de confiança e resiliência. Quem estiver preparado para liderar com visão estratégica e antecipação terá melhores condições de prosperar em um ambiente cada vez mais regulado e competitivo.

A cibersegurança não é apenas uma questão técnica; é um compromisso com a sustentabilidade e a soberania, garantindo que os avanços tecnológicos sejam acompanhados por uma estrutura sólida de proteção e governança. O futuro digital depende da capacidade coletiva de enfrentar desafios e transformar a segurança em um diferencial estratégico para o sucesso global.

Publicado em

DEEPFAKES E PRIVACIDADE: QUANDO A TECNOLOGIA INVADE O DIREITO DE IMAGEM

Recentemente, um caso viral nas redes sociais chamou a atenção para os riscos do uso de deepfakes e a importância de zelar pela privacidade e segurança online. Tudo começou quando uma internauta descobriu que uma marca havia usado inteligência artificial para recriar seu rosto e promover produtos, sem o consentimento dela. O vídeo em que ela compartilha essa experiência já conta com milhões de visualizações e levantou debates sobre os perigos e a ética do uso da IA.

Deepfakes, que são vídeos e imagens criados ou alterados com IA para parecerem reais, trazem um desafio inédito. A legislação brasileira protege o direito de imagem como um direito fundamental, o que significa que o uso da imagem de uma pessoa sem sua autorização pode, sim, resultar em penalidades legais e até ações por danos morais, principalmente se a imagem for usada de forma que deturpe a identidade ou os valores da pessoa envolvida.

Além disso, o uso de deepfakes em campanhas publicitárias pode confundir o público, dando a entender que a pessoa está associada à marca ou apoia o produto, o que pode ser visto como publicidade enganosa e falsidade ideológica. Para evitar esse tipo de problema, as empresas devem agir com muito cuidado ao usarem IA em estratégias de marketing.

A IA processa e aprende com grandes volumes de dados, o que, em algumas situações, pode levar à utilização de elementos protegidos por direitos de outras pessoas. É fundamental que as marcas estejam atentas e façam uma verificação cuidadosa para garantir que o uso de inteligência artificial seja seguro e ético, respeitando os direitos das pessoas. Monitorar o uso dessas tecnologias e contar com especialistas em proteção de dados são passos essenciais para que o uso de IA esteja alinhado com a legislação e com os valores da empresa.

Inovar e usar a tecnologia de forma responsável, respeitando as pessoas e garantindo que a experiência do cliente seja positiva e de confiança.

Publicado em

CRESCE O USO DE INTELIGÊNCIA ARTIFICIAL EM ATAQUES CIBERNÉTICOS

No segundo trimestre de 2024, foi observado um aumento nas atividades de cibercriminosos, que têm utilizado celebridades, eventos globais e marcas conhecidas para atrair vítimas em golpes digitais. O uso da inteligência artificial (IA), incluindo deepfakes, tem sido uma das estratégias adotadas para tornar essas fraudes mais sofisticadas.

As dificuldades econômicas também têm contribuído para que mais pessoas caiam em promessas de ganhos rápidos, como investimentos falsos, brindes em criptomoedas e ofertas de emprego que não se concretizam. Os cibercriminosos aproveitam o momento para explorar temas que estão em destaque na sociedade, como segurança financeira e questões relacionadas a eventos atuais.

Com o avanço da IA, os criminosos conseguem modernizar técnicas de golpes mais antigas, criando um ambiente digital ainda mais desafiador para os consumidores. Deepfakes de figuras públicas têm sido usados para promover esquemas fraudulentos, e eventos ao vivo se tornaram ferramentas de atração para esses golpes.

O relatório também apontou um aumento de 24% nos ataques de ransomware contra consumidores em comparação ao trimestre anterior. A maioria desses ataques ocorre durante a navegação na internet, e mais de um bilhão de tentativas de ataques foram bloqueadas mensalmente, representando um crescimento de 46% em relação ao ano anterior.

Esses dados reforçam a necessidade de atenção por parte dos usuários, que devem adotar práticas de segurança e se manterem informados sobre as novas táticas utilizadas pelos cibercriminosos no ambiente digital.

Publicado em

ESTRATÉGIAS PARA COMBATER OS DEEPFAKES NA ERA DIGITAL

Deepfakes, uma forma avançada de inteligência artificial que pode criar mídias sintéticas convincentes, representam uma ameaça crescente à segurança e à privacidade em todo o mundo. Recentemente, o Brasil foi palco de um episódio alarmante: um vídeo manipulado de um programa de notícias circulou nas redes sociais, exibindo um apresentador anunciando falsamente uma decisão governamental sobre uma indenização.

Este incidente é apenas um exemplo do uso malicioso dos Deepfakes, que estão sendo empregados em diversos golpes, desde ataques de phishing até a propagação de notícias falsas. Diante desse cenário, espera-se um aumento significativo nos investimentos destinados à detecção de imagens falsas.

Os gastos com ferramentas de segurança para combater os Deepfakes devem aumentar consideravelmente nos próximos anos. Esse crescimento é impulsionado pela preocupação com os riscos reputacionais e legais associados ao uso indevido de dados, bem como pela sofisticação crescente das técnicas de manipulação de mídia.

Uma das ferramentas mais eficazes na defesa contra os Deepfakes é um mecanismo de mapeamento facial alimentado por inteligência artificial. Essa tecnologia pode determinar se uma imagem de rosto corresponde a uma pessoa real ou se é uma representação sintética, como uma foto estática ou uma máscara.

Profissionais do setor destacam a importância desse tipo de tecnologia na identificação de fraudes que utilizam inteligência artificial para substituir rostos. Ressaltam que, com a crescente regulamentação e os riscos operacionais cada vez maiores, a adoção de ferramentas como essa se tornará essencial para organizações que lidam com grandes volumes de dados.

As principais soluções anti-Deepfakes do mercado empregam algoritmos de machine learning para analisar imagens em busca de sinais de manipulação. Essa abordagem é fundamental para mitigar os riscos associados aos Deepfakes e garantir a integridade da informação em um ambiente cada vez mais digitalizado.

Publicado em

LEGISLAÇÃO E TECNOLOGIA: A NECESSIDADE DE PROTEÇÃO CONTRA ‘DEEPFAKES’

As ferramentas de inteligência artificial (IA) que criam “deepfakes” sexualmente explícitos têm sido alvo de críticas crescentes devido à sua natureza predatória, que visa principalmente as mulheres. Este tipo de tecnologia, que manipula imagens para criar representações sexualmente explícitas sem consentimento, é uma forma particularmente invasiva de abuso digital. Alarmantemente, estes algoritmos são projetados especificamente para afetar as mulheres, destacando um uso malicioso da tecnologia sem neutralidade alguma.

Um estudo recente revelou que o número de vídeos “deepfake” explícitos aumentou em mais de 550% entre 2019 e 2023, demonstrando a escalada preocupante deste fenômeno. A criação desses vídeos tornou-se surpreendentemente acessível e rápida, sendo possível gerar uma “deepfake” em menos de meia hora utilizando uma única fotografia clara do rosto da vítima.

A discussão sobre como combater essa forma de violência digital tem se intensificado, especialmente na União Europeia, que está à beira de implementar uma diretiva focada na violência contra as mulheres, que inclui medidas contra a ciber-violência. Esta legislação busca uniformizar a proteção em todos os estados-membros, fortalecendo as leis de privacidade e aumentando as responsabilidades sobre a disseminação de conteúdos digitais abusivos.

No entanto, a natureza transnacional da internet e a facilidade com que os conteúdos digitais cruzam fronteiras complicam a aplicação dessas leis. Vítimas podem estar em um país, enquanto os servidores que hospedam o conteúdo abusivo e os agressores podem estar em outros. Isso ressalta a necessidade de uma cooperação internacional mais robusta para efetivamente enfrentar esses desafios.

Além das medidas legais, existem plataformas dedicadas a combater a disseminação de conteúdo íntimo não-consensual. Estas plataformas utilizam tecnologias de IA para identificar e eliminar imagens abusivas em várias redes, auxiliando na mitigação do dano.

Especialistas em ciber-segurança destacam que, além da remoção rápida de conteúdos prejudiciais, é vital uma conscientização maior sobre as armadilhas da segurança digital. A prevenção não deve se basear na restrição do compartilhamento de imagens pessoais, que é parte integrante da expressão individual e da vida social moderna, mas sim no fortalecimento das estruturas legais e tecnológicas que protegem a integridade digital das pessoas.

À medida que a IA continua a evoluir rapidamente, as legislações terão que se adaptar com a mesma velocidade para oferecer proteções adequadas, um desafio que legisladores em todo o mundo precisarão enfrentar continuamente.

Publicado em

O PAPEL DA INTELIGÊNCIA ARTIFICIAL E AS NOVAS DIRETRIZES DO TSE

O Tribunal Superior Eleitoral (TSE) aprovou recentemente uma resolução que modifica as regras sobre propaganda eleitoral, visando adaptá-las ao cenário das tecnologias emergentes. Uma das principais mudanças é a exigência de rotular todas as peças publicitárias que façam uso de Inteligência Artificial (IA), incluindo identificação de conteúdo sintético multimídia.

A aplicação da IA em diferentes fases da produção publicitária levanta questões sobre a abrangência dos rótulos exigidos, se devem englobar todo o processo de criação ou apenas o conteúdo final veiculado. Além disso, foram estabelecidas restrições ao uso de chatbots e avatares, proibindo sua utilização para simular conversas com candidatos ou pessoas reais, e foi vetado completamente o uso de deepfakes durante o período eleitoral.

A capacidade de julgar condutas conforme as novas regras, sem mecanismos seguros de comprovação, é um desafio importante a ser enfrentado. A preocupação com o uso irresponsável da IA em campanhas políticas, exemplificada por casos recentes, reforça a necessidade de medidas regulatórias.

Desde 2018, o TSE tem aprovado resoluções visando garantir um processo eleitoral mais justo e transparente, adaptando-se às novas realidades digitais. Isso inclui a inclusão das campanhas municipais como agentes de tratamento de dados, com obrigações específicas de registro e relatórios de impacto à proteção de dados em casos de alto risco.

Essas medidas são essenciais para proteger a integridade do processo democrático diante do avanço das novas tecnologias, garantindo que estas sejam utilizadas de forma responsável e ética durante as eleições.

Publicado em

A INTELIGÊNCIA ARTIFICIAL NO CENÁRIO ELEITORAL BRASILEIRO

À medida que caminhamos para as eleições municipais deste ano, a questão da Inteligência Artificial (IA) surge como um ponto focal na discussão sobre como modernizar e assegurar a integridade dos processos eleitorais. Com sua impressionante habilidade de analisar vastos conjuntos de dados e fornecer percepções valiosas quase instantaneamente, a IA promete revolucionar a forma como as campanhas eleitorais se conectam com os eleitores.

Ela oferece a possibilidade de personalizar comunicações políticas de maneira nunca antes vista, otimizando a entrega de mensagens com uma precisão quase cirúrgica. Essa tecnologia, no entanto, não está isenta de riscos. O surgimento de deepfakes – vídeos e áudios altamente realistas gerados por IA que podem imitar perfeitamente figuras públicas – representa um desafio significativo, capaz de propagar desinformação e erodir a confiança nas instituições democráticas.

A facilidade com que a voz e a aparência de um político podem ser replicadas abre caminho para a criação de notícias falsas, a manipulação da opinião pública e a distorção da narrativa política. Adicionalmente, a automação das interações pode resultar na despersonalização da política, fazendo com que os eleitores se sintam tratados mais como alvos de estratégias de marketing do que como participantes essenciais de um processo democrático.

Frente a esses desafios, o Tribunal Superior Eleitoral (TSE) adotou medidas proativas para estabelecer limites claros para o uso ético da IA. A proibição de deepfakes busca preservar a integridade do discurso político, enquanto limitações ao uso de chatbots visam assegurar que os eleitores possam distinguir entre interações humanas e automatizadas. A exigência de que as redes sociais atuem ativamente no combate a discursos de ódio e a conteúdos antidemocráticos sublinha o reconhecimento do papel significativo que estas plataformas desempenham no molde da opinião pública.

Do ponto de vista legal, as regulamentações do TSE criam uma base sólida para ação contra o uso mal-intencionado da IA, impondo penalidades que podem ir de multas a repercussões criminais, dependendo da severidade e do impacto das infrações no debate público. Essas medidas refletem uma consciência crescente da necessidade de uma governança tecnológica que seja ética e que esteja em harmonia com os princípios democráticos.

A influência da IA nas eleições reflete uma dicotomia comum a muitos avanços tecnológicos: seu potencial para benefício público versus seu uso para desinformação e manipulação. As regulamentações implementadas pelo TSE representam um esforço importante para minimizar esses riscos. Contudo, essas normativas não são uma solução definitiva. À medida que a tecnologia avança, as estratégias para seu uso e abuso também se desenvolvem.

Portanto, é essencial manter uma vigilância constante e adaptar as respostas às novas realidades. A trajetória da democracia brasileira no século XXI dependerá de nossa capacidade de equilibrar inovação com responsabilidade, assegurando que a tecnologia reforce os fundamentos da equidade e da participação cidadã.

Publicado em

O FUTURO DA IA NO PODER JUDICIÁRIO

Neofobia, ou o medo do novo, é uma condição que impacta diretamente nossa capacidade de aceitar e integrar o desconhecido em nossas vidas. Este fenômeno vai além do simples receio, agindo como uma barreira significativa que afeta diversas áreas, inclusive a adoção de novas tecnologias.

A literatura de ficção científica, com seu encanto pelo futurismo, frequentemente apresenta a inteligência artificial (IA) como uma ameaça potencial à sociedade. Este tema tem alimentado um debate global sobre a necessidade de regular tais tecnologias, especialmente diante de sua capacidade de influenciar a opinião pública e, por extensão, os resultados eleitorais. A preocupação com o uso de deepfakes e outras ferramentas de IA para disseminar desinformação é particularmente relevante em períodos eleitorais, destacando a importância de regulamentar não apenas a tecnologia em si, mas também seu uso por partes interessadas, incluindo políticos e plataformas de mídia social.

No Brasil, a discussão sobre a regulamentação da IA ganhou destaque com a introdução de um projeto de lei específico, evidenciando a necessidade de uma abordagem cuidadosa para garantir que a inovação tecnológica seja acompanhada de ética e responsabilidade. Este debate se estende ao sistema judiciário, onde a implementação de tecnologias de IA está em curso, com mais de cem projetos, alguns dos quais já em estágios avançados de desenvolvimento.

A experiência passada com a adoção de sistemas eletrônicos pelo judiciário, que sofreu de falta de coordenação e padronização, serve de lição para a necessidade de uma estratégia integrada e inclusiva na adoção da IA. Nesse contexto, a formação de um grupo de trabalho pelo Conselho Nacional de Justiça (CNJ) para estudar e propor regulamentações para o uso de IA no judiciário é um passo louvável. O grupo se esforça para criar diretrizes que refletem valores éticos fundamentais, como a dignidade humana, a transparência e a responsabilidade.

Além do judiciário, outras partes do sistema de justiça, incluindo o Ministério Público e a advocacia, estão envolvidas ativamente no diálogo sobre a IA. Propostas para promover o uso seguro e responsável da IA refletem um compromisso compartilhado com a proteção da privacidade, a segurança dos dados e a garantia de que a tecnologia seja utilizada de maneira que respeite os direitos humanos e os valores democráticos.

Este período de inovação tecnológica apresenta uma oportunidade para questionar se estamos à beira de uma revolução científica, ou simplesmente testemunhando uma evolução gradual da ciência. Independentemente da perspectiva, é essencial que a introdução de novas tecnologias seja acompanhada por um debate informado sobre seus riscos e benefícios, evitando que o medo do desconhecido nos impeça de aproveitar as oportunidades que estas inovações podem oferecer.

O avanço tecnológico, particularmente no campo da inteligência artificial, exige uma abordagem cautelosa que equilibre inovação com responsabilidade. A educação e o engajamento dos gestores públicos e dos profissionais do sistema de justiça são cruciais para superar preconceitos e compreender plenamente as implicações das novas tecnologias. Afinal, são as decisões humanas, e não as capacidades das máquinas, que moldarão o futuro da nossa sociedade.

Publicado em

COMO A INTELIGÊNCIA ARTIFICIAL ESTÁ SENDO USADA EM GOLPES

O avanço da inteligência artificial (IA) tem trazido benefícios significativos na interação entre humanos e tecnologia, mas o emprego de inteligência artificial (IA) em práticas ilegais tem sido motivo de preocupação.

Um exemplo disso é a utilização de deepfakes, que são vídeos manipulados através da IA, em esquemas de fraude. Nesses golpes, os criminosos usam imagens e vozes sintetizadas para criar videochamadas falsas, com o objetivo de extorquir dinheiro de pessoas próximas às vítimas.

Recentemente, houve um aumento nos relatos de fraudes envolvendo IA, tanto com figuras públicas quanto com cidadãos comuns. Os golpistas geralmente criam situações de emergência falsas para persuadir as vítimas a enviar dinheiro rapidamente, usando tanto vídeos quanto apenas vozes sintetizadas.

As autoridades estão atentas a esses golpes e os classificam como sérias infrações, que podem incluir crimes como falsidade ideológica e estelionato. A natureza global desses crimes e a complexidade envolvida em sua investigação e punição apresentam desafios significativos.

No campo legal, especialistas em direito digital observam a existência de aplicativos que facilitam a venda de dados pessoais e o uso de IA para fins fraudulentos. Alguns casos de fraudes já foram resolvidos, com vítimas recebendo reembolso após a comprovação do uso de IA. Há esforços legislativos para introduzir leis mais rigorosas contra essas práticas.

Para prevenção, recomenda-se medidas como a adoção de códigos secretos para situações de emergência, autenticação de dois fatores em contas online e cuidado ao compartilhar informações pessoais na internet. Em casos de exposição indevida de dados, é importante procurar assistência especializada.

Publicado em

CLONAGEM DE VOZ POR IA: PROTEGENDO A INTEGRIDADE ELEITORAL E A INFORMAÇÃO PÚBLICA

Com o avanço acelerado da inteligência artificial na geração de áudios, a clonagem de voz tornou-se uma prática comum na indústria do entretenimento, sendo utilizada para dublagens e criação de canções com a voz de atores e artistas já falecidos. Contudo, esse avanço também levanta preocupações, pois o uso indevido da IA para criação de deepfakes de voz pode resultar em ações de desinformação alarmantes. É possível enganar eleitores, criar conflitos políticos e ampliar o espaço para teorias da conspiração.

Recentemente, vimos casos em alguns países onde deepfakes foram utilizados para clonar a voz de líderes políticos. Na Eslováquia, por exemplo, dias antes de uma eleição nacional, um clipe de áudio falsificado de Michal Šimečka, líder do Partido Progressista, circulou descrevendo um esquema de fraude nas eleições por meio do suborno de membros da população cigana. Similarmente, no Reino Unido, um vídeo falso do líder do Partido Trabalhista, Keir Starmer, foi compartilhado, no qual ele proferia ofensas contra seus próprios funcionários.

Esses clipes foram prontamente desmentidos por verificadores de fatos, que os identificaram como prováveis falsificações geradas por softwares de IA. No entanto, é preocupante observar que muitas publicações nas redes sociais continuam a afirmar a veracidade desses clipes, enganando ainda mais os usuários. O Facebook, por exemplo, colocou um selo de advertência em uma das publicações, mas não a removeu, enquanto o vídeo de Starmer não recebeu qualquer tipo de advertência.

Com várias eleições programadas para ocorrer na Europa nos próximos meses, incluindo em países como Polônia, Holanda e Lituânia, Thierry Breton, comissário da União Europeia, enviou uma carta a Mark Zuckerberg, CEO da Meta, pressionando para que medidas sejam adotadas para conter a proliferação de deepfakes nas redes sociais.

Nos Estados Unidos, a preocupação com deepfakes também é evidente, especialmente visando as eleições de 2024. Um vídeo falso do ex-presidente Barack Obama surgiu no TikTok, no qual ele endossava uma teoria da conspiração sobre a morte repentina de seu ex-chefe de cozinha, conforme reportado pelo The New York Times. Esse vídeo foi compartilhado por uma das 17 contas do TikTok que promovem informações falsas por meio de áudios, de acordo com um relatório da NewsGuard, empresa especializada em monitorar desinformação online.

Os deepfakes de voz apresentam uma peculiaridade preocupante: são mais difíceis de serem identificados como falsos, se comparados a imagens ou vídeos gerados por IA. Isso os torna eficazes para enganar os usuários e disseminar desinformação. Diante dessa ameaça, a Comissão Eleitoral Federal (FEC) dos Estados Unidos iniciou uma consulta pública para regular conteúdos gerados artificialmente, especialmente no contexto de anúncios políticos, visando garantir a integridade e transparência nas eleições presidenciais de 2024.