Publicado em

O FUTURO DA IA NO PODER JUDICIÁRIO

Neofobia, ou o medo do novo, é uma condição que impacta diretamente nossa capacidade de aceitar e integrar o desconhecido em nossas vidas. Este fenômeno vai além do simples receio, agindo como uma barreira significativa que afeta diversas áreas, inclusive a adoção de novas tecnologias.

A literatura de ficção científica, com seu encanto pelo futurismo, frequentemente apresenta a inteligência artificial (IA) como uma ameaça potencial à sociedade. Este tema tem alimentado um debate global sobre a necessidade de regular tais tecnologias, especialmente diante de sua capacidade de influenciar a opinião pública e, por extensão, os resultados eleitorais. A preocupação com o uso de deepfakes e outras ferramentas de IA para disseminar desinformação é particularmente relevante em períodos eleitorais, destacando a importância de regulamentar não apenas a tecnologia em si, mas também seu uso por partes interessadas, incluindo políticos e plataformas de mídia social.

No Brasil, a discussão sobre a regulamentação da IA ganhou destaque com a introdução de um projeto de lei específico, evidenciando a necessidade de uma abordagem cuidadosa para garantir que a inovação tecnológica seja acompanhada de ética e responsabilidade. Este debate se estende ao sistema judiciário, onde a implementação de tecnologias de IA está em curso, com mais de cem projetos, alguns dos quais já em estágios avançados de desenvolvimento.

A experiência passada com a adoção de sistemas eletrônicos pelo judiciário, que sofreu de falta de coordenação e padronização, serve de lição para a necessidade de uma estratégia integrada e inclusiva na adoção da IA. Nesse contexto, a formação de um grupo de trabalho pelo Conselho Nacional de Justiça (CNJ) para estudar e propor regulamentações para o uso de IA no judiciário é um passo louvável. O grupo se esforça para criar diretrizes que refletem valores éticos fundamentais, como a dignidade humana, a transparência e a responsabilidade.

Além do judiciário, outras partes do sistema de justiça, incluindo o Ministério Público e a advocacia, estão envolvidas ativamente no diálogo sobre a IA. Propostas para promover o uso seguro e responsável da IA refletem um compromisso compartilhado com a proteção da privacidade, a segurança dos dados e a garantia de que a tecnologia seja utilizada de maneira que respeite os direitos humanos e os valores democráticos.

Este período de inovação tecnológica apresenta uma oportunidade para questionar se estamos à beira de uma revolução científica, ou simplesmente testemunhando uma evolução gradual da ciência. Independentemente da perspectiva, é essencial que a introdução de novas tecnologias seja acompanhada por um debate informado sobre seus riscos e benefícios, evitando que o medo do desconhecido nos impeça de aproveitar as oportunidades que estas inovações podem oferecer.

O avanço tecnológico, particularmente no campo da inteligência artificial, exige uma abordagem cautelosa que equilibre inovação com responsabilidade. A educação e o engajamento dos gestores públicos e dos profissionais do sistema de justiça são cruciais para superar preconceitos e compreender plenamente as implicações das novas tecnologias. Afinal, são as decisões humanas, e não as capacidades das máquinas, que moldarão o futuro da nossa sociedade.

Publicado em

ESTRATÉGIAS DE ANONIMIZAÇÃO PARA COMPLIANCE E LIBERDADE DE USO

A transformação de dados pessoais em anônimos é uma etapa crítica para atender às exigências impostas por regulamentos e princípios éticos, econômicos, estruturais e legais. Esta prática se tornou um componente indispensável nas estratégias de conformidade, especialmente sob as diretrizes de proteção de dados. Anonimizar dados serve como uma ponte vital, permitindo a transição de informações pessoais para um domínio onde podem ser livremente utilizadas, garantindo uma maior liberdade na manipulação de dados sem infringir as normas de privacidade.

Com a promulgação de leis de proteção de dados, empresas e organizações enfrentam o desafio de reavaliar suas operações de análise de dados. Estas legislações enfatizam a importância de limitar o uso de informações ao mínimo necessário para cumprir objetivos específicos, condenando o acúmulo de dados sem finalidades explícitas. Neste cenário, a anonimização emerge como uma solução essencial, permitindo a continuidade do uso de dados analíticos enquanto se mantém em conformidade com as restrições legais.

Entretanto, a implementação efetiva dessa técnica encontra obstáculos. A legislação apresenta disposições fragmentadas sobre o assunto, há uma carência de estudos acadêmicos detalhados e, até o momento, falta orientação regulatória clara sobre as melhores práticas de anonimização. Isso cria um ambiente de incerteza para aqueles que buscam se alinhar às exigências da legislação de proteção de dados.

Apesar desses desafios, a aplicação da anonimização é não apenas viável, mas também recomendável. Ela requer uma compreensão de que o processo de tornar os dados anônimos é, em si, uma forma de tratamento de dados, exigindo conformidade com as normas de proteção de dados até que a anonimização seja concluída. Além disso, é necessário reconhecer que a eficácia da anonimização depende do contexto e da capacidade de reversão, o que significa que as técnicas utilizadas devem ser periodicamente revisadas para garantir que continuem sendo eficazes à luz de novas tecnologias e métodos de análise.

Importante também é a identificação dos limites da anonimização, que podem ser categorizados em termos de suas características intrínsecas, a relação com outros dados disponíveis e os desafios éticos e legais associados ao seu uso. Estas considerações sublinham a importância de uma escolha informada e consciente dos riscos ao optar pela anonimização.

A compreensão aprofundada e a aplicação cuidadosa dessa técnica beneficiam todos os envolvidos. Para os indivíduos, oferece uma camada adicional de proteção de privacidade. Para as entidades que processam dados, fornece uma ferramenta que possibilita o uso inovador e legal das informações. E para a sociedade, fomenta um debate vital sobre as práticas éticas na utilização de dados.

Portanto, a anonimização representa uma abordagem estratégica essencial na era da proteção de dados, facilitando a inovação e o avanço tecnológico de maneira responsável e conforme às exigências legais e éticas.

Publicado em

A ESTRATÉGIA DA UNIÃO EUROPEIA PARA A GOVERNANÇA DA INTELIGÊNCIA ARTIFICIAL

A recente aprovação unânime do texto final da primeira lei específica para Inteligência Artificial (IA) pelos países-membros da União Europeia (UE) em 2 de fevereiro marca um momento histórico na regulamentação tecnológica global. Este consenso solidifica o AI Act, uma legislação inovadora que visa governar o desenvolvimento e uso da IA dentro do bloco. Este ato legislativo, que se destina a entrar em vigor brevemente após sua publicação oficial, é o resultado de um processo deliberativo que começou em 2018, culminando em um acordo decisivo que posiciona a UE como a primeira potência econômica a estabelecer um quadro regulatório abrangente para esta tecnologia disruptiva.

O AI Act não é apenas um conjunto de regras; é uma visão estratégica da UE para promover a inovação responsável dentro do seu mercado interno. A designação iminente do AI Office pela Comissão Europeia como entidade reguladora central reflete uma abordagem calculada para balancear o rigor regulatório com o fomento ao desenvolvimento tecnológico. Esta estrutura regulatória visa não apenas gerenciar os riscos associados à IA, mas também estimular o crescimento de startups no campo da IA generativa, apontando para um futuro onde a Europa não apenas regula mas também lidera no desenvolvimento ético e inovador da IA.

O AI Act delineia um conceito abrangente de IA, baseando-se na definição da Organização para a Cooperação e Desenvolvimento Econômico (OCDE). Sob esta legislação, os sistemas de IA são entendidos como entidades mecanizadas capazes de realizar tarefas que vão desde inferências simples a recomendações complexas, abrangendo modelos de aprendizado de máquina de grande escala. A legislação enfatiza a necessidade de transparência e supervisão, especialmente para sistemas classificados como de alto risco, onde a clareza sobre a tomada de decisões e os impactos ao longo do ciclo de vida é fundamental.

O AI Act também aborda a diversidade de aplicações de IA, diferenciando entre usos de baixo e alto risco, e estabelecendo requisitos proporcionais de transparência e conformidade. Enquanto sistemas de baixo risco, como chatbots, enfrentam requisitos de transparência mais leves, os de alto risco estão sujeitos a uma supervisão rigorosa, refletindo um compromisso com a proteção da saúde pública, segurança e direitos fundamentais.

A legislação impõe restrições significativas a práticas potencialmente invasivas ou discriminatórias, incluindo o uso de reconhecimento facial em tempo real em espaços públicos e a categorização biométrica para inferir dados sensíveis. Estas medidas visam preservar a dignidade humana e evitar abusos que poderiam levar a um futuro distópico.

No campo dos direitos autorais, o AI Act é pioneiro ao exigir que os desenvolvedores de modelos de linguagem obtenham autorização para o uso de dados protegidos, promovendo uma cultura de transparência e respeito pela propriedade intelectual. Este aspecto da legislação não apenas protege os criadores, mas também encoraja uma abordagem mais ética e consciente no desenvolvimento de tecnologias de IA.

A adoção do AI Act pela UE é um passo na direção de uma governança global da IA que equilibra inovação e ética. Este marco regulatório não só estabelece a UE como um líder na formulação de políticas de IA, mas também desafia outras regiões, incluindo o Brasil, a considerar suas próprias abordagens regulatórias. O Brasil, com sua posição de mercado consumidor e seu potencial de desenvolvimento, enfrenta o desafio de navegar neste novo ambiente regulatório, equilibrando a necessidade de proteger direitos com o impulso para a inovação.

A legislação da UE sobre IA representa um equilíbrio entre a proteção contra os riscos e o apoio à inovação, estabelecendo um precedente para a regulamentação global da IA. Enquanto o mundo avança na adoção e desenvolvimento da IA, a abordagem da UE oferece insights valiosos sobre como governar esta tecnologia emergente de maneira responsável e eficaz.

Publicado em

COMO O BRASIL ESTÁ ELEVANDO SUAS DEFESAS CIBERNÉTICAS PARA AS ELEIÇÕES DE 2024

À medida que o Brasil se prepara para as eleições municipais de 2024, a cibersegurança tornou-se um tópico de importância fundamental. A recente implementação da Política Nacional de Cibersegurança (PNCiber) é um claro indicativo do esforço do país para fortalecer as defesas contra crimes cibernéticos. Essa iniciativa é especialmente relevante para prevenir abusos, como os disparos em massa via WhatsApp, que infringem a Lei Geral de Proteção de Dados (LGPD).

Especialistas em cibersegurança apontam que as atualizações legais são fundamentais na proteção contra ameaças digitais e na salvaguarda dos direitos individuais em um mundo cada vez mais conectado. Eles destacam que sem a garantia de proteção e privacidade, não apenas as multas são uma preocupação, mas também a própria estrutura de uma democracia digitalizada fica em risco.

No contexto político, as eleições são particularmente suscetíveis a ataques cibernéticos, com os dados dos eleitores podendo ser alvos de manipulação e exploração. Para as eleições de 2024, reforçar a proteção de dados e a cibersegurança é essencial para assegurar a integridade do processo eleitoral e proteger os direitos fundamentais dos cidadãos.

Implementar medidas robustas de segurança cibernética e aderir a regulamentações, como a LGPD, é crucial. Tanto empresas quanto órgãos governamentais precisam estar preparados para enfrentar possíveis ameaças cibernéticas, adotando medidas proativas para proteger dados e garantir a transparência e confiabilidade das eleições.

Para evitar ataques e vazamentos de dados, é recomendada uma estratégia que englobe pessoas, processos e tecnologias. Treinamentos e simulações de ataques de engenharia social devem ser realizados periodicamente. Em termos de processos, é vital seguir padrões de mercado no tratamento de dados sensíveis, como o PCI-DSS na indústria financeira.

No aspecto tecnológico, é importante escolher soluções que suportem a segurança em nuvem pública, incluindo autenticação de dois fatores, políticas de senha robustas, segurança de e-mail e criptografia de dados. Estas tecnologias devem complementar os outros dois pilares, formando uma solução de segurança integrada.

A necessidade de proteção contra ciberataques é urgente, considerando os potenciais prejuízos financeiros e danos à reputação. A busca por consultoria especializada em segurança é fundamental para uma avaliação de risco adequada e para o desenvolvimento de um plano de remediação eficaz, reduzindo as chances de ataques bem-sucedidos.

Publicado em

PRIVACIDADE NO CHATGPT: ENTENDENDO OS RECENTES VAZAMENTOS DE INFORMAÇÕES

Recentemente, a plataforma ChatGPT da OpenAI tem enfrentado questionamentos sérios sobre questões de privacidade e segurança de dados. De acordo com uma reportagem publicada pelo ArsTechnica, houve incidentes em que a ferramenta de inteligência artificial revelou informações confidenciais de usuários, incluindo nomes de usuário e senhas. Este problema foi notado quando um usuário solicitou à IA sugestões para nomes de cores para uma paleta e se deparou com conversas e dados de terceiros em sua sessão.

Entre os dados expostos estavam credenciais de um sistema de suporte utilizado por funcionários de um portal de medicamentos prescritos, detalhes de uma proposta de pesquisa, códigos em PHP e o título de uma apresentação em desenvolvimento. Estas informações parecem ter surgido de interações de diferentes usuários com o ChatGPT.

Não é a primeira vez que a OpenAI se depara com problemas de vazamento de dados. Em março de 2023, houve relatos de exposição de dados de assinantes e, em novembro do ano anterior, informações utilizadas no treinamento da IA foram divulgadas. A empresa já está ciente do incidente mais recente e anunciou que está investigando a situação.

Este cenário reforça a importância de se ter cautela ao interagir com sistemas de IA. Especialistas na área de segurança cibernética recomendam que os usuários evitem compartilhar informações sensíveis ou confidenciais durante as interações com essas tecnologias. Em resposta a esses incidentes, é provável que haja um aumento no escrutínio sobre as práticas de segurança de dados da OpenAI e outros desenvolvedores de tecnologias similares.

Além disso, vale mencionar que o ChatGPT tem sido objeto de outras preocupações, como a proliferação de bots ilegais que simulam relacionamentos virtuais. Estes problemas destacam os desafios éticos e técnicos enfrentados pela indústria de IA e a necessidade de contínuo aperfeiçoamento para garantir a segurança e a privacidade dos usuários.

Publicado em

INTELIGÊNCIA ARTIFICIAL: GOOGLE APRESENTA LUMIERE, GERADOR DE VÍDEOS REALÍSTICOS

Na última quinta-feira, a inteligência artificial deu mais um passo: o Google, em colaboração com a Universidade de Tel Aviv e o Weizmann Institute of Science, ambos em Israel, anunciou o Lumiere. Esta inovação representa um avanço, pois é um modelo de IA capaz de criar vídeos altamente realistas a partir de descrições textuais. Além disso, o Lumiere tem a habilidade única de converter imagens estáticas em sequências de vídeo animadas.

Os desenvolvedores do Lumiere o descrevem como um “modelo de difusão texto-para-vídeo”, projetado especificamente para sintetizar vídeos que exibem movimentos realistas, variados e coesos. O que diferencia este modelo de outras tecnologias similares é sua arquitetura baseada no Space-Time U-Net. Esta estrutura permite a geração de todos os quadros do vídeo simultaneamente, em vez de sequencialmente, como é comum em tecnologias concorrentes. Essa abordagem resulta em movimentos mais coesos e precisos, proporcionando vídeos com uma aparência mais realista, mesmo que em resoluções mais baixas. Para utilizar o Lumiere, os usuários simplesmente digitam instruções textuais ou carregam imagens, e a ferramenta se encarrega do restante.

Um aspecto do Google Lumiere é sua capacidade de gerar vídeos em estilos específicos. Esta funcionalidade permite aos usuários animar partes selecionadas de uma imagem enquanto mantêm o restante estático, criar novos conteúdos que preservam o estilo visual da imagem original, e alterar características de objetos dentro do vídeo, entre outras possibilidades.

Contudo, com grandes inovações vêm grandes responsabilidades. Os criadores do Lumiere, conscientes dos potenciais riscos associados ao uso indevido dessa tecnologia, destacaram a necessidade de desenvolver métodos para identificar e prevenir “usos mal-intencionados”. Esta preocupação é especialmente relevante no contexto da disseminação de fake news, particularmente em anos eleitorais. O objetivo declarado é fornecer aos usuários, especialmente aos iniciantes, uma ferramenta para criar conteúdo visual de maneira criativa e flexível, mas garantindo a segurança e a integridade da informação.

Publicado em

INTELIGÊNCIA ARTIFICIAL NO BRASIL: DESAFIOS E PERSPECTIVAS NA BUSCA POR REGULAMENTAÇÃO

A crescente presença da inteligência artificial (IA) no dia a dia dos brasileiros, desde serviços de streaming em televisores até aplicativos de mapas em celulares e assistentes virtuais, tem levantado questões importantes sobre a regulamentação do setor. Atualmente, a ausência de uma legislação específica para IA no Brasil cria um vácuo legal, gerando incertezas sobre a proteção de direitos e potencialmente dificultando a atração de novos investimentos nessa área inovadora.

Um projeto de lei recentemente apresentado busca estabelecer normas para assegurar a segurança e confiabilidade dos sistemas de IA. Este projeto propõe que antes da contratação ou uso de sistemas baseados em IA, os usuários sejam informados sobre os dados pessoais que serão utilizados. Especialistas em Direito Digital e Propriedade Intelectual destacam que a implementação de tal regulamentação traria um conjunto de diretrizes centradas nas boas práticas de governança em inteligência artificial, com possíveis sanções econômicas para quem não as observar. Contudo, há preocupações de que uma regulação rigorosa possa impor desafios significativos, especialmente para empresas menores ou em fase inicial, em comparação com grandes corporações que têm mais recursos para atender às exigências legais.

Os principais desafios na criação de um ambiente regulado para IA incluem a necessidade de acompanhar o rápido desenvolvimento tecnológico e a flexibilidade para evitar legislações obsoletas. A proteção de direitos fundamentais como privacidade, dignidade e segurança dos usuários é essencial, assim como a preservação de direitos existentes, incluindo a propriedade intelectual e a compatibilidade com regulamentos internacionais. Além disso, há a necessidade de definir a responsabilidade dos desenvolvedores e usuários de IA, implementar controles de segurança adequados e garantir transparência no uso dessas tecnologias. Essas questões destacam a urgência e a complexidade de regulamentar o uso da inteligência artificial no Brasil.

Publicado em

A ERA DO ACESSO ELETRÔNICO AOS REGISTROS PÚBLICOS

O sistema judiciário brasileiro está prestes a experimentar uma revolução digital com a implementação de uma plataforma unificada para registros públicos, destinada inicialmente ao uso exclusivo do Poder Judiciário. Esta plataforma, conhecida como Serp-Jud, representa um passo preliminar antes da introdução do Sistema Eletrônico dos Registros Públicos (Serp), que visa atender o público em geral, mas cuja data de conclusão ainda não foi definida.

Este avanço tecnológico, sob a coordenação da Corregedoria Nacional de Justiça, é uma resposta às demandas crescentes por eficiência e transparência no setor registral brasileiro. O Serp-Jud, atualmente em fase experimental, é uma etapa crítica para testar conceitos fundamentais, monitorar e avaliar aspectos como segurança, transparência, proteção de dados, funcionalidade e desempenho. Além disso, serve para identificar desafios e explorar as soluções mais apropriadas.

O projeto envolve uma equipe de juízes auxiliares da corregedoria e se destaca por sua abordagem colaborativa e integrativa, engajando milhares de cartórios em todo o país. A interoperabilidade e a interconexão entre bancos de dados, sistemas e outras tecnologias desenvolvidas ao longo dos anos são os pilares desta iniciativa.

Nesta fase inicial, o Serp-Jud já oferece serviços significativos como a Penhora Online, facilitando procedimentos como pedidos de certidões e envios de mandados judiciais. Adicionalmente, a plataforma inclui a Central Nacional de Indisponibilidade de Bens (CNIB), um mecanismo para a comunicação e divulgação de ordens judiciais que afetam patrimônios imobiliários. Este serviço integra as regulamentações dos Provimentos 39/2014 e 149/2023 e está alinhado com as diretrizes do Conselho Nacional de Justiça.

O Serp, quando completamente implementado, representará um marco na modernização dos registros públicos no Brasil. Instituído pela Lei Federal nº 14.382/2022, este sistema não apenas simplificará os procedimentos registrais relacionados a atos e negócios jurídicos, mas também democratizará o acesso à informação registral de maneira eletrônica. Seu impacto vai além do setor jurídico, contribuindo significativamente para o desenvolvimento social e econômico do país.

Publicado em

CNJ REVOLUCIONA SISTEMA JUDICIÁRIO COM LANÇAMENTO DO SERP-JUD

O Conselho Nacional de Justiça (CNJ) do Brasil anunciou recentemente uma grande inovação no setor judiciário: o Sistema Eletrônico de Registros Públicos Judiciais, conhecido como SERP-Jud. Esta plataforma representa um avanço significativo na integração e modernização dos serviços judiciários e cartoriais no país.

O SERP-Jud tem como principal objetivo a digitalização e centralização dos serviços jurídicos e registrais. Isso promete agilizar os processos judiciais e aumentar a eficiência do sistema, interligando de maneira eficaz os tribunais aos milhares de cartórios extrajudiciais espalhados pelo Brasil. A plataforma reúne diversas tecnologias já em uso, como o sistema ARISP (Penhora Online), a CNIB (Central Nacional de Indisponibilidade de Bens) e o CRC-JUD (Central de Informações do Registro Civil).

Com esta nova ferramenta, juízes e magistrados terão capacidades ampliadas, como realizar pesquisas de bens imóveis, solicitar certidões de matrícula, registrar penhoras, emitir ordens de indisponibilidade de bens imóveis, além de acessar certidões de nascimento, casamento, união estável e óbito. Inicialmente, o uso do SERP-Jud será restrito aos magistrados, com previsão de disponibilidade a partir de março.

Além disso, o CNJ está trabalhando no desenvolvimento do SERP, uma versão da plataforma destinada ao público em geral, cuja data de conclusão ainda não foi definida.

A implementação do SERP-Jud é um passo crucial na direção de uma justiça mais ágil e acessível, facilitando significativamente o trabalho dos profissionais do direito e contribuindo para a execução judicial mais eficiente. À medida que o projeto evolui, espera-se que mais informações e atualizações sejam disponibilizadas pelo CNJ.

Publicado em

A JORNADA DA BIBLIOTECA BRITÂNICA NA ERA DA SEGURANÇA CIBERNÉTICA

Após um grave ataque cibernético que resultou na indisponibilidade de um vasto acervo de mais de 170 milhões de itens em outubro do ano passado, uma das mais renomadas bibliotecas do mundo, localizada no Reino Unido, iniciou o processo de restauração do seu catálogo principal. Este catálogo inclui uma coleção extraordinária de 36 milhões de registros, abrangendo livros impressos raros, mapas, diários e partituras musicais. Segundo informações de um prestigiado jornal britânico, a restauração completa destes registros pode levar até o final do ano. O diretor executivo da biblioteca expressou em um blog que a recuperação total dos serviços será um processo gradual.

Durante este período de recuperação, os leitores terão acesso à maioria das principais coleções especiais da biblioteca, incluindo arquivos e manuscritos. Contudo, até que a restauração do serviço digital seja concluída, será necessário realizar visitas presenciais para consultar versões offline dos catálogos especializados.

Desde o ataque, a biblioteca tem funcionado apenas para visitação e como espaço de leitura, com os materiais necessitando ser trazidos pelos próprios visitantes. Seu catálogo é uma ferramenta essencial para pesquisadores ao redor do mundo. De acordo com um outro renomado jornal financeiro britânico, a reconstrução de seus serviços digitais deverá custar cerca de 7 milhões de libras, o que representa uma parcela significativa das reservas da instituição.

O ataque foi perpetrado por um conhecido grupo de hackers especializado em ransomware, um tipo de software nocivo usado para bloquear dados de computadores. Este grupo também se envolveu no roubo e venda de dados de funcionários e da própria biblioteca na dark web. Ainda segundo o jornal financeiro, a biblioteca optou por não pagar o resgate exigido, que era de cerca de 600.000 libras.

Este incidente destaca a vulnerabilidade das instituições culturais em um mundo cada vez mais digitalizado e as complexidades envolvidas na proteção de acervos digitais e físicos contra ameaças cibernéticas. A restauração e fortalecimento dos sistemas digitais dessa biblioteca não são apenas passos essenciais para a sua própria recuperação, mas também servem como um lembrete crítico da importância de investir em segurança cibernética para preservar o patrimônio cultural global.

Publicado em

GOVERNO FEDERAL LANÇA APLICATIVO ‘CELULAR SEGURO’ PARA COMBATER ROUBO E FURTO EM TODO O PAÍS

Governo Federal, em parceria com o Ministério da Justiça e Segurança Pública (MJSP), apresenta hoje (19) o lançamento do aplicativo “Celular Seguro”. Essa ferramenta visa proporcionar o bloqueio imediato de dispositivos furtados ou roubados em todo o território nacional.

Para usufruir do aplicativo, basta realizar o download do “Celular Seguro” nas respectivas lojas de aplicativos. No caso de dispositivos Android, a aquisição pode ser feita através da Google Play Store, enquanto os usuários de iPhones devem acessar a App Store.

Após a instalação, é necessário cadastrar os dados do celular na plataforma gov.br. Conforme explicado por Paulo Pimenta, ministro-chefe da Secretaria de Comunicação Social da Presidência da República, nas redes sociais, em caso de roubo, o usuário pode acionar o sistema por meio de um computador, notificando imediatamente operadoras telefônicas e bancos, o que resulta no bloqueio imediato do acesso.

O ministro destaca a importância dessa medida como um meio de reduzir transtornos e perdas financeiras para aqueles que enfrentam situações de furto ou roubo. O secretário-executivo do MJSP explica que o bloqueio desencoraja a receptação, tornando o celular praticamente inútil para quem o adquire de forma duvidosa.

Ele enfatiza que esse aplicativo atua como um importante instrumento para desestimular roubos, uma vez que a impossibilidade de acesso a informações e dados bancários torna o dispositivo pouco atraente para possíveis compradores.

Publicado em

TECNOLOGIA E O DIREITO: MULHER ENFRENTA ABORDAGENS POLICIAIS INJUSTAS EM SERGIPE

Em um incidente ocorrido em Aracaju, Sergipe, em novembro de 2023, uma auxiliar administrativa foi abordada duas vezes por policiais durante uma festa, devido a um erro em um sistema de reconhecimento facial. Inicialmente, a mulher foi erroneamente identificada como uma fugitiva da justiça por câmeras de reconhecimento facial. Durante a primeira abordagem por policiais civis à paisana, foi rapidamente esclarecido que ela não era a pessoa procurada. No entanto, poucas horas depois, ela enfrentou uma segunda abordagem mais agressiva por policiais militares, que a detiveram e questionaram sem qualquer formalidade ou explicação.

O equívoco só foi totalmente esclarecido após ela ser levada para uma central de comando policial, onde sua identidade foi finalmente confirmada. Apesar do reconhecimento do erro, em nenhum momento os oficiais envolvidos ofereceram um pedido formal de desculpas. O incidente ganhou atenção pública e resultou em promessas de revisão do sistema de reconhecimento facial e na implementação de métodos mais humanizados de abordagem policial.

O trauma vivenciado pela mulher foi significativo, deixando-a apreensiva e com medo de futuras identificações errôneas. Esse medo a levou a evitar eventos públicos e a buscar apoio psicológico. O caso ressalta as preocupações com a precisão e o uso ético de tecnologias de reconhecimento facial e sublinha a necessidade urgente de procedimentos policiais mais sensíveis e respeitosos.