Publicado em Deixe um comentário

O FUTURO DA IA NO PODER JUDICIÁRIO

Neofobia, ou o medo do novo, é uma condição que impacta diretamente nossa capacidade de aceitar e integrar o desconhecido em nossas vidas. Este fenômeno vai além do simples receio, agindo como uma barreira significativa que afeta diversas áreas, inclusive a adoção de novas tecnologias.

A literatura de ficção científica, com seu encanto pelo futurismo, frequentemente apresenta a inteligência artificial (IA) como uma ameaça potencial à sociedade. Este tema tem alimentado um debate global sobre a necessidade de regular tais tecnologias, especialmente diante de sua capacidade de influenciar a opinião pública e, por extensão, os resultados eleitorais. A preocupação com o uso de deepfakes e outras ferramentas de IA para disseminar desinformação é particularmente relevante em períodos eleitorais, destacando a importância de regulamentar não apenas a tecnologia em si, mas também seu uso por partes interessadas, incluindo políticos e plataformas de mídia social.

No Brasil, a discussão sobre a regulamentação da IA ganhou destaque com a introdução de um projeto de lei específico, evidenciando a necessidade de uma abordagem cuidadosa para garantir que a inovação tecnológica seja acompanhada de ética e responsabilidade. Este debate se estende ao sistema judiciário, onde a implementação de tecnologias de IA está em curso, com mais de cem projetos, alguns dos quais já em estágios avançados de desenvolvimento.

A experiência passada com a adoção de sistemas eletrônicos pelo judiciário, que sofreu de falta de coordenação e padronização, serve de lição para a necessidade de uma estratégia integrada e inclusiva na adoção da IA. Nesse contexto, a formação de um grupo de trabalho pelo Conselho Nacional de Justiça (CNJ) para estudar e propor regulamentações para o uso de IA no judiciário é um passo louvável. O grupo se esforça para criar diretrizes que refletem valores éticos fundamentais, como a dignidade humana, a transparência e a responsabilidade.

Além do judiciário, outras partes do sistema de justiça, incluindo o Ministério Público e a advocacia, estão envolvidas ativamente no diálogo sobre a IA. Propostas para promover o uso seguro e responsável da IA refletem um compromisso compartilhado com a proteção da privacidade, a segurança dos dados e a garantia de que a tecnologia seja utilizada de maneira que respeite os direitos humanos e os valores democráticos.

Este período de inovação tecnológica apresenta uma oportunidade para questionar se estamos à beira de uma revolução científica, ou simplesmente testemunhando uma evolução gradual da ciência. Independentemente da perspectiva, é essencial que a introdução de novas tecnologias seja acompanhada por um debate informado sobre seus riscos e benefícios, evitando que o medo do desconhecido nos impeça de aproveitar as oportunidades que estas inovações podem oferecer.

O avanço tecnológico, particularmente no campo da inteligência artificial, exige uma abordagem cautelosa que equilibre inovação com responsabilidade. A educação e o engajamento dos gestores públicos e dos profissionais do sistema de justiça são cruciais para superar preconceitos e compreender plenamente as implicações das novas tecnologias. Afinal, são as decisões humanas, e não as capacidades das máquinas, que moldarão o futuro da nossa sociedade.

Publicado em Deixe um comentário

FAKE NEWS: ESTRATÉGIAS LEGAIS E SOCIAIS PARA UMA ERA DIGITAL INFORMADA

A era digital trouxe consigo uma avalanche de informações, acessíveis com um simples clique. No entanto, essa facilidade de acesso também pavimentou o caminho para a propagação de notícias falsas, ou “fake news”, um fenômeno que ameaça a integridade da informação e, por extensão, o tecido social, político e econômico de nossa sociedade.

Entender o que constitui uma notícia falsa é o primeiro passo para combatê-la. Diferentemente da desinformação, que pode ser inadvertida, as fake news são criações maliciosas destinadas a enganar, prejudicar reputações, ganhar vantagem financeira ou política, ou distorcer a opinião pública. Essa distinção é vital para abordar o problema de maneira eficaz.

O impacto das fake news não é trivial. Elas têm o poder de influenciar eleições, diminuir a confiança nas instituições, incitar ódio e violência, e até mesmo afetar a saúde pública, como observado nos boatos sobre vacinas durante a pandemia de Covid-19. A necessidade de uma ação legislativa tornou-se evidente, com vários países, incluindo o Brasil, propondo leis para mitigar esse fenômeno.

No coração do combate às fake news está o direito, servindo como um instrumento para proteger a sociedade. No Brasil, por exemplo, o Projeto de Lei 2.630/2020 representa um esforço para regular a disseminação de informações falsas, introduzindo responsabilidades para as plataformas digitais e promovendo a verificação de fatos e a educação digital. No entanto, é necessário reconhecer que soluções legais não devem se restringir ao âmbito penal, mas também incorporar a responsabilidade civil para tratar os danos causados pela desinformação.

Para efetivamente combater as fake news, é essencial ir além das medidas legais, promovendo a educação digital e a consciência crítica entre a população. Agências de checagem de fatos e iniciativas educacionais, como as do Tribunal Superior Eleitoral (TSE) e do Conselho Nacional de Justiça (CNJ), são fundamentais nesse processo. A responsabilidade individual na verificação e compartilhamento de informações também não pode ser subestimada.

Contudo, o combate às fake news enfrenta desafios significativos, incluindo a proteção da liberdade de expressão e a prevenção da censura por plataformas digitais. Além disso, a proteção da privacidade dos usuários e a garantia de que as medidas contra as fake news não sejam usadas para fins políticos ou ideológicos permanecem preocupações prementes.

As fake news representam um desafio complexo que exige uma resposta multifacetada, envolvendo legislação, educação, responsabilidade individual e coletiva, e a promoção de um jornalismo de qualidade. Somente através de um esforço conjunto, abrangendo todos os setores da sociedade, poderemos esperar proteger nossa democracia e nossos direitos contra o perigo das notícias falsas.

Publicado em Deixe um comentário

RELATÓRIO ANUAL REVELA AUMENTO EM CRIMES CIBERNÉTICOS CONTRA CRIANÇAS

O aumento nas denúncias de pornografia infantil, com um crescimento de 77% entre 2022 e 2023, atingindo um recorde de 71.867 casos, reflete uma preocupação no ambiente digital. Esse volume é o mais alto registrado desde que a SaferNet, uma entidade dedicada à defesa dos direitos humanos na internet, iniciou o acompanhamento de tais denúncias em 2006. Além disso, o total de notificações de violações de direitos humanos e crimes associados observou um aumento de 48,7%, somando 101.313 casos no último ano, conforme indicado pela Central Nacional de Denúncias de Crimes Cibernéticos da SaferNet.

Fatores como o uso de inteligência artificial para a criação de conteúdos de exploração infantil e a comercialização de conteúdo autogerado por adolescentes contribuem para esse aumento. Além disso, cortes de pessoal nas grandes empresas de tecnologia, que afetaram equipes de segurança e moderação, podem ter agravado a situação.

Entre os crimes denunciados, a xenofobia mostrou o maior crescimento percentual, com um aumento de 252%, seguido pela pornografia infantil. Em contrapartida, observou-se uma diminuição nas denúncias de racismo, LGBTfobia e misoginia, o que sugere uma mudança nos tipos de violações mais comumente reportadas.

É neste cenário que entra a importância de uma regulamentação mais rigorosa das plataformas digitais, focada em melhorias na moderação de conteúdo e na revisão de algoritmos que possam promover a disseminação de conteúdos prejudiciais. A colaboração histórica entre o Google e o MPF, bem como os aumentos anteriores de denúncias durante períodos de maior interação digital, como a pandemia, destacam momentos chave na luta contra a exploração infantil online.

Para facilitar o combate a esses crimes, a SaferNet oferece um canal de denúncias anônimas, onde é possível relatar conteúdos para investigação. É essencial também que pais e responsáveis adotem medidas de segurança online, como dialogar sobre os riscos da internet, avaliar e monitorar o uso de jogos e aplicativos, aplicar controles parentais, ajustar as configurações de privacidade e orientar sobre a importância da cautela na interação online e a permanência de imagens na rede.

Ações coordenadas entre governos, organizações não governamentais e o setor de tecnologia são fundamentais para avançar na proteção de crianças e adolescentes na internet, destacando a necessidade de uma abordagem integrada e responsável frente aos desafios digitais atuais.

Publicado em Deixe um comentário

TECNOLOGIA E O DIREITO: MULHER ENFRENTA ABORDAGENS POLICIAIS INJUSTAS EM SERGIPE

Em um incidente ocorrido em Aracaju, Sergipe, em novembro de 2023, uma auxiliar administrativa foi abordada duas vezes por policiais durante uma festa, devido a um erro em um sistema de reconhecimento facial. Inicialmente, a mulher foi erroneamente identificada como uma fugitiva da justiça por câmeras de reconhecimento facial. Durante a primeira abordagem por policiais civis à paisana, foi rapidamente esclarecido que ela não era a pessoa procurada. No entanto, poucas horas depois, ela enfrentou uma segunda abordagem mais agressiva por policiais militares, que a detiveram e questionaram sem qualquer formalidade ou explicação.

O equívoco só foi totalmente esclarecido após ela ser levada para uma central de comando policial, onde sua identidade foi finalmente confirmada. Apesar do reconhecimento do erro, em nenhum momento os oficiais envolvidos ofereceram um pedido formal de desculpas. O incidente ganhou atenção pública e resultou em promessas de revisão do sistema de reconhecimento facial e na implementação de métodos mais humanizados de abordagem policial.

O trauma vivenciado pela mulher foi significativo, deixando-a apreensiva e com medo de futuras identificações errôneas. Esse medo a levou a evitar eventos públicos e a buscar apoio psicológico. O caso ressalta as preocupações com a precisão e o uso ético de tecnologias de reconhecimento facial e sublinha a necessidade urgente de procedimentos policiais mais sensíveis e respeitosos.

Publicado em Deixe um comentário

COMO DEVERÍAMOS REGULAR A INTELIGÊNCIA ARTIFICIAL EM NOSSA SOCIEDADE?

Atualmente, estamos vivendo uma era onde a inteligência artificial (IA) se tornou um pilar central nas relações econômicas e sociais, operando predominantemente através de plataformas tecnológicas avançadas. Este cenário tem suscitado debates em nível global sobre a necessidade de estabelecer regulamentações para a IA, buscando assim um uso mais ético e responsável dessa tecnologia, de modo a proteger os direitos dos indivíduos.

A União Europeia (UE) está na vanguarda deste movimento com sua proposta conhecida como AI Act. Esta iniciativa tem como objetivo principal assegurar a segurança, respeitar os direitos humanos, incrementar a confiança e a transparência no uso da IA, além de fomentar a inovação no mercado digital unificado. A proposta da UE busca prevenir preconceitos e discriminações e estabelecer diretrizes claras para sistemas de IA de alto e baixo risco. Em contraste, França, Alemanha e Itália recentemente adotaram uma abordagem de autorregulação obrigatória, que envolve códigos de conduta para os principais modelos de IA, uma estratégia que tende a ser menos restritiva do que as regulações governamentais e que pode preservar a competitividade no mercado global.

Nos Estados Unidos, uma ordem executiva assinada pelo presidente Joe Biden em outubro deste ano reflete preocupações similares. Esta ordem exige que desenvolvedores de sistemas de IA compartilhem resultados de testes e segurança com o governo, e estabelece a adoção de padrões pelo Instituto Nacional de Padrões e Tecnologia (NIST). Além disso, impõe a utilização de marca d’água para ajudar a identificar conteúdos criados por IA, uma medida para combater fraudes e desinformação.

No Brasil, inspirado pelo movimento da UE, o Projeto de Lei nº 2.338/2023 está em discussão, visando regulamentar o uso de sistemas baseados em IA. Atualmente, apenas a Lei Geral de Proteção de Dados (Lei 13.709/2018) oferece algum nível de proteção contra riscos relacionados ao uso de IA, principalmente no que tange à revisão de decisões automatizadas que afetam direitos individuais.

Este cenário emergente sinaliza algumas tendências claras em relação à autorregulação na IA. Um dos aspectos centrais é a importância da governança como um elemento chave no uso ético da IA. Existe um consenso crescente em torno de quatro pilares éticos fundamentais para a IA: o respeito à autonomia individual, o princípio da precaução, a equidade e a transparência.

No contexto da autorregulação, os programas de governança em IA são importantes para assegurar o uso ético da tecnologia, a transparência, a responsabilidade corporativa, a segurança e privacidade dos dados, a justiça social, a conformidade legal e regulatória, e a gestão de riscos. É importante notar que, apesar de um consenso teórico sobre estes temas, na prática, muitas empresas de tecnologia enfrentam críticas em relação à eficácia e transparência de seus comitês de ética, alguns dos quais foram até mesmo desmantelados.

Em resumo, a evolução e adaptação das regulamentações em torno da IA são essenciais para garantir seu uso ético e responsável. A definição de um “mínimo ético” com diretrizes universais é fundamental para assegurar princípios inegociáveis na ética da IA, como respeito à autonomia individual, precaução, equidade e transparência. A tendência de autorregulação e os programas de governança em IA tornam-se essenciais para garantir a conformidade legal, a responsabilidade corporativa, a justiça social e a gestão eficiente de riscos. O futuro da IA, portanto, dependerá da capacidade das organizações de integrar esses princípios éticos no desenvolvimento e na implementação de seus sistemas, promovendo um uso da IA que seja benéfico e sustentável para toda a sociedade.

Publicado em Deixe um comentário

UNIDADE DAS LOJAS AMERICANAS É ACUSADA DE EXPOR CURRÍCULO DE MULHER COMO ETIQUETA DE PREÇO

O atributo alt desta imagem está vazio. O nome do arquivo é image.png

A recente exposição inadequada do currículo de uma mulher em uma loja de Nossa Senhora do Socorro, na Grande Aracaju, revela uma clara infração à Lei Geral de Proteção de Dados (LGPD). Esse incidente destaca a fragilidade da segurança e privacidade dos dados pessoais no ambiente empresarial.

A LGPD foi estabelecida com o objetivo de assegurar a segurança e privacidade das informações pessoais dos indivíduos. A utilização do currículo da mulher como placa de preço evidencia a falta de compreensão dos princípios fundamentais da LGPD por parte da loja.

Dados sensíveis da pessoa com deficiência

Ao considerar a LGPD, é essencial reconhecer que os currículos de pessoas com deficiência podem conter informações sensíveis sobre sua saúde e condições médicas. Esses dados estão protegidos pela legislação e requerem uma atenção especial em relação à sua coleta, armazenamento e uso.

A utilização inadequada dos currículos de pessoas com deficiência, especialmente ao expô-los de maneira inapropriada, é uma clara infração à LGPD. Além disso, essa violação pode ter um impacto significativo na vida dessas pessoas, causando constrangimento e violando sua privacidade.

A proteção dos dados sensíveis de saúde é especialmente relevante no caso de pessoas com deficiência, que podem ter informações médicas e condições de saúde específicas registradas em seus currículos. A coleta, armazenamento e uso desses dados devem ser conduzidos com o máximo cuidado e em conformidade com a LGPD.

É crucial que casos como esse sejam tratados com a devida seriedade, considerando que a LGPD abrange uma ampla gama de dados pessoais, incluindo informações de saúde, endereços e outros dados. Portanto, é necessário conscientizar as empresas sobre a importância de respeitar a privacidade dos indivíduos e implementar medidas efetivas para proteger os dados pessoais sob sua responsabilidade.

É essencial que a sociedade, as instituições e as empresas trabalhem em conjunto para garantir a segurança e privacidade das informações pessoais, promovendo um ambiente justo e ético em conformidade com a LGPD e respeitando os direitos fundamentais de cada indivíduo.