Publicado em Deixe um comentário

REGULAMENTO EUROPEU: ESTABELECENDO PADRÕES PARA UMA IA CONFIÁVEL NA UNIÃO EUROPEIA

O Regulamento (UE) 2024/1689 foi implementado com o intuito de uniformizar as normas referentes à inteligência artificial (IA) em toda a União Europeia, promovendo uma IA que prioriza a confiabilidade e o bem-estar humano. Este regulamento visa proteger a saúde, segurança e direitos fundamentais dos cidadãos, ao mesmo tempo em que incentiva a inovação tecnológica.

Sistemas de IA de Alto Risco

Os sistemas de IA considerados de alto risco são aqueles que podem ter um impacto significativo na saúde, segurança ou direitos fundamentais das pessoas. Exemplos destes sistemas incluem IA utilizada em diagnósticos médicos, processos de recrutamento e vigilância pública.

Requisitos para Sistemas de Alto Risco

Para assegurar que esses sistemas operem de maneira segura e ética, o regulamento estabelece critérios rigorosos a serem seguidos:

  • Transparência: Deve ser claramente informado quando estamos interagindo com uma IA.
  • Segurança: Esses sistemas devem passar por avaliações de conformidade e manter registros detalhados.
  • Ética: É imperativo que os usuários saibam que estão interagindo com uma IA e que seus dados sejam tratados com segurança e responsabilidade.

Garantindo Segurança e Confiabilidade

A transparência é um pilar fundamental para garantir que os dados utilizados pelos sistemas de IA sejam seguros e confiáveis. Essa abordagem visa proteger os direitos de todos os cidadãos, promovendo uma IA ética e centrada no ser humano.

Publicado em Deixe um comentário

A REVOLUÇÃO DA INTELIGÊNCIA ARTIFICIAL: DESAFIOS E PERSPECTIVAS NO DIREITO PENAL

A implementação da Inteligência Artificial (IA) como ferramenta para a racionalização decisional e a automação de processos tem provocado profundas transformações na sociedade. Este fenômeno afeta diversos aspectos da vida cotidiana, desde comportamentos em mídias sociais até estratégias de marketing, passando por cultura, política e economia. A obtenção e utilização de dados pessoais tornaram-se práticas comuns, enquanto a educação digital e o entendimento dessas tecnologias ainda carecem de desenvolvimento adequado, gerando desafios significativos.

O Direito, muitas vezes visto como um mecanismo abstrato, formal e coercitivo de controle social, enfrenta dificuldades para acompanhar essa evolução rápida e constante. A modernidade líquida, caracterizada pela fluidez e instabilidade, torna o controle das novas tecnologias um desafio quase intransponível.

Cenários que outrora pareciam ficção, como aqueles apresentados no desenho animado “Os Jetsons”, estão se materializando rapidamente. Tecnologias como carros voadores, teletrabalho, reuniões por videoconferência, robôs, relógios inteligentes, impressoras 3D e turismo espacial, que antes eram sonhos distantes, agora fazem parte do nosso cotidiano. Mesmo os criadores do desenho, Hanna-Barbera, dificilmente poderiam prever a rapidez com que essas inovações se integrariam às nossas vidas.

A velocidade das mudanças sociais, como observado por Durkheim, tende a aumentar a criminalidade, tanto em períodos de depressão social e econômica quanto em épocas de grande expansão. Os crimes cibernéticos, em particular, emergem como uma preocupação central, não apenas pela quantidade crescente de incidentes, mas também pela complexidade e impacto dessas ações.

No contexto do processo penal, a realidade virtual e as tecnologias de IA estão reconfigurando o cenário jurídico. Questões que antes geravam debates intensos, como a compatibilidade do processo penal com o processo eletrônico, tornaram-se ainda mais prementes com a pandemia de COVID-19, que acelerou a adoção de audiências eletrônicas e outras inovações tecnológicas.

Imaginando o futuro do processo penal, à semelhança dos Jetsons, podemos prever a prevalência da “quebra do domicílio virtual” como uma das principais fontes de provas. Isso poderia transformar o interrogatório em um ato de confirmação de dados pré-selecionados, colocando em risco o direito de defesa e a presunção de inocência.

As implicações são vastas. A carga da prova, as garantias processuais e a análise dos elementos subjetivos do crime precisam ser reconsideradas em um contexto onde os dados automatizados dominam. A sentença penal poderia se tornar um silogismo algorítmico, reduzindo a complexidade das decisões judiciais a meros formulários pré-preenchidos.

As reavaliações automáticas de prisões preventivas, como previsto no artigo 316, parágrafo único do Código de Processo Penal (CPP), poderiam ser realizadas por softwares de IA, que analisariam perfis de presos com base em dados comportamentais e notícias de mídia. Isso nos leva a um questionamento fundamental: estaríamos retornando a uma visão determinista do crime, semelhante às teorias da Escola Positiva de Lombroso, agora apoiada por algoritmos e análises de periculosidade?

Embora a tecnologia tenha o potencial de melhorar significativamente nossa vida e o sistema penal, é crucial lembrar que o processo penal deve manter seu caráter instrumental e jurídico-científico. A adoção irrefletida de inovações tecnológicas pode resultar em um endeusamento das máquinas, transformando questões de fé em garantias processuais.

As teorias sobre o fim da internet como a conhecemos, substituída por interações algorítmicas, levantam preocupações sobre a preservação de nossas garantias constitucionais. A justiça deve permanecer humana, mesmo em um mundo cada vez mais digitalizado, pois o processo eletrônico representa vidas e não pode ser desumanizado.

Enquanto navegamos pelas águas da inovação tecnológica, devemos assegurar que nossos sistemas jurídicos se adaptem de maneira que respeite e preserve os direitos fundamentais, mantendo um equilíbrio entre eficiência e humanidade.

Publicado em Deixe um comentário

COMO A INTELIGÊNCIA ARTIFICIAL ESTÁ REDEFININDO A GESTÃO DE RISCOS E CONFORMIDADE

A disseminação do uso da inteligência artificial tem se intensificado nas últimas décadas, impulsionada principalmente pelo aumento da capacidade de processamento e pela vasta quantidade de dados digitais gerados. Inicialmente, essa expansão se deu pela possibilidade de executar algoritmos de IA mais complexos, permitindo a análise de grandes volumes de dados provenientes de diversas fontes, como a internet, o comércio eletrônico e as redes sociais.

Um marco significativo foi a popularização dos chatbots, que simularam interações humanas utilizando linguagem natural. Esses avanços tornaram a IA mais acessível e útil, ampliando sua aplicação em diferentes segmentos.

Para os profissionais de Governança, Risco e Compliance (GRC), a questão principal é entender como a IA já está impactando o setor e como ela continuará a influenciar no futuro próximo. Consultando diversas plataformas de IA, como o ChatGPT, verificamos que a automação de tarefas repetitivas e manuais, como a coleta e análise de dados, é uma das principais contribuições da IA. Isso permite a análise rápida e precisa de grandes volumes de informações, identificação de padrões suspeitos, alerta sobre possíveis fraudes e indicação de riscos ou violações de conformidade.

Com o avanço da IA e do machine learning, espera-se que essas tecnologias possam prever riscos antes que eles se concretizem, utilizando dados históricos e em tempo real para identificar sinais de alerta precoce. Além disso, ferramentas de IA poderão ajustar automaticamente políticas e procedimentos de compliance em resposta a mudanças regulatórias, otimizando tempo e esforço para manter a conformidade.

A IA também se mostra promissora ao fornecer recomendações para a tomada de decisões em áreas de GRC, ajudando conselheiros e gestores a tomarem decisões mais bem fundamentadas. Consultando o Gemini, IA do Google, notamos que, além das vantagens já mencionadas, a IA pode monitorar leis e regulamentos, mantendo as empresas atualizadas com as mudanças constantes.

Por outro lado, o Microsoft Copilot destaca alguns desafios na implementação da IA no GRC, como a necessidade de uma governança de dados robusta para garantir a qualidade, integridade, privacidade e segurança dos dados utilizados. A segurança cibernética também se torna crucial, exigindo a colaboração com especialistas para proteger os sistemas de IA contra ameaças. Além disso, é essencial garantir que as decisões tomadas por IA sejam transparentes, justas e alinhadas aos valores e objetivos empresariais.

Outro ponto importante é o acompanhamento tecnológico. Profissionais de GRC devem estar atualizados com o ritmo das mudanças tecnológicas para garantir o uso responsável e eficaz da IA.

Esses pontos destacam como a IA está transformando o GRC, oferecendo novas oportunidades e apresentando desafios que precisam ser gerenciados com cuidado.

Publicado em Deixe um comentário

ANPD LANÇA SEGUNDA EDIÇÃO DO “RADAR TECNOLÓGICO” FOCADA EM BIOMETRIA E RECONHECIMENTO FACIAL

Em 24 de junho de 2024, a Autoridade Nacional de Proteção de Dados (ANPD) divulgou o segundo volume do “Radar Tecnológico”, uma publicação dedicada ao tema “Biometria e Reconhecimento Facial”. Este estudo examina as aplicações e impactos dessa tecnologia, destacando os riscos e desafios para a proteção de dados pessoais sob a Lei Geral de Proteção de Dados Pessoais (LGPD).

Definindo o Reconhecimento Biométrico

O reconhecimento biométrico é descrito como uma análise técnica automatizada que identifica características fisiológicas (como impressões digitais e reconhecimento facial) ou comportamentais (como voz e expressão facial). O estudo também aborda o conceito de “template biométrico”, utilizado como base para verificação de identidade. Esses templates, armazenados em formato hash, são essenciais para o reconhecimento facial.

Aplicações e Propósitos do Reconhecimento Facial

O reconhecimento facial, uma das modalidades de reconhecimento biométrico, tem três principais objetivos:

  1. Detectar a presença de pessoas.
  2. Identificar um indivíduo de forma única.
  3. Classificar indivíduos com base em seus comportamentos.

Além disso, o estudo menciona o uso de reconhecimento facial na neurotecnologia, com técnicas de interface cérebro-computador (BCI), especialmente na área médica, que têm avançado significativamente nos últimos anos.

Inteligência Artificial e a Proteção de Dados

A ANPD destaca a importância da inteligência artificial (IA) na melhoria da precisão dos sistemas de reconhecimento biométrico, graças ao treinamento com grandes volumes de dados. No entanto, o uso de IA também traz desafios regulatórios. O Regulamento de Inteligência Artificial da União Europeia (EU AI Act) proíbe a utilização de sistemas biométricos de IA para inferir emoções no ambiente de trabalho ou em instituições de ensino e bane a categorização de indivíduos por raça.

No Brasil, o Projeto de Lei 2.338/2023 (Lei de Inteligência Artificial) classifica os sistemas de identificação biométrica para reconhecimento de emoções como de alto risco, mas não os proíbe.

Dados Biométricos e Riscos Legais

Dados biométricos são considerados sensíveis pela LGPD, o que aumenta os riscos associados ao seu tratamento. A ANPD aponta preocupações com vieses nos dados de treinamento, que podem levar à discriminação, e com a possibilidade de vazamentos de templates biométricos, que poderiam facilitar roubos de identidade e fraudes financeiras.

Vigilância e Segurança Pública

A publicação da ANPD foca nos usos do reconhecimento facial para segurança pública, incluindo controle de fronteiras, prevenção de fraudes e vigilância em massa. O EU AI Act proíbe o uso de IA para identificação biométrica em tempo real em espaços públicos, salvo em investigações criminais. No Brasil, a Lei de Inteligência Artificial também restringe o uso de sistemas de identificação biométrica à distância, com exceções para situações de busca por vítimas de crimes ou pessoas desaparecidas.

Controvérsias e Pedidos de Banimento

O uso de tecnologia de vigilância baseada em biometria facial é amplamente controverso. Organizações como a Anistia Internacional e a Human Rights Watch pedem o banimento dessas tecnologias. A Federal Trade Commission (FTC) dos EUA já proibiu uma rede de farmácias de usar reconhecimento facial por cinco anos, devido à discriminação resultante de falsos-positivos.

Embora a publicação da ANPD não forneça diretrizes específicas para empresas que utilizam reconhecimento facial, a expectativa é que futuros estudos da autoridade ofereçam orientações mais detalhadas. Este relatório inicial é um ponto de partida crucial para o aprofundamento do tema pela ANPD.

Publicado em Deixe um comentário

IA E PROTEÇÃO DE DADOS: DESAFIOS REGULATÓRIOS E O CASO DA META PLATFORMS

A IA está se tornando cada vez mais onipresente em nossas vidas, transformando uma ampla gama de processos comerciais e pessoais com um potencial quase ilimitado para inovação. Seja melhorando a eficiência operacional, personalizando a experiência do usuário, ou mesmo impulsionando avanços em áreas críticas como saúde e educação, a IA está na vanguarda da revolução tecnológica. No entanto, à medida que essa tecnologia se infiltra em mais aspectos de nossa existência diária, crescem também as preocupações com a proteção de dados pessoais.

O equilíbrio entre a inovação trazida pela IA e a privacidade dos indivíduos é uma questão cada vez mais premente. A capacidade da IA de processar e analisar grandes volumes de dados pessoais pode oferecer insights profundos e melhorias de serviço, mas também apresenta riscos significativos de privacidade e segurança. Neste contexto, a intervenção regulatória torna-se crucial. Um exemplo emblemático dessa tensão regulatória é a recente decisão da ANPD – Autoridade Nacional de Proteção de Dados do Brasil, que impôs medidas restritivas contra a Meta Platforms Inc., anteriormente conhecida como Facebook. A decisão visou suspender a implementação de novas políticas de privacidade relacionadas ao uso de dados pessoais para o treinamento de sistemas de IA generativa, destacando os desafios de assegurar que tais inovações não comprometam os direitos fundamentais dos usuários.

Este caso sublinha a necessidade imperativa de uma vigilância regulatória robusta e de uma abordagem ponderada que não apenas fomente a inovação tecnológica, mas também proteja rigorosamente a privacidade e os dados pessoais. A medida da ANPD reflete um passo significativo na direção de um quadro legal que busca harmonizar esses dois objetivos, servindo como um ponto de referência para o debate global sobre como melhor regular o impacto transformador da inteligência artificial em nossa sociedade.

A ascensão da IA

A IA, um campo que abrange desde algoritmos simples até complexos sistemas de aprendizado de máquina, vem sendo cada vez mais adotada em uma miríade de setores industriais. Sua aplicabilidade estende-se desde a realização de análises preditivas, que antecipam tendências de mercado e comportamento de consumidores, até a automação de processos, que substitui a intervenção humana em tarefas repetitivas e meticulosas, culminando na personalização de serviços, que ajusta experiências e ofertas às necessidades individuais dos usuários.

Benefícios da IA

Os benefícios proporcionados pela IA são multifacetados e substanciais. No setor de saúde, por exemplo, algoritmos de IA são utilizados para diagnosticar doenças com precisão e rapidez que superam frequentemente a capacidade humana. Na indústria financeira, a IA melhora a segurança através da detecção de fraudes e da gestão de risco, enquanto no varejo, sistemas de recomendação baseados em IA aprimoram a experiência do cliente ao sugerir produtos alinhados com suas preferências passadas e atuais. Essas inovações não apenas aumentam a eficiência e a eficácia operacional, mas também abrem novos caminhos para a personalização em massa e o engajamento do cliente.

Desafios éticos e de privacidade

Entretanto, o avanço da IA não está isento de desafios significativos, especialmente no que tange à ética e à privacidade. A capacidade desses sistemas de coletar, armazenar e processar enormes volumes de dados pessoais gera preocupações profundas com a segurança e a integridade dessas informações. O risco de vazamentos de dados, uso indevido de informações sensíveis e a falta de transparência sobre como os dados são utilizados e por que são questões que demandam urgente atenção regulatória e ética.

Ademais, a automação trazida pela IA pode conduzir a questões de desemprego tecnológico, enquanto o viés algorítmico – onde sistemas perpetuam ou até exacerbam discriminações preexistentes – suscita debates acalorados sobre a justiça e a imparcialidade das decisões tomadas por máquinas. Tais preocupações enfatizam a necessidade de desenvolver e implementar IA de maneira responsável, assegurando que tecnologias avançadas promovam benefícios sem erodir a ética ou comprometer os direitos fundamentais dos indivíduos.

Portanto, enquanto a ascensão da inteligência artificial sinaliza uma era de possibilidades quase ilimitadas, ela também impõe a necessidade imperativa de vigilância e regulamentação robustas para garantir que seu uso seja equitativo, seguro e respeitoso com a privacidade e a dignidade humana.

O caso da Meta Platforms e a decisão da ANPD

A recente intervenção da ANPD no Brasil no caso da Meta Platforms Inc. ilustra vividamente as complexas interseções entre inovação tecnológica e regulamentação de privacidade. A decisão da ANPD, que resultou na suspensão de partes específicas da nova política de privacidade da Meta relacionadas ao uso de dados para o treinamento de sistemas de inteligência artificial generativa, marca um momento decisivo na governança de dados pessoais frente às tecnologias emergentes.

Detalhamento da decisão

Conforme explicitado pelo despacho decisório 20/24/PR/ANPD, a medida preventiva foi adotada após um cuidadoso escrutínio das políticas propostas pela Meta. A decisão determinou a suspensão imediata da implementação da política que permitiria o uso extensivo de dados pessoais para o treinamento de IA. Isso incluía não apenas os dados de usuários ativos das plataformas da Meta, mas também de indivíduos não usuários, ampliando significativamente o escopo de coleta e análise de dados pessoais.

Base legal e justificativa

A ANPD baseou sua decisão em uma série de fundamentos legais solidamente estabelecidos, incluindo, mas não se limitando a:

Art. 45 da Lei nº 9.784/1999: Que regula o processo administrativo no âmbito da Administração Pública Federal.
Arts. 52 e 54 da LGPD: Que tratam das sanções administrativas aplicáveis em caso de tratamento de dados realizado em desacordo com a legislação.
Art. 26, IV, do decreto 10.474/20: Que especifica procedimentos e competências da ANPD.
Arts. 7°, IV e 55 do Regimento Interno da ANPD: Que detalham as atribuições e poderes conferidos ao Conselho Diretor da ANPD.
O uso destas bases legais reflete a abordagem adotada pela ANPD para garantir que qualquer forma de processamento de dados respeite os limites impostos pela legislação brasileira. O “risco iminente de dano grave e irreparável”, mencionado no despacho, sublinha a preocupação da ANPD com a potencial violação massiva dos direitos fundamentais dos titulares dos dados, considerando a natureza invasiva das práticas propostas pela Meta.

Implicações da Medida Preventiva

Esta decisão não apenas impõe a necessidade de uma revisão substancial das práticas de privacidade pela Meta, mas também serve como um alerta para outras corporações que operam em território brasileiro e globalmente, reiterando a seriedade com que as questões de privacidade estão sendo tratadas pela ANPD. A ação da ANPD é um lembrete potente de que a inovação tecnológica não pode avançar à custa de direitos pessoais, e que a proteção de dados pessoais é um pilar central na regulação de tecnologias disruptivas como a inteligência artificial.

Implicações e reflexões sobre a decisão

A decisão proferida pela ANPD contra a Meta Platforms Inc. traz à tona várias implicações significativas para a empresa e para o ecossistema tecnológico mais amplo, especialmente no que se refere ao desenvolvimento e aplicação da IA em conformidade com as normas de proteção de dados.

Consequências para a Meta Platforms e o setor tecnológico

Para a Meta Platforms, esta decisão implica a necessidade de reavaliar e modificar suas práticas de coleta e uso de dados, especialmente aquelas relacionadas ao treinamento de sistemas de IA generativa. O impacto é duplo: operacional e reputacional. Operacionalmente, a Meta deve adaptar suas operações para garantir que as políticas de privacidade estejam em total conformidade com as determinações da ANPD, o que pode requerer investimentos significativos em tecnologia e governança de dados. Reputacionalmente, a decisão enfatiza a posição da empresa sob escrutínio regulatório, o que pode afetar a confiança dos usuários e, por extensão, influenciar negativamente a participação de mercado e a percepção pública.

Outras empresas do setor de tecnologia, particularmente aquelas que operam no Brasil ou que coletam e processam dados de cidadãos brasileiros, também precisarão revisar suas operações. Esta decisão serve como um lembrete crítico da necessidade de aderência estrita às leis de proteção de dados, sublinhando que a ANPD está ativa e disposta a tomar medidas punitivas contra práticas consideradas prejudiciais aos direitos dos titulares de dados.

Influência em políticas de privacidade e práticas de desenvolvimento de IA

A nível global, a decisão da ANPD pode ter um efeito cascata, incentivando outras jurisdições a adotarem posturas semelhantes na regulamentação da IA e na proteção de dados. Isso pode levar a uma padronização mais rígida das práticas de privacidade e uso de dados em IA forçando as empresas a adotarem uma abordagem mais centrada no usuário e orientada pela ética para o desenvolvimento de tecnologias.

A longo prazo, a decisão pode estimular a inovação responsável dentro do campo da IA. Empresas poderiam ser incentivadas a desenvolver novas metodologias de treinamento de IA que requerem menos dados pessoais ou que utilizem técnicas de anonimização e pseudonimização. Além disso, a decisão reforça a importância da transparência e do consentimento do usuário, elementos que podem se tornar ainda mais centrais nas estratégias de desenvolvimento de produtos tecnológicos.

A discussão em torno da recente decisão da ANPD contra a Meta Platforms Inc. reflete uma problemática central no mundo contemporâneo: a necessidade de equilibrar a inovação tecnológica com a proteção de dados pessoais. Este caso destaca não apenas os desafios inerentes ao rápido avanço da IA, mas também a grande importância de regulamentações que salvaguardem os direitos fundamentais dos indivíduos.

Equilíbrio entre inovação e proteção de dados

As tecnologias de IA, ao transformar setores inteiros, oferecem imensas oportunidades para o crescimento econômico e o bem-estar social. Contudo, essas mesmas tecnologias podem também implicar riscos significativos para a privacidade e a segurança dos dados pessoais. A decisão da ANPD ilustra o papel crítico que as entidades reguladoras desempenham em manter esse equilíbrio, assegurando que a inovação não ocorra à custa de direitos individuais.

Perspectivas futuras sobre a regulação da IA

Olhando para o futuro, é provável que a regulação da IA se torne ainda mais rigorosa, tanto no Brasil quanto globalmente. A tendência é que as leis de proteção de dados se fortaleçam em resposta às novas demandas impostas pelo desenvolvimento tecnológico e pela crescente digitalização de nossas vidas. A decisão da ANPD pode servir como um precedente influente, incentivando a implementarem ou aprimorarem regulamentações que diretamente abordem os desafios específicos impostos pelo uso de IA, especialmente em contextos que envolvem grandes volumes de dados pessoais.

Além disso, espera-se que as empresas que desenvolvem e implementam soluções baseadas em IA aumentem seu foco em estratégias de conformidade e em práticas de desenvolvimento ético. Isso pode incluir a adoção de princípios de IA responsável, o fortalecimento de medidas de segurança de dados, e o investimento em tecnologias que promovam a transparência e permitam um controle mais efetivo dos usuários sobre seus dados.

Considerações finais

Em última análise, a interação entre inovação tecnológica e regulamentação de privacidade é dinâmica e requer uma vigilância contínua. A decisão da ANPD reforça a necessidade de um diálogo contínuo entre reguladores, empresas de tecnologia, acadêmicos e a sociedade civil para assegurar que os benefícios da inteligência artificial sejam realizados de forma que respeite e proteja a privacidade e a integridade dos dados pessoais. As decisões que tomamos hoje definirão o cenário regulatório e tecnológico do amanhã, influenciando não apenas a forma como interagimos com a tecnologia, mas também como ela molda nossa sociedade.

Publicado em Deixe um comentário

COMO A IA ESTÁ TRANSFORMANDO A DETECÇÃO DE DOENÇAS CRÔNICAS

Nos últimos anos, a inteligência artificial tem se integrado cada vez mais ao cotidiano, transformando a maneira como muitas empresas operam. Uma dessas inovações vem de uma startup que utiliza IA para analisar dados sanguíneos comuns com o objetivo de detectar doenças crônicas, como o câncer de mama.

Desde 2018, a startup tem colaborado com uma universidade renomada no Brasil, onde ajudaram a estabelecer o primeiro laboratório de inteligência artificial. A equipe identificou que os dados presentes em exames de sangue contêm informações valiosas que muitas vezes passam despercebidas. Isso ocorre porque os processos biológicos humanos são complexos e não lineares, com interações sutis entre diferentes marcadores sanguíneos que são difíceis de interpretar sem o auxílio da tecnologia. Com a IA, é possível identificar padrões ocultos que os métodos tradicionais não conseguem captar.

Essa abordagem inovadora tem se mostrado promissora em várias frentes. A tecnologia foi utilizada, por exemplo, para prever a possibilidade de desenvolvimento de Alzheimer com anos de antecedência e para identificar pacientes com COVID-19 durante a pandemia. Um caso pessoal motivou a aplicação da tecnologia no rastreamento do câncer de mama, uma doença cuja detecção precoce pode salvar vidas.

Atualmente, apenas uma pequena parcela das mulheres tem acesso à mamografia, um exame crucial para o diagnóstico precoce do câncer de mama. A proposta da startup é utilizar hemogramas, que são exames mais acessíveis e baratos, para identificar padrões que indiquem um risco elevado da doença. Isso pode ajudar a priorizar o atendimento e otimizar o uso de recursos como mamografias.

O método desenvolvido pela startup não pretende substituir os exames tradicionais, mas sim funcionar como uma ferramenta complementar para melhorar a triagem de pacientes. Além disso, há potencial para adaptar a tecnologia para detectar outras doenças, principalmente aquelas que representam uma carga significativa para o sistema de saúde.

A visão da equipe é tornar essa tecnologia amplamente disponível, inclusive no sistema público de saúde, devido ao seu baixo custo e à sua capacidade de reaproveitar exames já realizados para outros fins. A informação obtida pode ser crucial para a formulação de políticas públicas de saúde, ajudando a direcionar recursos para os grupos mais vulneráveis.

A ambição da startup é global, dado que o câncer é um problema mundial e a tecnologia pode beneficiar especialmente populações com acesso limitado a cuidados de saúde. A IA promete melhorar os desfechos dos pacientes, permitindo diagnósticos mais precoces e tratamentos mais eficazes e menos onerosos.

No momento, a tecnologia está em fase de testes, em parceria com hospitais e laboratórios renomados, buscando validar sua eficácia. O projeto também conta com apoio de programas de inovação e investimentos privados, sinalizando um futuro promissor para a aplicação da IA na saúde.

Publicado em Deixe um comentário

BIG TECHS FIRMAM ACORDO PARA SEGURANÇA DA INTELIGÊNCIA ARTIFICIAL

Acordo Global de Segurança para Inteligência Artificial

Recentemente, líderes das maiores empresas de tecnologia do mundo se reuniram na Cúpula de Segurança da IA em Seul para discutir um importante acordo internacional. A cúpula reuniu empresas de destaque como a Microsoft, Amazon e OpenAI, com o objetivo de formular diretrizes que garantam a segurança no desenvolvimento e uso da inteligência artificial.

Cooperação Global pela Segurança da IA

O pacto firmado durante a cúpula conta com o apoio de grandes potências globais, incluindo Estados Unidos, China, Canadá, Reino Unido, França, Coreia do Sul e Emirados Árabes Unidos. Este acordo busca estabelecer práticas seguras para o desenvolvimento das tecnologias de IA mais avançadas, criando um ambiente onde a inovação tecnológica não comprometa a segurança global.

Estrutura de Segurança e Linhas Vermelhas

Entre as principais medidas do acordo está a criação de frameworks de segurança para desenvolvedores de IA. Estes frameworks são essenciais para medir e enfrentar desafios, estabelecendo “linhas vermelhas” para riscos considerados intoleráveis, como ciberataques automatizados e a produção de armas biológicas. A ideia é que estas diretrizes fortaleçam a segurança contra as ameaças mais graves que podem surgir com o avanço da IA.

Mecanismo de Interrupção de Emergência

Uma das propostas mais discutidas durante a cúpula foi a criação de um “botão de pânico”. Este mecanismo permitirá a interrupção instantânea do desenvolvimento de modelos de IA caso os riscos associados não sejam mitigados de maneira eficaz. Esta medida visa garantir que, em situações de emergência, as empresas possam rapidamente cessar operações potencialmente perigosas.

Transparência e Prestação de Contas

Além das medidas de segurança, o acordo enfatiza a necessidade de transparência e prestação de contas por parte das empresas que desenvolvem IA. A transparência é vista como um pilar fundamental para a construção de confiança entre desenvolvedores, reguladores e o público em geral.

O acordo firmado na Cúpula de Segurança da IA marca a primeira vez que lideranças de diferentes partes do mundo concordam com princípios comuns de segurança para a inteligência artificial. Este marco histórico reflete um esforço conjunto para garantir que o desenvolvimento da IA siga diretrizes seguras e responsáveis, prevenindo possíveis abusos e promovendo um futuro mais seguro para todos.

Assim, a colaboração internacional e o compromisso das big techs em seguir práticas seguras no desenvolvimento da IA representam um passo significativo para a construção de um ambiente tecnológico mais seguro e confiável.

Publicado em Deixe um comentário

CIBERAMEAÇAS COM IA LEVAM EMPRESAS A AUMENTAR INVESTIMENTOS EM SEGURANÇA NA NUVEM

Com o aumento dos ataques cibernéticos baseados em inteligência artificial (IA), as empresas brasileiras estão priorizando a segurança na nuvem. De acordo com o Relatório de Segurança na Nuvem de 2024 da Fortinet, 61% das empresas planejam aumentar seus investimentos em segurança na nuvem nos próximos 12 meses.

Conduzido pela Cybersecurity Insiders, o estudo destaca que a crescente adoção de ambientes híbridos e multicloud, combinada com o aumento das ameaças cibernéticas baseadas em IA, está impulsionando a busca por medidas de proteção mais robustas.

Riscos e Necessidade de Investimento

As empresas estão cada vez mais conscientes dos riscos associados à nuvem e da necessidade de implementar medidas de segurança mais eficazes. Entre os principais fatores que motivam o aumento dos investimentos estão:

  1. Proteção de Dados Confidenciais: Com o armazenamento crescente de dados confidenciais na nuvem, as empresas se tornam alvos atrativos para cibercriminosos. Investir em segurança na nuvem é essencial para proteger esses dados contra acessos não autorizados, vazamentos e outras violações.
  2. Conformidade com Regulamentações: As regulamentações sobre segurança de dados estão cada vez mais rigorosas, exigindo que as empresas adotem medidas adequadas para proteger os dados de seus clientes. O investimento em segurança na nuvem é crucial para atender a esses requisitos e evitar penalidades.
  3. Combate a Ameaças Baseadas em IA: Com a sofisticação crescente das ameaças cibernéticas, impulsionadas pelo uso de IA por cibercriminosos, as empresas precisam investir em segurança na nuvem para se proteger contra essas novas ameaças.

Prioridade Global e Desafios

A segurança na nuvem é uma prioridade para empresas e instituições globais. Em 2024, 96% das organizações relataram preocupação moderada ou extrema com a segurança na nuvem. Esta preocupação crescente reflete a necessidade de proteger informações confidenciais e cumprir padrões regulamentares em um cenário cada vez mais digital.

A adoção da nuvem é vista como uma estratégia para otimizar custos e liberar recursos. No terceiro trimestre de 2023, contratos anuais de nuvem geraram US$ 10,3 bilhões globalmente, principalmente entre grandes e médias empresas. Um aumento de 37% nos investimentos em segurança está planejado para enfrentar os desafios técnicos e de recursos na implementação de ambientes multinuvem.

No entanto, a implementação consistente de segurança em ambientes multinuvem enfrenta desafios significativos. Questões de segurança e conformidade são as principais preocupações para 56% das organizações, atuando como barreiras para uma adoção mais rápida das estratégias multicloud. Além disso, desafios técnicos e restrições de recursos também são obstáculos relevantes. A falta de pessoal com experiência na nuvem é uma preocupação crítica para 93% dos entrevistados.

Soluções de Plataforma Unificada

Para superar esses desafios, 95% das organizações acreditam que uma plataforma unificada de segurança na nuvem, com um único painel de controle, seria benéfica. A simplificação e automação das operações de segurança são vistas como essenciais para melhorar a proteção e a eficiência em ambientes híbridos e multicloud.

O Relatório de Segurança na Nuvem de 2024, baseado em uma pesquisa com 927 profissionais de todo o mundo, oferece uma visão detalhada das tendências atuais em segurança na nuvem e destaca a necessidade urgente de investir em soluções de segurança robustas e abrangentes.

Publicado em Deixe um comentário

ANPD IMPÕE SUSPENSÃO E MULTA À NOVA POLÍTICA DE PRIVACIDADE DA META

A Autoridade Nacional de Proteção de Dados (ANPD) anunciou hoje (2) a suspensão imediata da nova política de privacidade da Meta no Brasil. A decisão veio acompanhada de uma multa diária de R$ 50 mil em caso de não conformidade.

A política de privacidade em questão, vigente desde 26 de junho, permite à Meta utilizar dados publicados em suas plataformas – Facebook, Messenger e Instagram – para o treinamento de sistemas de inteligência artificial (IA). Com cerca de 102 milhões de usuários ativos somente no Facebook no Brasil, essa atualização representa um impacto significativo.

O processo de fiscalização foi iniciado pela ANPD de ofício, ou seja, sem a necessidade de denúncia externa. Após uma análise preliminar, a Autoridade identificou riscos de danos graves e irreparáveis aos usuários, levando à decisão de suspender a política de privacidade e a operação de tratamento de dados.

Fundamentação da Decisão

Segundo o Voto nº 11/2024/DIR-MW/CD, aprovado pelo Conselho Diretor da ANPD, foram encontrados indícios de diversas violações à Lei Geral de Proteção de Dados (LGPD):

  1. Uso de Hipótese Legal Inadequada: A Meta utilizou o legítimo interesse como base legal para o tratamento de dados, o que é inadequado para dados sensíveis.
  2. Falta de Clareza: A empresa não forneceu informações claras e acessíveis sobre a política de privacidade e o tratamento de dados.
  3. Limitações aos Direitos dos Titulares: Havia obstáculos excessivos para que os usuários pudessem exercer seus direitos de acesso e oposição ao tratamento de dados.
  4. Dados de Crianças e Adolescentes: O tratamento de dados de menores não observava as salvaguardas necessárias conforme exigido pela LGPD.

Análise da Expectativa dos Usuários

A ANPD avaliou que os usuários das plataformas da Meta geralmente compartilham informações para interações sociais e comerciais, não esperando que esses dados fossem utilizados para treinar sistemas de IA. A coleta e o uso de dados pessoais de crianças e adolescentes, sem as devidas proteções, também foram motivos de preocupação.

Importância da Medida Preventiva

A Medida Preventiva é um recurso utilizado pela ANPD para proteger os direitos dos titulares de dados pessoais e evitar danos graves. Ela pode ser aplicada urgentemente, mesmo sem manifestação prévia do interessado, e é acompanhada de multa diária em caso de descumprimento.

As condutas da Meta serão avaliadas detalhadamente no processo fiscalizatório em andamento, conduzido pela área técnica da ANPD. Essa análise mais aprofundada determinará as ações futuras e possíveis sanções adicionais.

A decisão da ANPD ressalta a importância da transparência e da conformidade com a LGPD na proteção dos dados pessoais dos brasileiros, especialmente em face do crescente uso de IA.

Publicado em Deixe um comentário

RELATÓRIO DA UNIÃO EUROPEIA QUESTIONA A PRECISÃO DOS DADOS DO CHATGPT

A equipe de defesa da privacidade da União Europeia (UE) avaliou que os esforços da OpenAI para reduzir o número de informações falsas geradas pelo ChatGPT ainda não são suficientes para cumprir as rigorosas políticas de dados da UE.

Conforme detalhado em um relatório publicado no site da equipe, as medidas adotadas para aumentar a transparência, apesar de úteis para evitar interpretações errôneas dos resultados do ChatGPT, ainda não atendem plenamente ao critério de precisão de dados exigido pela legislação europeia.

No ano passado, conforme noticiado pela Reuters, autoridades europeias de proteção de dados formaram uma equipe especializada para abordar questões específicas relacionadas ao ChatGPT. Essa ação foi motivada por preocupações levantadas por reguladores nacionais sobre o uso crescente deste serviço de inteligência artificial.

O relatório aponta que algumas investigações conduzidas por organizações nacionais de proteção de dados em vários Estados-Membros ainda estão em andamento. Portanto, os resultados apresentados devem ser entendidos como observações preliminares comuns a essas autoridades. A exatidão dos dados é uma das principais diretrizes da regulamentação de proteção de dados da UE.

“Devido à natureza probabilística do sistema, a metodologia atual de treinamento pode gerar informações tendenciosas ou fictícias,” destaca o relatório. “Além disso, os usuários finais podem interpretar os resultados gerados pelo ChatGPT como fatos precisos, especialmente quando se referem a dados sobre indivíduos, sem verificar a veracidade dessas informações.”

Esse levantamento sublinha a importância de medidas adicionais para garantir que as saídas do ChatGPT não apenas evitem erros interpretativos, mas também cumpram os elevados padrões de precisão de dados exigidos pela UE.

Publicado em Deixe um comentário

O CRESCIMENTO DOS ATAQUES CIBERNÉTICOS NO BRASIL E A INFLUÊNCIA DA INTELIGÊNCIA ARTIFICIAL

Entre 2022 e 2023, o Brasil registrou uma redução significativa no número total de ataques cibernéticos, caindo de 103 bilhões para 60 bilhões de tentativas. No entanto, esse declínio esconde uma mudança importante no perfil dos ataques, com a inteligência artificial (IA) desempenhando um papel cada vez mais central. Atualmente, mais da metade dos ataques recentes contra empresas brasileiras envolve algum uso de IA generativa.

Essas informações são oriundas do estudo “The State of Cybersecurity in LATAM 2024”, realizado pela FortiGuard Labs da Fortinet. Segundo o relatório, 54% das empresas brasileiras relataram um aumento nas tentativas de violações de segurança em 2023, em comparação com anos anteriores. Esse cenário tem exacerbado o estresse das equipes de TI, dado o aumento na sofisticação e na precisão das ameaças.

É imperativo que as empresas brasileiras compreendam a evolução do cenário de ameaças cibernéticas e invistam em soluções integradas de segurança, como o blockchain, para se protegerem contra ataques cada vez mais sofisticados. As organizações precisam estar preparadas para enfrentar ameaças que se tornam gradualmente mais complexas com o avanço da tecnologia.

Especialistas apontam que a manutenção constante de processos é essencial. À medida que as organizações implementam algoritmos de IA, novos pontos de vulnerabilidade surgem, sendo explorados por cibercriminosos. A necessidade urgente de proteção é clara: as empresas devem adotar uma postura proativa na defesa de seus dados e sistemas.

O uso crescente de IA por cibercriminosos sublinha a importância de uma abordagem ética e responsável no desenvolvimento e implementação dessas tecnologias. Para enfrentar os ciberataques, é vital investir em soluções de segurança avançadas e em constante atualização, além de promover uma cultura organizacional de conscientização e treinamento em cibersegurança para todos os colaboradores.

A complexidade das ameaças, especialmente com o uso crescente da inteligência artificial, exige que as empresas adotem práticas de segurança de dados robustas, como criptografia e verificação da integridade dos dados, para evitar adulterações ou corrupções que possam comprometer os resultados da IA.

Embora a inteligência artificial ofereça inúmeras oportunidades, é fundamental reconhecer e mitigar os desafios emergentes em termos de segurança cibernética. É essencial que líderes empresariais priorizem investimentos em cibersegurança e adotem medidas proativas para se protegerem contra ameaças cada vez mais sofisticadas.

Publicado em Deixe um comentário

APPLE OFERECE CURSO GRATUITO DE IA NO BRASIL E EM OUTROS SEIS PAÍSES

A Revolução da Inteligência Artificial na Medicina Moderna

Desde o advento da Inteligência Artificial (IA), tem-se discutido amplamente quais profissões seriam mais impactadas por essa tecnologia. A medicina é uma área particularmente afetada, como demonstra um inovador projeto de hospital com IA na China. Aqui, exploramos como a IA está sendo aplicada na medicina moderna e os impactos dessa revolução tecnológica.

A Inovação do Hospital Agente

O “Hospital Agente”, um projeto desenvolvido pela Universidade de Tsinghua na China, exemplifica a integração da IA na saúde. Segundo a revista Robotic and Automation, médicos “robôs” foram programados para aprender e evoluir com cada atendimento, alcançando uma precisão de mais de 90% em plataformas que medem a exatidão médica.

Neste ambiente, mais de 3 mil pacientes podem ser atendidos diariamente, um número que médicos humanos levariam cerca de dois anos para alcançar. Além dos médicos robóticos, o projeto também inclui enfermeiras virtuais que fornecem cuidados diários aos pacientes simulados, cobrindo todo o processo desde o diagnóstico até o tratamento.

Benefícios para a Saúde Pública

A capacidade da IA de acelerar processos médicos traz significativos benefícios para a saúde pública. A automação e a precisão dos sistemas de IA podem diminuir o tempo de espera por diagnósticos e tratamentos, melhorando a eficiência e a qualidade dos cuidados de saúde.

IA: Uma Ameaça ou Um Aliado?

Uma preocupação comum é se a IA substituirá médicos e outros profissionais de saúde. O objetivo é complementar o trabalho humano, não substituí-lo. A IA pode permitir que médicos e estudantes de medicina testem novos tratamentos em pacientes virtuais, sem riscos para humanos.

Apesar das vantagens da IA, o cuidado humano continua insubstituível. A interação e a atenção de humano para humano são aspectos que a tecnologia ainda não pode replicar plenamente.

A integração da IA na medicina representa uma evolução significativa, trazendo eficiência e precisão sem precedentes. Contudo, é essencial que essa tecnologia seja vista como uma ferramenta de apoio, potencializando o trabalho dos profissionais de saúde e mantendo a importância do toque humano nos cuidados médicos.