Publicado em

EMPREGADOR DIGITAL: QUAIS DADOS DE COLABORADORES VOCÊ PODE GUARDAR?

Com o avanço das rotinas digitais dentro das empresas, muitas dúvidas surgem sobre até onde o empregador pode ir na coleta e guarda de informações dos seus colaboradores. A Lei Geral de Proteção de Dados (LGPD) e a Consolidação das Leis do Trabalho (CLT) oferecem diretrizes claras, e segui-las é mais do que uma obrigação legal — é uma forma de respeito ao profissional.

A primeira orientação é simples: guarde apenas o que for necessário para cumprir a relação de trabalho. Isso inclui dados como nome completo, CPF, número do PIS, endereço, informações bancárias para o pagamento de salário, exames admissionais e periódicos, além de documentos relativos a férias, jornada, folha de ponto e benefícios. Esses dados são exigidos por lei ou indispensáveis para a execução do contrato.

Por outro lado, dados que não têm relação direta com a função exercida — como religião, opinião política ou até preferências pessoais — não devem ser coletados nem armazenados. Se, por alguma razão legítima, a empresa precisar tratar um dado sensível (como laudo médico em caso de afastamento), o acesso deve ser limitado e a guarda, segura e controlada.

Outro ponto importante é definir prazos de retenção. Após o término do contrato, muitos dados ainda precisam ser mantidos por algum tempo, seja por exigência legal (como em processos trabalhistas ou auditorias fiscais), seja para atender obrigações previdenciárias. A regra é: mantenha apenas pelo tempo necessário, depois disso, elimine de forma segura.

Para evitar erros comuns, algumas medidas práticas ajudam:

  1. Tenha um cadastro padronizado, com campos definidos e justificados.
  2. Evite planilhas soltas ou registros informais. Use sistemas seguros.
  3. Crie uma política interna de retenção e descarte, com prazos claros.
  4. Restrinja o acesso aos dados, liberando apenas a quem realmente precisa.
  5. Revise periodicamente os arquivos, especialmente após desligamentos.

A boa gestão dos dados do colaborador não é só uma exigência da LGPD — é uma prática de boa-fé, que fortalece a confiança dentro da empresa e reduz riscos jurídicos. Um empregador atento aos seus deveres é também aquele que protege a privacidade e respeita os limites da relação profissional.

Publicado em

SUA EMPRESA USA CHATGPT? QUEM RESPONDE PELOS ERROS DA INTELIGÊNCIA ARTIFICIAL?

A inteligência artificial deixou de ser assunto de laboratório e já faz parte do dia a dia de muitas empresas. Ferramentas como o ChatGPT estão sendo usadas para agilizar processos, responder clientes, auxiliar na redação de documentos e até para tomar decisões internas. Mas o que nem todos percebem é que, junto com os benefícios, vêm também riscos — inclusive jurídicos.

Quando uma empresa adota o uso da IA em suas rotinas, ela continua responsável pelo que é feito com os dados e pelas consequências dos atos praticados com o apoio dessa tecnologia. Se um funcionário usa o ChatGPT para gerar um contrato, por exemplo, e esse documento traz erros que prejudicam a outra parte, a empresa pode ser responsabilizada. A IA não serve de escudo.

Outro ponto delicado envolve o uso de informações sigilosas. Inserir dados sensíveis de clientes, contratos, processos internos ou qualquer outro conteúdo estratégico em um sistema de IA pode comprometer a segurança da informação. Ainda que o sistema diga que não armazena, isso não isenta a empresa do dever de proteger esses dados.

A Lei Geral de Proteção de Dados (LGPD) também entra em cena. O uso de IA precisa respeitar os princípios da finalidade, necessidade e segurança, entre outros. Se a IA está sendo utilizada para tratar dados pessoais, a empresa deve ser transparente com o titular, manter registros e garantir que não haja vazamentos ou acessos indevidos.

Além disso, se o conteúdo gerado pela IA for ofensivo, discriminatório ou causar prejuízo a terceiros, isso pode resultar em responsabilidade civil e até penal, dependendo do caso. Não importa se foi “a máquina que escreveu”. Quem utiliza a tecnologia deve estar preparado para responder pelos efeitos dela.

Em empresas sérias, a tecnologia deve ser uma aliada — mas sempre dentro de limites bem definidos. Isso passa por criar políticas internas de uso, treinar colaboradores, supervisionar o que é feito com essas ferramentas e, principalmente, contar com apoio jurídico na hora de definir o que pode e o que não pode ser feito com inteligência artificial.

Porque, no fim das contas, o que está em jogo é a reputação, o bolso e, muitas vezes, a confiança do cliente. E isso, como sabemos, não se reconstrói com facilidade.