Publicado em

O FUTEBOL E OS BASTIDORES JURÍDICOS DO STREAMING: O QUE A FINAL DO MUNDIAL TRANSMITIDA POR INFLUENCIADORES NOS ENSINA SOBRE DIREITO DIGITAL

Durante a final do Mundial, a transmissão realizada por Casimiro, via CazéTV, atraiu milhões de espectadores e pode ter gerado, em poucas horas, uma receita superior a R$ 3,7 milhões. Mais do que um evento esportivo, o episódio ilustra com clareza a transformação radical que a chamada creator economy tem promovido no ecossistema da comunicação digital. O que antes era controlado exclusivamente por grandes emissoras, agora passa pelas mãos de influenciadores que operam com contratos complexos, audiências massivas e relevância comercial expressiva.

Esse novo cenário não é apenas tecnológico ou midiático — ele é também jurídico. Onde há audiência, monetização e dados pessoais circulando, há responsabilidades legais que envolvem diretamente o direito digital e a proteção de dados.

Do ponto de vista jurídico, algumas questões se destacam.

Contratos de transmissão e licenciamento de imagem
Influenciadores como Casimiro não transmitem jogos livremente. Há contratos com federações ou detentores de direitos, como a FIFA, que impõem regras rígidas sobre o uso das imagens, limitações de exibição, cláusulas de monetização e penalidades por descumprimento contratual. O entretenimento transmitido ao vivo é, na prática, a execução de um contrato cuidadosamente negociado.

Tratamento de dados pessoais
Quando um espectador comenta, curte ou realiza uma doação no chat, está fornecendo dados à plataforma e, potencialmente, a terceiros parceiros. Isso desencadeia obrigações previstas na Lei Geral de Proteção de Dados Pessoais (LGPD), que impõe deveres de transparência, finalidade e segurança quanto ao uso dessas informações.

Publicidade e responsabilidade sobre anúncios
A monetização no ambiente digital ocorre por meio de múltiplas frentes — publicidade automática da plataforma, contratos com patrocinadores, promoções e parcerias comerciais. Cada forma de veiculação deve seguir normas claras, tanto da própria plataforma quanto do Conselho Nacional de Autorregulamentação Publicitária (CONAR), sob pena de sanções.

Discurso e moderação de conteúdo
Ainda que os influenciadores não sejam os autores diretos das manifestações de seus espectadores, o canal pode ser responsabilizado por conteúdos ilícitos, discursos de ódio ou práticas abusivas veiculadas no ambiente do chat. A moderação não é apenas uma questão ética, mas também de compliance.

A transmissão da final, portanto, representa mais do que uma mudança de tela — é o reflexo de uma nova realidade jurídica que acompanha o entretenimento digital. Advogados atentos a essas transformações percebem que o campo do direito digital se tornou indispensável para a atuação estratégica em um ambiente onde comunicação, tecnologia e responsabilidade caminham lado a lado.

Dr. Lécio Machado,
Advogado Criminalista e Especialista em Direito Digital

LGPD na prática | Comunicação jurídica estratégica

Publicado em

CLONAGEM DE VOZ POR IA: PROTEGENDO A INTEGRIDADE ELEITORAL E A INFORMAÇÃO PÚBLICA

Com o avanço acelerado da inteligência artificial na geração de áudios, a clonagem de voz tornou-se uma prática comum na indústria do entretenimento, sendo utilizada para dublagens e criação de canções com a voz de atores e artistas já falecidos. Contudo, esse avanço também levanta preocupações, pois o uso indevido da IA para criação de deepfakes de voz pode resultar em ações de desinformação alarmantes. É possível enganar eleitores, criar conflitos políticos e ampliar o espaço para teorias da conspiração.

Recentemente, vimos casos em alguns países onde deepfakes foram utilizados para clonar a voz de líderes políticos. Na Eslováquia, por exemplo, dias antes de uma eleição nacional, um clipe de áudio falsificado de Michal Šimečka, líder do Partido Progressista, circulou descrevendo um esquema de fraude nas eleições por meio do suborno de membros da população cigana. Similarmente, no Reino Unido, um vídeo falso do líder do Partido Trabalhista, Keir Starmer, foi compartilhado, no qual ele proferia ofensas contra seus próprios funcionários.

Esses clipes foram prontamente desmentidos por verificadores de fatos, que os identificaram como prováveis falsificações geradas por softwares de IA. No entanto, é preocupante observar que muitas publicações nas redes sociais continuam a afirmar a veracidade desses clipes, enganando ainda mais os usuários. O Facebook, por exemplo, colocou um selo de advertência em uma das publicações, mas não a removeu, enquanto o vídeo de Starmer não recebeu qualquer tipo de advertência.

Com várias eleições programadas para ocorrer na Europa nos próximos meses, incluindo em países como Polônia, Holanda e Lituânia, Thierry Breton, comissário da União Europeia, enviou uma carta a Mark Zuckerberg, CEO da Meta, pressionando para que medidas sejam adotadas para conter a proliferação de deepfakes nas redes sociais.

Nos Estados Unidos, a preocupação com deepfakes também é evidente, especialmente visando as eleições de 2024. Um vídeo falso do ex-presidente Barack Obama surgiu no TikTok, no qual ele endossava uma teoria da conspiração sobre a morte repentina de seu ex-chefe de cozinha, conforme reportado pelo The New York Times. Esse vídeo foi compartilhado por uma das 17 contas do TikTok que promovem informações falsas por meio de áudios, de acordo com um relatório da NewsGuard, empresa especializada em monitorar desinformação online.

Os deepfakes de voz apresentam uma peculiaridade preocupante: são mais difíceis de serem identificados como falsos, se comparados a imagens ou vídeos gerados por IA. Isso os torna eficazes para enganar os usuários e disseminar desinformação. Diante dessa ameaça, a Comissão Eleitoral Federal (FEC) dos Estados Unidos iniciou uma consulta pública para regular conteúdos gerados artificialmente, especialmente no contexto de anúncios políticos, visando garantir a integridade e transparência nas eleições presidenciais de 2024.