O termo “deepfake” nasceu em 2017 dentro de comunidades de pornografia no
Reddit, rotulando vídeos em que rostos eram trocados por meio de redes neurais
para simular cenas explícitas com pessoas famosas. O rótulo carregou esse
contexto de exploração sexual e, por isso, é desaconselhável como categoria
jurídica ampla: além da carga semântica problemática, ele passou a ser usado,
de forma atécnica, como guarda-chuva para qualquer mídia sintética, confundindo
manipulações sobre material pré-existente com criações inéditas de IA
generativa. Essa imprecisão gera insegurança na aplicação de regras eleitorais
e embaralha o que deve ser proibido de maneira absoluta e o que pode ser
permitido com transparência.
Mesma tecnologia, regras diversas.
Do lado da IA generativa, as ferramentas atuais (texto-para-imagem,
texto-para-vídeo e clonagem de voz) conseguem produzir conteúdos totalmente
novos sem depender de um vídeo base. Tecnicamente, diferem dos “deepfakes”
clássicos de face swap treinados sobre acervos da pessoa-alvo. Porém, como o
vocabulário regulatório deu nomes diversos a conteúdos que podem ser gerados a partir da mesma tecnologia, bem como misturou “fabricado” e “manipulado” para designar tanto
desinformação quanto usos lícitos com transparência, o direito ficou com
categorias embaralhadas: o mesmo termo ora descreve fraude, ora descreve
criação legítima assistida por IA, mas no fundo, atualmente tudo isso pode ser
feito a partir da mesma tecnologia, o que exige atualização da legislação e das
resoluções eleitorais.
Questões pontuais que devem ser melhoradas.
O art. 9-B permite o uso de IA para criar, substituir, mesclar, omitir ou
sobrepor imagens e sons na propaganda, exigindo aviso “explícito, destacado e
acessível” de que houve uso de tecnologia. Os principais problemas aqui são:
(i) terminologia confusa — ao exigir que se informe que o conteúdo foi
“fabricado ou manipulado”, a redação associa usos legítimos às mesmas palavras
consagradas internacionalmente para desinformação; (ii) delimitação técnica
imprecisa — o dispositivo se aplica apenas quando há IA generativa,
deixando fora intervenções tradicionais (edição 3D, pós-produção sem IA) que
podem produzir efeitos persuasivos semelhantes; (iii) ônus probatório
prático — disputas processuais tenderão a girar sobre “houve IA ou não?”,
deslocando o foco do impacto e da veracidade para a ferramenta; (iv) incidência
temporal nebulosa — como a Resolução estende deveres de transparência
também à pré-campanha (art. 3º-C), falta um marco objetivo para definir quando
começam as obrigações, o que amplifica o risco de decisões casuísticas.
Mesmos verbos, mesma tecnologia, consequências e usos distintos.
O art. 9-C, por sua vez, veda conteúdos “fabricados ou manipulados” com
potencial de dano ao equilíbrio do pleito ou à integridade do processo e, no
§1º, proíbe de modo absoluto o uso de “deepfakes” para criar, substituir
ou alterar imagem/voz — inclusive com autorização e até quando a pessoa for
fictícia. Os principais pontos críticos são: (i) critério de gravidade
subjetivo — “potencial para causar danos” carece de indicadores objetivos
(alcance, métricas de difusão, contexto) e convida a decisões divergentes; (ii)
redundância conceitual — a redação mistura “conteúdo sintético”, “gerado
ou manipulado digitalmente” e “deepfake”, sem critérios técnicos para separar
manipulação desinformativa de criação transparente; (iii) choque com o art.
9-B — os mesmos verbos (criar, substituir, alterar) aparecem como
permitidos com transparência (9-B) e proibidos (9-C §1º) quando classificados
como “deepfake”, mas a norma não oferece um teste operacional para
distingui-los; (iv) abrangência excessiva — a proibição vale “ainda que
mediante autorização”, o que alcança avatares, dublagens e clones de candidatos
usados para reduzir custos e ampliar acessibilidade, mesmo sem intuito
enganoso.
Regulação confusa - Duplipensar
O resultado prático dessa dupla engrenagem é um trilema regulatório:
a) 9-B autoriza IA com transparência; b) 9-C caput proíbe desinformação
“fabricada ou manipulada” pela gravidade do efeito; c) 9-C §1º proíbe, per se,
“deepfake”. Sem um critério técnico verificável — por exemplo, “partiu de
material pré-existente identificável para simular identidade alheia” (deepfake
clássico) versus “sintetizou conteúdo inédito sem copiar identidade específica”
(IA generativa) —, a aplicação oscila e desencoraja usos lícitos que poderiam
democratizar a comunicação política, ao mesmo tempo em que nem sempre atinge
com precisão as falsificações nocivas.
De um lado pode-se tudo, desde que haja transparência e esteja ausente
qualquer desinformação. De outro, tudo é proibido, ainda que para o bem, ainda
que com autorização dos envolvidos. Contudo, trata-se da mesma tecnologia, conforme
dito ad nauseam, o que abre espaço para que em qualquer caso, a depender
dos interesses de cada lado, seja feito um self-service de dispositivos na defesa
de sua tese.
Possibilidade de solução.
Uma saída interpretativa minimamente segura é:
(1) classificar como deepfake proibida (9-C §1º) a manipulação que
reutiliza material pré-existente identificável para simular
identidade/voz de pessoa real para o bem ou para o mal, ainda que sob outra denominação.
Isso porque, o próprio autor que aparece em um vídeo produzido anteriormente não
precisa se valer de qualquer tecnologia para alterar características de
conteúdo anterior, bastando gravar novo vídeo. Terceiros não devem, para o
bem ou para o mal, ter o direito de alterar vídeo existente do qual não
fazem parte, modificando a realidade dos fatos, em nenhuma hipótese.
(2) tratar como IA generativa permitida com transparência (9-B) a
criação inédita que não se ancora em material pessoal prévio nem simula
identidade específica; O sujeito detentor dos direitos sobre sua própria
imagem, pode usar IA generativa para produzir os mais variados materiais de
campanha, desde que respeitem a regra sobre “não desinformar com intuito de
obter benefícios eleitorais”.
(3) enquadrar como desinformação vedada (9-C caput) qualquer uso —
com ou sem IA — que produza fato falso ou gravemente descontextualizado com
relevância eleitoral mensurável. Isso aproximaria a norma de critérios
objetivos (fonte de dados, processo de criação, finalidade e impacto), reduziria
litígios sobre a “ferramenta” e recolocaria o foco em veracidade, contexto e
gravidade.
Conclusão
Em síntese, é indispensável atualizar a redação dos dispositivos para
refletir a evolução tecnológica: a IA generativa passou a realizar, sem vídeo
base, o que antes era típico das deepfakes, tornando insuficiente a dicotomia
atual. Ajustes terminológicos (substituir “fabricado/manipulado” por
“criado/editado com IA” quando lícito), critérios técnicos de distinção e
indicadores objetivos de dano podem preservar a integridade do pleito sem
sufocar inovações legítimas, garantindo previsibilidade para candidatos,
partidos, plataformas e Judiciário.
Artigo que faz parte do Livro: Direito Digital e Inteligência Artificial nas campanhas eleitorais contemporâneas.
Autor: Alexandre Basílio.
Nenhum comentário:
Postar um comentário