Os chamados deepfakes – vídeos, áudios ou imagens manipuladas com o uso de inteligência artificial para simular rostos, falas ou movimentos de pessoas reais – têm se tornado cada vez mais comuns. Apesar de serem, em alguns casos, utilizadas em contextos legítimos, essa tecnologia vem sendo apropriada, com frequência, para fins de violência, extorsão e exposição pública, especialmente contra mulheres, meninas e adolescentes.
No centro da produção de deepfakes estão algoritmos de aprendizado profundo – em particular as Redes Generativas Adversariais (GAN). Funcionam a partir de uma rede neural chamada de “geradora” que tenta criar conteúdo falso, enquanto outra rede neural conhecida como “discriminadora” busca determinar se o material é genuíno ou não.
Informações direto ao ponto sobre o que realmente importa: assine gratuitamente a JOTA Principal, a nova newsletter do JOTA
Desse confronto contínuo, que tem os dados pessoais da vítima como base, um ciclo de aprimoramento emerge: a rede geradora incorpora as correções indicadas pela discriminadora para gradualmente melhorar na produção de falsificações, enganando o “olho nu”. A chave para o alcance e a popularização dessa tecnologia, portanto, está no seu incrível realismo.
As habilidades de manipulação são abrangentes e perturbadoras e variam desde a simples “troca de rosto” até técnicas mais avançadas como sincronização labial em vídeos e fotos. Assim, se torna viável criar vídeos nos quais os lábios de alguém se movem em perfeita sincronia com um novo áudio inserido.
Um estudo realizado pela Universidade de Stanford em colaboração com o Adobe Research ilustrou como frases podem ser modificadas em vídeos de forma surpreendentemente simples – transformando uma declaração como “Eu adoro o cheiro de napalm pela manhã” em “Eu aprecio o aroma das torradas francesas ao amanhecer”, sem comprometer a credibilidade do orador originalmente associado à fala, o que acontece nas mesmas proporções com outros tipos de mídia.
Mas a gravidade da situação torna-se ainda mais evidente quando se observam casos concretos de violência digital contra mulheres. A deputada federal Tabata Amaral (PSB-SP), por exemplo, foi alvo de montagens com imagens falsas em poses sensuais durante sua campanha à Prefeitura de São Paulo em 2024, em evidente tentativa de descredibilizá-la enquanto figura pública.
No México, a senadora Andrea Chávez foi vítima de imagem sexualmente explícita gerada por IA, o que motivou protestos e denúncias no parlamento. Na Coreia do Sul, mais de 290 casos de crimes sexuais envolvendo deepfakes foram registrados apenas nos oito primeiros meses de 2024: a maioria envolvendo meninas adolescentes.
O que se repete no Brasil. Há inúmeros relatos de crianças e adolescentes – na maior parte dos casos meninas – que tiveram seus rostos inseridos digitalmente em vídeos pornográficos. Situações como essa, além de traumáticas, têm consequências graves para a saúde mental, escolarização e convívio social das vítimas, além de configurarem formas de violência de gênero e abuso digital.
Os conteúdos manipulados por IA, frequentemente de cunho sexual ou difamatório, visam, de fato, humilhar, controlar ou silenciar mulheres. Tais práticas enquadram-se no disposto no art. 147-B do Código Penal, que tipifica como violência psicológica contra a mulher o ato de causar dano emocional por meio de manipulação, humilhação, constrangimento ou qualquer conduta que prejudique sua saúde psicológica e autodeterminação.
Em nosso país, embora uma resposta legislativa que levasse em consideração a gravidade desta nova realidade tenha demorado a se consolidar, houve um importante avanço: a sanção da Lei 15.123/2025, que alterou o referido artigo para aumentar pela metade a pena para o crime previsto quando cometido com o uso de IA ou qualquer outro recurso tecnológico que altere a imagem ou o som da vítima. A pena base, de seis meses a dois anos de reclusão e multa, passa agora a ter um agravamento proporcional quando a violência se manifesta por meio de conteúdos falsificados – sobretudo aqueles de natureza sexual.
No entanto, simplesmente processar procedimentos não é suficiente para reduzir os danos causados pelos deepfakes devido à sua grande capacidade de se espalhar rapidamente pela internet. Um estudo realizado por pesquisadores do Instituto de Tecnologia de Massachusetts (MIT), publicado na Revista Science, revelou que conteúdos falsos têm uma propagação muito mais eficiente do que os conteúdos verdadeiros. De acordo com os autores do estudo, enquanto as informações corretas tendem a alcançar cerca de mil pessoas, as principais notícias falsas podem atingir até 100 mil usuários.
Não só o compartilhamento, mas a quantidade de afetados também preocupa. Isso se deve, também, ao aumento da facilidade em usar ferramentas e aplicativos para criar deepfakes, porque está tornando mais acessível a capacidade de falsificar a realidade para um número maior de pessoas que, antes, não tinham nenhum preparo.
Neste ritmo acelerado de avanços tecnológicos em que a habilidade de produzir falsificações realistas parece estar à frente do progresso na criação de meios de detecção e sistemas de responsabilização, a situação se torna ainda mais complexa para as vítimas e sua proteção, seja preventivamente ou repressivamente.
É necessário articular um sistema integrado de prevenção, acolhimento e responsabilização. Isso inclui a adoção de mecanismos mais ágeis para a exclusão de conteúdos difamatórios e respostas mais céleres das plataformas, o fortalecimento da atuação do Ministério Público e das delegacias especializadas e o treinamento de agentes públicos sobre violência digital.
A celeridade na apreciação e remoção desses conteúdos pelas plataformas provavelmente demandará lei específica sobre transparência e responsabilidade de seus operadores, com normas voltadas ao combate de conteúdos falsos na rede ou alteração de leis já existentes como o Marco Civil da Internet para se tornar ainda mais ágil nesses casos, com uma interpretação ampliada do art. 21.
A utilização de deepfakes contra mulheres não é apenas uma nova forma de misoginia digital; é também um ataque direto à liberdade de expressão feminina e à participação plena das mulheres na esfera pública. Muitas desistem de ocupar espaços de poder por medo de exposição, ridicularização ou violência reputacional – que, agora, pode ser fabricada com poucos cliques. É inaceitável que ambientes digitais operem sem parâmetros mínimos de segurança e governança, sobretudo quando tais omissões resultam em violações sistemáticas de direitos fundamentais.
O desafio é claro e urgente: assegurar que o avanço tecnológico não reproduza ou intensifique as estruturas históricas de exclusão e dominação das mulheres. Combater os deepfakes e outras formas de violência digital é, acima de tudo, proteger a dignidade, a integridade psíquica e o direito das mulheres à autodeterminação em um ambiente digital que, cada vez mais, constitui uma extensão dos espaços público, privado e da própria cidadania.
Neste contexto complexo e desafiador, é fundamental que as pessoas impactadas saibam que há suporte disponível para oferecer auxílio emocional amplo além de instrumentos para buscar orientação legal adequada diante de situações de violência sofridas.
Veja o que fazer:
- Guarde provas: salve prints, links e arquivos. Use ferramentas para registrar a publicação.
- Denuncie nas plataformas: use os canais oficiais de denúncia. Informe que se trata de conteúdo manipulado com IA e indique possíveis infrações dos termos de uso que demandam a remoção. Guarde o protocolo. Caso o conteúdo tenha cunho sexual, notifique formalmente a plataforma para remoção. Se ela não agir, pode ser responsabilizada, de acordo com o art 21 do Marco Civil da Internet.
- Registre ocorrência: procure a Delegacia da Mulher ou especializada em crimes cibernéticos. Cite a Lei 15.123/2025.
- Acione o Ministério Público: o MP pode cobrar providências, pedir remoção e responsabilização dos autores.
- Busque apoio: procure atendimento psicológico e orientação jurídica em órgãos como Defensorias Públicas, Safernet e ONGs de proteção digital.