Às vésperas de marcar o Dia Internacional da Mulher, neste 8 de março, uma agência da ONU alerta para o aumento alarmante de imagens falsas de vídeos na internet, conhecidas como deepfake. 

Uma pesquisa da ONU Mulheres revela que 98% de todos esses vídeos deepfake online são feitos com imagens pornográficas não consensuais, deepfake nudes ou imagens de nudez falsas.

Nenhuma mulher ou menina é imune ao ataque

Em um dos casos, a vítima acordou com uma enxurrada de imagens manipuladas dela que viralizaram da noite para o dia. E o problema é a falta de punição legal, na maior parte do mundo, para esses ataques cibernéticos deliberados às mulheres. Algo que pode acontecer com qualquer mulher conhecida ou não.

Essa é a realidade de milhares de mulheres e meninas todos os dias. Deepfakes de IA estão destruindo vidas reais e a justiça permanece fora do alcance da maioria das sobreviventes. E muitas vítimas pensam em se matar.

Em alguns países, o deepfake já é configurado crime previsto no Código Penal e com sentenças de prisão. O Brasil é destacado nessa lista após a mudança da lei em abril de 2025, quando alterou seu Código Penal, estabelecendo a responsabilização de quem causar violência psicológica contra mulheres usando IA ou outras tecnologias para alterar sua imagem ou voz.

EUA dão 48 horas para retirar conteúdo da internet

Nos Estados Unidos, por exemplo, os autores da publicações e deepfakes têm 48 horas para retirar o conteúdo da internet. Emirados Árabes Unidos e Reino Unido também já tipicaram o crime.

Deepfakes são imagens, áudios ou vídeos manipulados por IA que fazem parecer que alguém disse ou fez algo que nunca fez. A tecnologia em si não é nova. Mas sua utilização como arma contra mulheres e meninas é um fenômeno mais recente e está se acelerando rapidamente.

Um relatório de 2023 mostrou que a pornografia deepfake representava 98% de todos os vídeos deepfake online e 99% retratavam mulheres. Estima-se que os vídeos deepfake eram 550% mais prevalentes em 2023 do que em 2019, e as ferramentas para criá-los estão amplamente disponíveis, geralmente gratuitas e exigem muito pouca experiência técnica.

Visualização de Inteligência Artificial combinando um esquema de cérebro humano com uma placa de circuito

Legislação tem quer ser mais célere

Uma vez publicado, o conteúdo gerado por IA pode ser replicado infinitamente, salvo em dispositivos privados e compartilhado em diversas plataformas, tornando quase impossível removê-lo completamente. Segundo a ONU Mulheres, a legislação não acompanhou a evolução

Menos da metade dos países possui leis que abordam o abuso online. Menos ainda têm legislação que cobre especificamente conteúdo deepfake gerado por IA. A maioria das leis sobre “pornografia de vingança” ou abuso baseado em imagens foi escrita antes da existência dos deepfakes, deixando brechas enormes que os agressores exploram sem problemas.

Em muitos países, a pornografia deepfake ou imagens de nudez geradas por IA se enquadram em zonas cinzentas da lei, deixando as vítimas sem saber se o abuso é ilegal e se os agressores podem ser processados.

Algumas jurisdições estão começando a agir. A Lei de IA da UE, por exemplo, impõe obrigações de transparência em relação aos deepfakes. 

A Lei de Segurança Online do Reino Unido proíbe o compartilhamento de imagens explícitas manipuladas digitalmente, mas não aborda a criação de deepfakes e pode não se aplicar quando a intenção de causar sofrimento não puder ser comprovada.

A ambiguidade na lei e a falta de foco no consentimento permitem que os agressores escapem das consequências, mesmo quando existe alguma estrutura legal.

Jornalista britânica atacada com deepfakes

Em um caso recente de grande repercussão, a jornalista britânica Daisy Dixon descobriu imagens sexualizadas de si mesma geradas por IA no X em dezembro de 2025, criadas usando a própria ferramenta de IA Grok da plataforma. A plataforma levou dias para bloquear geograficamente a função, enquanto o abuso continuava se espalhando.

O abuso de deepfakes pode servir como catalisador online para os chamados “crimes de honra” em certos contextos culturais, onde a percepção de violação das normas de honra em plataformas digitais pode resultar em violência física extrema contra mulheres, ou até mesmo morte.

De acordo com uma pesquisa recente, mais da metade das vítimas de deepfakes nos Estados Unidos da América cogitaram suicídio. Este não é um problema específico da internet. É uma crise global.

Perícia digital e danos

A crise da impunidade: por que os criadores de deepfakes raramente enfrentam a justiça

Apesar da escala do dano, os processos são raros, as plataformas rotineiramente deixam de agir e as sobreviventes são frequentemente retraumatizadas quando tentam buscar ajuda. Eis por que a lacuna de responsabilização é tão grande e tão marcada por questões de gênero.

Mesmo quando existem leis, a aplicação da lei frequentemente falha. Os investigadores precisam de conhecimentos especializados em perícia digital, coordenação transfronteiriça e cooperação entre plataformas para construir um caso, e a maioria dos sistemas de justiça não dispõe de recursos adequados para nenhum destes aspectos.

As provas desaparecem rapidamente à medida que o conteúdo se espalha e as cópias se multiplicam. Os perpetradores escondem-se no anonimato ou operam em diferentes jurisdições. As plataformas são lentas — ou relutantes — em partilhar dados com as autoridades policiais, especialmente em casos transfronteiriços. O atraso na perícia digital significa que os casos ficam paralisados ​​antes mesmo de começarem.

ONU Mulheres está investindo em informação para combater a violência digital e proteger milhões de meninas e mulheres ameaçadas na internet

Sobreviventes são silenciadas antes mesmo de denunciarem

O resultado é um sistema de justiça que muitas vezes carece de recursos, é fragmentado e estruturalmente incapaz de acompanhar a velocidade da tecnologia — enquanto os danos que deixa de abordar são sentidos, na sua grande maioria, por mulheres e meninas.

A subnotificação é uma das maiores barreiras à responsabilização, e não é difícil entender por que as sobreviventes permanecem em silêncio.

Para as mulheres sobreviventes, denunciar o abuso por deepfake significa mostrar suas imagens artificialmente sexualizadas a policiais, advogados e moderadores de plataformas. Significa ter seus nomes em registros oficiais, arriscar a atenção da mídia e potencialmente enfrentar processos por difamação movidos pelas mesmas pessoas que as abusaram. Significa também navegar por um sistema de justiça que rotineiramente questiona a credibilidade das mulheres no tribunal – culpabilizando a vítima, examinando seus relacionamentos e comportamentos passados ​​e refletindo a misoginia persistente.

Plataformas estão falhando com as sobreviventes

Muitas sobreviventes optam por bloquear, se isolar e tentar sobreviver, porque remover o conteúdo e se proteger é urgente. Mas isso deixa os agressores impunes.

As plataformas de tecnologia há muito se escondem atrás do status de “intermediárias” para evitar a responsabilidade pelo conteúdo gerado pelo usuário. Na prática, isso significa plataformas que demoram a remover conteúdo abusivo, têm processos de denúncia opacos e inconsistentes, rejeitam automaticamente as solicitações de remoção e cooperam pouco ou nada com as autoridades policiais.

O fardo da remoção imposto às sobreviventes é cruelmente irrealista. Espera-se que elas rastreiem cada cópia de suas imagens íntimas não consensuais em várias plataformas e continuem denunciando-as. Enquanto isso, o conteúdo continua se espalhando.

O que você pode fazer por Direitos. Justiça. Ação.

A justiça não acontece por acaso. Ela é construída e precisa ser financiada.

Junte-se e apoie a ONU Mulheres neste Dia Internacional da Mulher, enquanto continuamos ao lado dos movimentos de mulheres em todo o mundo e trabalhamos com governos que optam pela igualdade.

Buscando justiça, encontrando mais danos – Por que as sobreviventes não denunciam e o que acontece quando denunciam

Para as sobreviventes que denunciam, o sistema de justiça muitas vezes se torna outra fonte de trauma.

Elas são solicitadas repetidamente a visualizar e descrever conteúdo abusivo — com a polícia, advogados, moderadores de plataforma. Elas enfrentam perguntas como: “Você tem certeza de que não é real?” Ou “você já compartilhou imagens íntimas antes?”

Se um caso chega ao tribunal, as roupas, os relacionamentos e o comportamento passado da vítima são examinados minuciosamente, não os do agressor.

E o dano não fica restrito ao ambiente online. Em uma pesquisa da ONU Mulheres, 41% das mulheres na vida pública que sofreram violência digital também relataram ter enfrentado ataques ou assédio offline relacionados a ela. O abuso de deepfakes se infiltra em todos os aspectos da vida da vítima.

Repensando a justiça: O que as vítimas realmente precisam

As vítimas de abuso de deepfakes não estão pedindo por compaixão. Elas estão pedindo por um sistema que faça justiça e previna o abuso.

Isso significa ser acreditado.

Significa ter acesso à justiça que traga consequências reais para os perpetradores.

Significa apoio para se recuperar de danos reais, duradouros e devastadores.

E significa plataformas e governos que ajam para prevenir futuros abusos — e não apenas para reagir depois que o dano já foi causado.

Da crise à ação: O que precisa acontecer agora

O abuso de deepfakes é obra humana — gerado por ferramentas de IA a pedido de humanos. Não é inevitável nem imparável. Mas impedi-lo exige ação urgente e coordenada de governos, instituições e plataformas tecnológicas. Eis o que precisa acontecer:

 

1. Leis que realmente abranjam o abuso de deepfakes.

Os governos devem aprovar legislação com definições claras de abuso gerado por IA e com foco em consentimento, responsabilidade objetiva dos perpetradores, obrigações de remoção acelerada para as plataformas e protocolos de aplicação da lei transfronteiriços — porque o abuso não respeita fronteiras nacionais.

 

2. Sistemas de justiça capazes de investigar e processar.

As forças policiais precisam de treinamento, recursos e capacidade dedicada para coletar e preservar evidências digitais. Os atrasos na perícia digital devem ser resolvidos, e as estruturas de cooperação internacional devem ser rápidas, funcionais e adequadas à finalidade.

 

3. Responsabilização das plataformas.

As empresas de tecnologia devem ser legalmente obrigadas a monitorar e remover proativamente conteúdo abusivo dentro de prazos obrigatórios, cooperar com as autoridades policiais e enfrentar consequências financeiras reais quando não agirem. A autorregulamentação não funcionou.

 

4. Apoio real para sobreviventes.

Profissionais da lei e do direito treinados e com conhecimento sobre traumas, e assistência jurídica gratuita, para que os processos de denúncia não revitimizem as pessoas que deveriam ajudar e o acesso à justiça não se torne impossivelmente caro. Um sistema de justiça bem coordenado, onde diferentes atores conectem os sobreviventes aos serviços de que precisam.

 

5. Educação que previne o abuso.

A alfabetização digital, incluindo educação sobre consentimento, segurança online e o que fazer ao sofrer abuso, precisa começar cedo e alcançar todos. A prevenção é tão importante quanto a punição.

O abuso de deepfakes é a ponta do iceberg de um padrão muito mais amplo de violência digital contra mulheres e meninas. Está a agravar-se. Tem conotação de género. E neste momento, os sistemas concebidos para proteger as pessoas estão a falhar, enquanto as ferramentas para causar danos se tornam cada vez mais baratas, rápidas e fáceis de usar.

Isso tem de mudar. E tem de mudar agora.

Source of original article: United Nations / Nações Unidas (news.un.org). Photo credit: UN. The content of this article does not necessarily reflect the views or opinion of Global Diaspora News (www.globaldiasporanews.net).

To submit your press release: (https://www.globaldiasporanews.com/pr).

To advertise on Global Diaspora News: (www.globaldiasporanews.com/ads).

Sign up to Global Diaspora News newsletter (https://www.globaldiasporanews.com/newsletter/) to start receiving updates and opportunities directly in your email inbox for free.