O Fundo das Nações Unidas para a Infância, Unicef, manifestou “crescente alarme” perante relatos de um aumento rápido no volume de imagens sexualizadas geradas por inteligência artificial, IA.

Uma declaração divulgada nesta quarta-feira, em Nova Iorque, lista casos em que fotografias reais de crianças foram manipuladas e transformadas em conteúdo sexual explícito

Dimensão global do fenômeno

A agência alertou que deepfakes, imagens, vídeos ou áudios criados ou alterados por IA para parecerem reais, estão a ser cada vez mais usados para produzir material sexualizado envolvendo crianças.

O processo inclui práticas como a “nudificação”, em que ferramentas de IA removem ou alteram roupas em fotografias para criar imagens falsas de nudez.

Unicef destacou também que as próprias crianças estão conscientes do risco associado ao uso de IA

Em 11 países pelo menos 1,2 milhão de crianças afirmaram que as suas imagens foram manipuladas em deepfakes sexualmente explícitos ao longo do último ano.

A constatação é de um estudo que além do Unicef envolveu a rede global de organizações da sociedade civil que atua pelo fim da exploração sexual de crianças, Ecpat, e a Interpol. 

A agência da ONU revelou que em alguns países analisados, os dados equivalem a “uma em cada 25 crianças”. O número é comparado aos integrantes de “uma criança numa sala de aula típica”, destacando a dimensão crescente e preocupante do fenômeno.

Forte preocupação com risco de manipulação

O Unicef destacou também que as próprias crianças estão conscientes do risco associado ao uso de IA para produzir imagens falsas.

Segundo o mesmo estudo, em alguns dos países analisados, até dois terços delas afirmaram preocupar-se com a possibilidade de a IA ser usada para criar imagens ou vídeos sexuais falsos.

O Unicef observou que os níveis de preocupação variam de forma significativa entre países, reforçando, segundo a organização, a necessidade urgente de medidas de sensibilização, prevenção e proteção.

Material de abuso sexual infantil

Na declaração, o Unicef afirmou de forma categórica que imagens sexualizadas de crianças produzidas ou manipuladas por IA constituem material de abuso sexual infantil. Csam, na sigla em inglês.

A agência declarou que “Abuso do deepfake é abuso” e sublinhou que “não há nada de falso no dano que causa”.

O Unicef alertou ainda que, quando a identidade ou imagem de uma criança é usada, ela é diretamente vitimada.

Unicef pede ainda que as plataformas reforcem a moderação de conteúdos

A agência acrescentou ainda que, mesmo quando não existe uma vítima identificável, o material gerado por IA contribui para normalizar a exploração sexual infantil, alimentar a procura por conteúdos abusivos e criar mais dificuldades para as autoridades identificarem e protegerem menores em risco.

Uso de IA em redes sociais

O Unicef saudou os esforços de alguns desenvolvedores de IA que implementam abordagens de “segurança desde a concepção” e mecanismos de proteção para impedir o uso abusivo das suas tecnologias.

No entanto, a agência alertou que o cenário continua desigual e que muitos modelos de IA ainda não são desenvolvidos com salvaguardas adequadas.

Segundo o Unicef, os riscos podem agravar-se quando ferramentas de IA generativa são integradas diretamente em plataformas de redes sociais, facilitando a rápida disseminação de imagens manipuladas.

Leis, proteção tecnológica e ação das empresas digitais

O Unicef apelou a medidas urgentes para enfrentar o crescimento do abuso sexual infantil associado à IA.

A agência recomenda que os governos expandam as definições legais de material de abuso sexual infantil para incluir conteúdos gerados por IA e criminalizar a sua criação, aquisição, posse e distribuição.

Outra proposta é que desenvolvedores de IA implementem medidas robustas de prevenção contra o uso indevido dos seus sistemas. Já as empresas digitais devem atuar para impedir a circulação desse tipo de conteúdo, e não apenas removê-lo após a ocorrência do abuso.

O Unicef pede ainda que as plataformas reforcem a moderação de conteúdos investindo em tecnologias de detecção, garantindo que o material possa ser removido de forma imediata, e não apenas dias após denúncias.

Após reiterar que o impacto do abuso através de deepfakes é “real e imediato”, o Unicef afirma que “o dano é real e urgente” advertindo que “as crianças não podem esperar que a lei acompanhe”.

Source of original article: United Nations / Nações Unidas (news.un.org). Photo credit: UN. The content of this article does not necessarily reflect the views or opinion of Global Diaspora News (www.globaldiasporanews.net).

To submit your press release: (https://www.globaldiasporanews.com/pr).

To advertise on Global Diaspora News: (www.globaldiasporanews.com/ads).

Sign up to Global Diaspora News newsletter (https://www.globaldiasporanews.com/newsletter/) to start receiving updates and opportunities directly in your email inbox for free.