Procura por apps que usam IA para 'despir' mulheres dispara e preocupa especialistas
Desde o início deste ano, o número de links anunciando aplicativos de nudez aumentou mais de 2.400% nas mídias sociais, segundo especialistas
Aplicativos e sites que usam inteligência artificial para despir mulheres em fotos estão crescendo em popularidade, de acordo com pesquisadores. Somente em setembro, 24 milhões de pessoas visitaram sites de nudez, de acordo com a empresa de análise de redes sociais Graphika.
De acordo com a Graphika, muitos desses serviços de desnudamento, ou "nudify", usam redes sociais populares para marketing. Por exemplo, desde o início deste ano, o número de links anunciando aplicativos de nudez aumentou mais de 2.400% nas mídias sociais, inclusive no X e no Reddit, disseram os pesquisadores.
Os serviços usam IA para recriar uma imagem de modo que a pessoa fique nua. Muitos dos serviços só funcionam com mulheres.
Esses aplicativos fazem parte de uma tendência preocupante de pornografia não consensual que está sendo desenvolvida e distribuída devido aos avanços da inteligência artificial - um tipo de mídia fabricada conhecida como pornografia deepfake.
Sua proliferação esbarra em sérios obstáculos legais e éticos, pois as imagens geralmente são retiradas das mídias sociais e distribuídas sem o consentimento, o controle ou o conhecimento do sujeito.
O aumento da popularidade corresponde ao lançamento de vários modelos de difusão de código aberto, ou inteligência artificial que pode criar imagens muito superiores àquelas criadas há poucos anos, disse Graphika.
Por serem de código aberto, os modelos que os desenvolvedores de aplicativos usam estão disponíveis gratuitamente.
"Você pode criar algo que realmente pareça realista", disse Santiago Lakatos, analista da Graphika, observando que os deepfakes anteriores eram geralmente borrados.
Uma imagem postada no X anunciando um aplicativo de despir usava uma linguagem que sugeria que os clientes poderiam criar imagens de nudez e depois enviá-las para a pessoa cuja imagem foi desnudada digitalmente, incitando o assédio.
Um dos aplicativos, por sua vez, pagou por conteúdo patrocinado no YouTube do Google e aparece em primeiro lugar quando se faz uma busca com a palavra "nudify".
Um porta-voz do Google disse que a empresa não permite anúncios "que contenham conteúdo sexualmente explícito. Analisamos os anúncios em questão e estamos removendo aqueles que violam nossas políticas". Nem o X nem o Reddit responderam aos pedidos de comentários.
Leia também
• Parceria de Microsoft e OpenAI é alvo de análise do órgão regulador da concorrência do Reino Unido
• Israel usa 'inteligência em tempo real' para orientar ações contra o Hamas em Gaza
• INSS vai adotar inteligência artificial para detectar fraudes em atestados médicos. Entenda
Além do aumento do tráfego, os serviços, alguns dos quais cobram US$ 9,99 por mês, afirmam em seus sites que estão atraindo muitos clientes. "Eles estão fazendo muitos negócios", disse Lakatos. Descrevendo um dos aplicativos de roupas íntimas, ele disse: "Se você acreditar na palavra deles, o site anuncia que tem mais de mil usuários por dia".
A pornografia não consensual de figuras públicas há muito tempo é um flagelo da Internet, mas os especialistas em privacidade estão cada vez mais preocupados com o fato de que os avanços na tecnologia de IA tornaram o software deepfake mais fácil e mais eficaz.
"Estamos vendo cada vez mais isso sendo feito por pessoas comuns com alvos comuns", disse Eva Galperin, diretora de segurança cibernética da Electronic Frontier Foundation. "Vemos isso entre crianças do ensino médio e pessoas que estão na faculdade."
Muitas vítimas nunca descobrem sobre as imagens, mas mesmo aquelas que descobrem podem ter dificuldade em fazer com que a polícia investigue ou em encontrar fundos para mover uma ação legal, disse Galperin.
Atualmente, não há nenhuma lei federal que proíba a criação de pornografia deepfake, embora o governo dos EUA proíba a geração desses tipos de imagens de menores. Em novembro, um psiquiatra infantil da Carolina do Norte foi condenado a 40 anos de prisão por usar aplicativos para se despir em fotos de seus pacientes, a primeira acusação desse tipo de acordo com a lei que proíbe a criação de deepfake de material de abuso sexual infantil.
O TikTok bloqueou a palavra-chave "undress" (sem roupa), um termo de pesquisa popular associado aos serviços, alertando qualquer pessoa que pesquisar a palavra que ela "pode estar associada a comportamento ou conteúdo que viola nossas diretrizes", de acordo com o aplicativo.
Um representante do TikTok não quis entrar em detalhes. Em resposta a perguntas, a Meta Platforms Inc. também começou a bloquear palavras-chave associadas à busca por aplicativos de roupas íntimas. Um porta-voz não quis comentar.

