Falsos nus de mulheres feitos por IA viralizam
Mulheres são alvo preferencial; falta de leis dificulta punições
PRANSHU VERMA
Alerta do FBI Muitos bandidos têm usado fotos falsas criadas por inteligência artificial para extorquir dinheiro de mulheres e meninas
Explosão Nos 10 principais sites com fotos pornográficas geradas por IA, ‘nudes’ falsos aumentaram em mais de 290% desde 2018
Quando Gabi Belle soube que havia uma foto dela nua circulando na internet, seu corpo ficou gelado. A influenciadora do YouTube nunca havia posado daquela forma – a imagem a mostrava em um campo sem roupas. Ela sabia que era falsa.
Quando Belle, de 26 anos, enviou uma mensagem a um colega pedindo ajuda para remover a imagem, ele lhe disse que havia quase 100 fotos falsas espalhadas pela web, a maioria em sites conhecidos por hospedar pornografia gerada por inteligência artificial. Elas foram retiradas em julho, diz Belle, mas novas imagens que a retratavam em situações sexuais explícitas já surgiram.
“Eu me senti nojenta e violada”, disse Belle em uma entrevista. “Essas partes íntimas não foram feitas para o mundo ver, porque eu não consenti com isso. Então, é muito estranho que alguém faça imagens de mim.” Esse tipo de caso não tem ocorrido só nos EUA. No início do mês, no Rio, alunos de um colégio de elite criaram imagens pornográficas falsas de colegas e estão sendo investigados.
A inteligência artificial (IA) está alimentando um boom sem precedentes de imagens e vídeos pornográficos falsos. Isso é possível graças ao aumento de ferramentas baratas e fáceis de usar que podem “despir” pessoas em fotografias – analisando como seus corpos nus ficariam e impondo isso em uma imagem – ou trocar um rosto em um vídeo pornográfico.
Nos 10 principais sites que hospedam fotos pornográficas geradas por IA, os “nudes” falsos aumentaram em mais de 290% desde 2018, de acordo com Genevieve Oh, analista da área. Esses sites apresentam celebridades e figuras políticas, como a deputada americana Alexandria Ocasio-Cortez, de Nova York, EUA, ao lado de adolescentes comuns, cujas semelhanças foram aproveitadas por agentes mal-intencionados para extorquir dinheiro ou realizar fantasias particulares.
As vítimas têm pouco recurso. Não há nenhuma lei federal nos EUA que regule esse tipo de crime e apenas alguns Estados promulgaram regulamentações. Um decreto do presidente Biden sobre IA, emitido no fim do mês passado, recomenda – mas não exige – que as empresas rotulem fotos, vídeos e áudio gerados por IA para indicar que o trabalho foi gerado por computador.
Enquanto isso, estudiosos de direito advertem que as imagens falsas de IA podem não se enquadrar nas proteções de direitos autorais para semelhanças pessoais, porque elas se baseiam em conjuntos de dados preenchidos por milhões de imagens. “Esse é claramente um problema muito sério”, diz Tiffany Li, professora de Direito da Universidade de São Francisco.
RISCO.
O advento das imagens de IA representa um risco especial para mulheres e adolescentes, pois muitas não estão preparadas para essa visibilidade. Um estudo de 2019 da Sensity AI, uma empresa que monitora o fluxo de informações e fotografias falsas no submundo da internet, descobriu que 96% das imagens deep fake são pornográficas e 99% das fotos têm como alvo as mulheres.
“Agora, o alvo são as meninas”, diz Sophie Maddocks, pesquisadora e defensora dos direitos digitais da Universidade da Pensilvânia. “Meninas e mulheres jovens que não estão sob o olhar do público.”
‘O QUE ELES FIZERAM COMIGO?’.
Em 17 de setembro, Miriam Al Adib Mendiri estava voltando de uma viagem para sua casa, no sul da Espanha, quando encontrou sua filha de 14 anos perturbada. Ela mostrou a Al Adib uma foto de si mesma nua. “Olhe, mamãe. O que eles fizeram comigo?”, conta ela ao se lembrar do desespero da menina.
Ela nunca havia posado nua. Mas um grupo de meninos locais pegou fotos dos perfis de mídia social de várias meninas de sua cidade e usou um aplicativo “nudificador” de IA para criar as fotos nuas, de acordo com a polícia.
O aplicativo é uma das muitas ferramentas de IA que usam imagens reais para criar fotos nuas, que inundaram a web nos últimos meses. Ao analisar milhões de imagens, o software de IA pode prever melhor como um corpo ficará nu e sobrepor com fluidez um rosto em um vídeo pornográfico, disse Gang Wang, especialista em IA da Universidade de Illinois, EUA.
Embora muitos geradores de imagens de IA impeçam os usuários de criar material pornográfico, softwares de código aberto, como o Stable Diffusion, permitem que desenvolvedores amadores adaptem a tecnologia – geralmente para fins nefastos. A Stability AI, fabricante do Stable Diffusion, não quis comentar essa reportagem.
Quando esses aplicativos se tornam públicos, eles usam programas de indicação que incentivam os usuários a compartilhar essas fotos geradas por IA nas mídias sociais em troca de dinheiro, disse a analista Genevieve Oh. Ela descobriu que, nos 10 principais sites que hospedam imagens pornográficas falsas, ela descobriu que mais de 415 mil foram carregadas este ano, obtendo quase 90 milhões de visualizações.
Os vídeos pornôs gerados por IA também explodiram na internet. Depois de vasculhar os 40 sites mais populares em busca de vídeos falsos, Genevieve Oh descobriu que mais de 143 mil vídeos foram adicionados em 2023 – um número que supera todos os novos vídeos de 2016 a 2022. Os vídeos falsos receberam mais de 4,2 bilhões de visualizações, segundo ela.
Em junho, o FBI alertou sobre o aumento da extorsão sexual por golpistas que exigem pagamento ou fotos em troca da não distribuição de imagens sexuais falsas. Embora não esteja claro qual porcentagem dessas imagens é gera
da por IA, a prática se expande. Em setembro, mais de 26,8 mil pessoas foram vítimas de campanhas de “sextortion”, um aumento de 149% em relação a 2019, disse o FBI ao The Washington Post.
‘VOCÊ NÃO ESTÁ SEGURA COMO MULHER’.
Em maio, um autor de um fórum popular de pornografia iniciou um tópico chamado “I can fake your crush” (Eu posso criar uma foto falsa da sua paixão, em tradução livre). A ideia era simples: “Envie-me quem você quiser ver nu e eu posso fingir que isso é real usando IA”, escreveu o moderador.
Em poucas horas, as fotos de mulheres começaram a chegar. “Você pode fazer essa garota? Não é uma celebridade ou influenciadora”, perguntou um usuário. “Minha colega de trabalho e minha vizinha?”, acrescentou outro.
Minutos depois de uma solicitação, uma versão nua da imagem aparecia no tópico. “Thkx a lot bro, it’s perfect” (Muito obrigado, amigo, está perfeito, em tradução livre), escreveu um usuário.
As celebridades são um alvo popular para os criadores de pornografia falsa que pretendem capitalizar o interesse de pesquisa por fotos de atores famosos nus. Esses sites também apresentam outros tipos de nus, incluindo o que chamam de conteúdo “amador” de desconhecidos e hospedam anúncios que comercializam ferramentas de criação de pornografia com IA.
PROTEÇÃO.
O Google tem políticas para evitar que imagens sexuais não consensuais apareçam nos resultados de pesquisa, mas suas proteções para imagens deep fake não são tão robustas.
A pornografia do submundo da internet e as ferramentas para produzi-la aparecem com destaque nos mecanismos de pesquisa da empresa, mesmo sem uma busca específica por conteúdo gerado por IA. Genevieve Oh documentou mais de uma dúzia de exemplos em capturas de tela, que foram confirmadas de forma independente pelo The Washington Post.
Ned Adriance, porta-voz do Google, disse em um comunicado que a empresa está “trabalhando ativamente para trazer mais proteções para a pesquisa” e que a empresa permite que os usuários solicitem a remoção de pornografia falsa involuntária. O Google está no processo de “criar salvaguardas mais amplas” que não exigiriam que as vítimas solicitassem individualmente a remoção do conteúdo, disse ele.
Tiffany Li, da Universidade de São Francisco, disse que pode ser difícil penalizar os criadores desse conteúdo. A seção 230 da Lei das Comunicações protege as empresas de mídia social da responsabilidade pelo conteúdo publicado em seus sites, deixando pouca carga para os sites policiarem as imagens.
As vítimas podem pedir que as empresas removam fotos e vídeos com sua imagem. No entanto, como a IA utiliza uma infinidade de imagens em um conjunto de dados para criar uma foto falsa, é mais difícil para a vítima alegar que o conteúdo é derivado exclusivamente de sua imagem, disse Tiffany Li. “Talvez você ainda possa dizer: ‘É uma violação de direitos autorais, está claro que eles pegaram minha foto original protegida por direitos autorais e adicionaram um pouco a ela’”, disse Li. “Mas no caso de falsificações profundas... não está tão claro... quais eram as fotos originais.”
Na ausência de leis federais, pelo menos nove estados – incluindo Califórnia, Texas e Virgínia – aprovaram leis voltadas para deep fakes. Mas essas leis variam em seu escopo: em alguns Estados, as vítimas podem entrar com processos criminais, enquanto outros permitem apenas ações civis, embora possa ser difícil saber quem pode ser processado.
Belle, a influenciadora do YouTube, ainda não tem certeza de quantas fotos dela estão circulando e afirmou que são necessárias regras mais rígidas para lidar com sua experiência. “Você não está segura como mulher.” •
TRADUÇÃO ALICE LABATE
PRIMEIRA PÁGINA
pt-br
2023-11-11T08:00:00.0000000Z
2023-11-11T08:00:00.0000000Z
https://digital.estadao.com.br/article/282278145051685
O Estado
