13.8 C
Ouro Branco

Inteligência Artificial: nudes falsos inundam a internet e estão arrasando a vida de adolescentes

Anúncios

THE WASHINGTON POST – Quando Gabi Belle soube que havia uma foto dela nua circulando na internet, seu corpo ficou gelado. A influenciadora do YouTube nunca havia posado para a imagem, que a mostrava em um campo sem roupas. Ela sabia que era falsa.

Mas quando Belle, 26, enviou uma mensagem a um colega pedindo ajuda para remover a imagem, ele lhe disse que havia quase 100 fotos falsas espalhadas pela web, a maioria hospedada em sites conhecidos por hospedar pornografia gerada por inteligência artificial. Elas foram retiradas em julho, diz Belle, mas novas imagens que a retratavam em situações sexuais explícitas já surgiram.

A inteligência artificial (IA) está alimentando um boom sem precedentes este ano em imagens e vídeos pornográficos falsos. Isso é possível graças ao aumento de ferramentas de IA baratas e fáceis de usar que podem “despir” pessoas em fotografias – analisando como seus corpos nus ficariam e impondo isso em uma imagem – ou trocar um rosto em um vídeo pornográfico.

Nos 10 principais sites que hospedam fotos pornográficas geradas por IA, os nudes falsos aumentaram em mais de 290% desde 2018, de acordo com Genevieve Oh, analista da área. Esses sites apresentam celebridades e figuras políticas, como a deputada Alexandria Ocasio-Cortez, de Nova York, EUA, ao lado de adolescentes comuns, cujas semelhanças foram aproveitadas por agentes mal-intencionados para extorquir dinheiro ou realizar fantasias particulares.

As vítimas têm pouco recurso. Não há nenhuma lei federal nos EUA que regule a pornografia deep fake, e apenas alguns estados promulgaram regulamentações. A ordem executiva de IA do presidente Biden emitida na segunda-feira, 30, recomenda, mas não exige, que as empresas rotulem fotos, vídeos e áudio gerados por IA para indicar o trabalho gerado por computador.

Enquanto isso, estudiosos do direito advertem que as imagens falsas de IA podem não se enquadrar nas proteções de direitos autorais para semelhanças pessoais, porque elas se baseiam em conjuntos de dados preenchidos por milhões de imagens. “Esse é claramente um problema muito sério”, diz Tiffany Li, professora de direito da Universidade de São Francisco.

O advento das imagens de IA representa um risco especial para mulheres e adolescentes, muitos dos quais não estão preparados para essa visibilidade. Um estudo de 2019 da Sensity AI, uma empresa que monitora deep fakes, descobriu que 96% das imagens deep fake são pornográficas e 99% dessas fotos têm como alvo as mulheres.

Informações repercutidas pelo Estadão

Mais artigos

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

Últimos artigos