Tecnologia: Os sites pornográficos estão a ser invadidos por deepfakes cada vez mais

Os vídeos deepfake não são novidade. Aparecem na Internet há mais de seis anos. Mas estudos recentes mostram que o seu número está a explodir, sobretudo em sites pornográficos, e que estão a ser difundidos pelos maiores motores de busca, o que levanta a questão crucial do consentimento.

O conceito de « deepfakes », para quem não sabe, é a hiper-criação de vídeos falsos, concebidos com recurso à inteligência artificial (IA). Esta tecnologia utiliza a aprendizagem automática para incorporar o rosto de uma pessoa (normalmente conhecida) em imagens, obviamente sem a autorização dessa pessoa. No que diz respeito aos deepfakes pornográficos, os avanços na IA estão a contribuir para a expansão deste tipo de conteúdo. E, grande surpresa, as mulheres são as primeiras vítimas…

Uma análise do ecossistema dos vídeos pornográficos distribuídos em linha, efectuada por um investigador independente e difundida pelo site da revista americana Wired, mostra até que ponto os deepfakes se tornaram inevitáveis. Segundo o investigador, que preferiu manter o anonimato para evitar ser visado, pelo menos 244.625 vídeos deste tipo foram colocados em linha nos últimos sete anos em plataformas que alojam – por vezes exclusivamente – deepfakes pornográficos.

Entre janeiro e setembro de 2023, estima-se que tenham sido carregados 113 000 vídeos, um aumento de 55% em comparação com os 73 000 carregados em 2022. O analista de pesquisa prevê mesmo que o número de vídeos produzidos este ano irá exceder o total de todos os outros anos combinados.

« Afecta toda a gente, crianças em idade escolar, adultos, tornou-se uma coisa do dia a dia », explica Sophie Maddocks, investigadora e professora de direito digital na Universidade da Pensilvânia, que estuda a ciberviolência sexual. Seria muito diferente se pudéssemos tornar o acesso a estas tecnologias mais complicado. Não deveriam ser necessários dois segundos para encorajar potencialmente uma ofensa ou um crime sexual ».

Embora seja difícil quantificar a dimensão destes vídeos, que são frequentemente partilhados nas redes sociais ou em grupos de mensagens privadas, o investigador anónimo afirma que as figuras públicas, as celebridades e outras actrizes de Hollywood não são as únicas vítimas. Os criadores de deepfakes utilizam frequentemente os rostos de pessoas conhecidas. No final de setembro, cerca de vinte raparigas, com idades compreendidas entre os 11 e os 17 anos, prestaram depoimento na cidade espanhola de Almendralejo (sudoeste do país), depois de terem sido geradas fotografias suas nuas, sem o seu consentimento, utilizando inteligência artificial.

Embora as ferramentas de IA estejam a tornar-se cada vez mais fáceis de aceder, o papel dos motores de busca na explosão de deepfakes também não é insignificante. Milhões de pessoas consultam os sítios enumerados no estudo, e entre 50% e 80% delas encontram-nos através de uma pesquisa em linha. De momento, os esforços dos anfitriões destes sítios ou de motores de busca como o Google ou o Bing são anedóticos, limitando-se muitas vezes a simples formulários a solicitar a remoção de conteúdos.

Entretanto, as consequências para as vítimas são reais, graves e duradouras. A Wired recorda também os testemunhos de mulheres streamers no Twitch, visadas por deepfakes e que descrevem o sentimento de violação e a maior exposição ao ciberassédio de que foram vítimas.

Asher Flynn, professor de Criminologia na Universidade Monash, em Melbourne, na Austrália, especializado em abusos relacionados com a IA e a tecnologia, confirma este facto. « O impacto potencial na saúde mental e física de uma pessoa, bem como na sua vida profissional, familiar e social, pode ser considerável, quer as imagens sejam deepfakes ou reais », afirma, referindo-se em particular à pornografia de vingança (ou pornodivulgação).

leave a reply