Um estudo inédito destaca a gritante disparidade de género nas imagens íntimas não consensuais geradas pela IA — e chama a atenção para os riscos crescentes para as mulheres na política e na vida pública.
por Bárbara Rodrigues E Doces de jasmimpara 19º
Mais de duas dezenas de membros do Congresso foram vítimas de deepfakes sexualmente explícitos – e a grande maioria das vítimas são mulheres, de acordo com um novo estudo que destaca disparidades de género gritantes na tecnologia e riscos crescentes para a participação das mulheres na política. Outras formas de envolvimento cívico.
Projeto Luz Solar AmericanaUm grupo de reflexão que investiga a desinformação e defende políticas que promovem a democracia, divulgou na quarta-feira resultados que identificaram mais de 35.000 referências a imagens íntimas questionáveis representando 26 membros do Congresso – 25 mulheres e um homem – que foram recentemente encontradas em sites deepfake. A maioria das imagens foi rapidamente excluída depois que os pesquisadores compartilharam suas descobertas com os membros afetados do Congresso.
“Precisamos aceitar este novo ambiente e o fato de que a Internet expôs muitos desses danos que atingem desproporcionalmente as mulheres e as comunidades marginalizadas”, disse Nina Jankovic, especialista em distração e assédio online que fundou o The American Sunlight. Escritor de projetos e pesquisas.
Imagens íntimas não consensuais, também conhecidas coloquialmente como pornografia deepfake (Embora os defensores prefiram o primeiro), pode ser criado por IA generativa ou Sobreposição de fotos de atores adultos na mídia. Atualmente existem políticas limitadas para limitar a sua criação e propagação.
ASP compartilhou exclusivamente os primeiros resultados do tipo com The 19 O grupo coletou os dados em parte construindo um mecanismo de busca personalizado para encontrar membros do 118º Congresso por nome e sobrenome, sigla ou apelido em 11 sites deepfake conhecidos. Nem a afiliação ao grupo nem a localização geográfica tiveram efeito na probabilidade de ser alvo de abuso, embora os membros mais jovens tivessem maior probabilidade de serem vítimas. O maior factor foi o género, sendo que as mulheres parlamentares têm 70 vezes mais probabilidades de serem alvo do que os homens.
A ASP não divulgou os nomes dos legisladores retratados no filme para evitar incitar investigações. Eles contataram os escritórios de todos os afetados para alertá-los e forneceram recursos para perdas online e apoio à saúde mental. Os autores do estudo observam que, imediatamente, as imagens direcionadas à maioria dos membros foram completamente ou quase completamente removidas dos sites – um fato que eles não conseguem explicar. Os pesquisadores observam que tal remoção não impede que o conteúdo seja compartilhado ou reenviado. Em alguns casos envolvendo legisladores, as páginas de resultados de pesquisa permanecem indexadas no Google, apesar do conteúdo ter sido removido em grande parte ou completamente.
“A remoção pode ser coincidência. Exatamente por que esse conteúdo foi removido – seja uma carta de ‘cessar e desistir’, alegações de violação de direitos autorais ou outra comunicação com sites que hospedam abuso de deepfake – destaca uma grande disparidade de privilégios”, de acordo com o estudo. As mulheres, que não têm recursos para pagar membros do Congresso, dificilmente conseguiriam esta resposta rápida dos criadores e distribuidores de NCII gerados por IA se elas próprias removessem um. inicia um pedido para assumir.”
De acordo com os resultados preliminares da pesquisa, cerca de 16% das mulheres que atualmente servem no Congresso – ou 1 em cada 6 mulheres – foram vítimas de imagens íntimas de desaprovação geradas por IA.
Jankovic Foi alvo de assédio e ameaças online Elimina confusão para o seu trabalho nacional e internacional. Ele falou publicamente sobre ser vítima de abuso de deepfake – fato que ele soube em 2023 por meio de um alerta do Google.
“Você pode ser colocado nessas situações íntimas e comprometedoras sem o seu consentimento e esses vídeos, mesmo que você queira dizer, seguem uma reivindicação de direitos autorais contra o postador original, já que no meu caso, eles se espalharam pela Internet sem o seu controle. E sem quaisquer consequências para quem está fazendo ou fazendo pornografia deepfake”, afirmou. “Será um risco para qualquer pessoa que esteja aos olhos do público, que participe no discurso público, mas especialmente para as mulheres e para as mulheres de cor”.
O assédio sexual baseado em imagens pode ter efeitos devastadores na saúde mental das vítimas, que incluem pessoas comuns não envolvidas na política – incluindo crianças. No ano passado, houve relatos de meninas do ensino médio que foram alvo de assédio sexual baseado em imagem. Califórnia, Nova JerseyE Pensilvânia. A resposta dos funcionários da escola foi de vários graus, embora O FBI também emitiu um novo aviso Compartilhar tais imagens de menores é ilegal.
O impacto total dos deepfakes na sociedade ainda está em foco, no entanto Pesquisar Enquanto isso, mostra que 41% das mulheres entre 18 e 29 anos se autocensuram para evitar o assédio online.
“É uma ameaça extremamente poderosa à democracia e à liberdade de expressão se quase metade da nossa população se silenciar porque teme o assédio que poderá enfrentar”, disse Sophie Maddox, diretora de pesquisa. Centro para mídia em risco na Universidade da Pensilvânia.
Não existe nenhuma lei federal que estabeleça penalidades criminais ou civis para quem cria e distribui imagens íntimas não consensuais geradas por IA. Cerca de uma dúzia de estados promulgaram legislação nos últimos anosEmbora a maioria inclua penalidades civis, não criminais.
Imagens íntimas não consensuais geradas por IA também abrem Uma ameaça à segurança nacional Cria condições para chantagens e concessões geopolíticas. Isto pode ter um forte impacto nos decisores políticos, independentemente de serem ou não os alvos diretos da imagem.
Histórias relacionadas: Especialistas alertam sobre o impacto nas eleições à medida que os deepfakes de IA se tornam populares
“A minha esperança aqui é que os membros sejam levados a agir quando reconhecerem que isto não está a afectar as mulheres americanas, mas sim a elas”, disse Jankowicz. “Isso está afetando seus próprios colegas. E isso está acontecendo apenas porque eles estão sob os olhos do público.”
O assédio sexual baseado em imagem é um risco único para as mulheres que concorrem a cargos públicos. Susanna Gibson perdeu por pouco sua competitiva disputa legislativa depois que um agente republicano compartilhou com o The Washington Post uma gravação não consensual de uma transmissão ao vivo sexualmente sugestiva apresentando o democrata da Virgínia e seu marido. Poucos meses depois de sua perda, Gibson disse a 19 que teve notícias dele Mulheres jovens são desencorajadas de concorrer a cargos públicos Por medo de usar fotos íntimas para assediá-los. Desde então, Gibson iniciou uma organização sem fins lucrativos dedicada a combater o assédio sexual baseado em imagem e um Comitê de Ação Política Acompanhante Apoiar mulheres candidatas contra violações de privacidade íntima.
Maddox estudou como as mulheres que falam em público têm maior probabilidade de serem vítimas de violência sexual digital.
“Há muito tempo que temos um padrão de que as mulheres devem ser vistas e não ouvidas, o que me faz pensar Escrita e pesquisa de Mary Beard A ideia de que a feminilidade é contrária ao discurso público. Então, quando as mulheres falam publicamente, é quase como, ‘Tudo bem. Hora de envergonhá-los. Hora de roubá-los. Hora de voltar para casa. É hora de manter o silêncio. E esse silêncio e essa motivação vergonhosa… precisamos entender como esse dano está se desdobrando no que se refere às congressistas”.
ASP está incentivando o Congresso a aprovar legislação federal. D Interrompa a Lei de Fotos Falsas Óbvias e Edição Não Consentual de 2024Também conhecido como Defiance Act, permite que qualquer pessoa que crie, compartilhe ou receba tais imagens seja processada. Anote a lei Tal atividade incluiria responsabilidade criminal e exigiria que as empresas de tecnologia removessem deepfakes. Ambos os projetos foram aprovados no Senado com apoio bipartidário, mas na Câmara é necessário lidar com as preocupações sobre a liberdade de expressão e as definições de danos, obstáculos comuns à política tecnológica.
“Seria um abandono do dever do Congresso deixar esta sessão terminar sem aprovar pelo menos um desses projetos de lei”, disse Jankovich, acrescentando: “Esta é uma forma pela qual a inteligência artificial está prejudicando os verdadeiros americanos neste momento. , não é algo que imaginamos.” tem que fazer
Na ausência de ação do Congresso, a Casa Branca fez Colaborou com o setor privado Conceituar soluções criativas para prevenir o assédio sexual baseado em imagem. mas Os críticos não estão otimistas Sobre a capacidade da Big Tech de se auto-regular dado o seu histórico de danos causados pela sua plataforma.
“É muito fácil para os criminosos criarem este conteúdo e os sinais não visam apenas uma mulher”, disse Jankowicz. “É para mulheres de todos os lugares, dizendo: ‘Se você tomar essa atitude, se levantar a voz, esta é uma consequência com a qual você terá que lidar.’
Se você for vítima de assédio sexual baseado em imagem, então Iniciativa de Direitos Civis Cibernéticos Mantém um inventário de ativos legais.