1 em cada 6 congressistas é alvo de deepfakes sexualmente explícitos gerados por IA


Mais de duas dúzias de membros do Congresso foram vítimas de deepfakes sexualmente explícitos – e a esmagadora maioria das pessoas afetadas são mulheres, de acordo com um novo estudo que destaca a gritante disparidade de género nesta tecnologia e os riscos crescentes para a participação das mulheres na política e outras formas de envolvimento cívico.

O Projeto Americano de Luz Solar (ASP)um think tank que pesquisa a desinformação e defende políticas que promovam a democracia, divulgou resultados na quarta-feira que identificaram mais de 35.000 menções a imagens íntimas não consensuais (NCII) representando 26 membros do Congresso – 25 mulheres e um homem – que foram encontradas recentemente em deepfake. sites. A maioria das imagens foi rapidamente removida enquanto os pesquisadores compartilhavam suas descobertas com os membros do Congresso afetados.

“Precisamos levar em conta esse novo ambiente e o fato de que a Internet abriu tantos desses danos que atingem desproporcionalmente as mulheres e as comunidades marginalizadas”, disse Nina Jankowicz, especialista em desinformação e assédio online que fundou o The American Sunlight. Projeto e é autor do estudo.

Imagens íntimas não consensuais, também conhecidas coloquialmente como pornografia deepfake embora os defensores prefiram o primeiropode ser criado por meio de IA generativa ou por sobreposição de fotos de rostos de artistas adultos na mídia. Atualmente existe uma política limitada para restringir a sua criação e propagação.

ASP compartilhou as descobertas inéditas exclusivamente com o The 19th. O grupo coletou dados em parte desenvolvendo um mecanismo de busca personalizado para encontrar membros do 118º Congresso por nome e sobrenome, e abreviações ou apelidos, em 11 sites deepfake bem conhecidos. Nem a filiação partidária nem a localização geográfica tiveram impacto na probabilidade de serem alvo de abusos, embora os membros mais jovens tivessem maior probabilidade de serem vítimas. O maior factor foi o género, com as mulheres membros do Congresso a terem 70 vezes mais probabilidades do que os homens de serem visadas.

A ASP não divulgou os nomes dos parlamentares retratados nas imagens, para evitar incentivos às buscas. Eles contataram os escritórios de todos os afetados para alertá-los e oferecer recursos sobre danos online e apoio à saúde mental. Os autores do estudo observam que imediatamente depois, as imagens direcionadas à maioria dos membros foram total ou quase totalmente removidas dos sites – um fato que eles não conseguem explicar. Os pesquisadores observaram que tais remoções não impedem que o material seja compartilhado ou carregado novamente. Em alguns casos envolvendo legisladores, as páginas de resultados de pesquisa permaneceram indexadas no Google, apesar do conteúdo ter sido em grande parte ou totalmente removido.

“A remoção pode ser coincidência. Independentemente do que exatamente levou à remoção deste conteúdo – sejam cartas de ‘cessar e desistir’, alegações de violação de direitos autorais ou outro contato com sites que hospedam abusos de deepfake – isso destaca uma grande disparidade de privilégios”, de acordo com o estudo. “É altamente improvável que as pessoas, especialmente as mulheres, que não dispõem dos recursos concedidos aos membros do Congresso obtenham esta resposta rápida dos criadores e distribuidores do NCII gerado por IA se elas próprias iniciarem um pedido de remoção.”

De acordo com as conclusões iniciais do estudo, quase 16% de todas as mulheres que atualmente servem no Congresso – ou cerca de 1 em cada 6 congressistas – são vítimas de imagens íntimas não consensuais geradas por IA.

Jankowicz tem sido alvo de assédio e ameaças online pelo seu trabalho nacional e internacional de desmantelamento da desinformação. Ela também falou publicamente sobre ser vítima de abuso de deepfake – fato que ela descobriu por meio de um Alerta do Google em 2023.

“Você pode aparecer nessas situações íntimas e comprometidas sem o seu consentimento, e esses vídeos, mesmo que você diga, buscam uma reivindicação de direitos autorais contra o postador original, – como no meu caso – eles proliferam pela Internet sem o seu controle e sem algum tipo de consequência para as pessoas que estão amplificando ou criando pornografia deepfake”, disse ela. “Isso continua a ser um risco para qualquer pessoa que esteja sob os olhos do público, que participe no discurso público, mas em particular para as mulheres e para as mulheres de cor.”

O abuso sexual baseado em imagens pode ter efeitos devastadores na saúde mental das vítimas, que incluem pessoas comuns que não estão envolvidas na política – incluindo crianças. No ano passado, houve relatos de meninas do ensino médio que foram alvo de abuso sexual baseado em imagens em estados como Califórnia, Nova Jersey e Pensilvânia. Os funcionários da escola tiveram vários graus de resposta, embora o O FBI também emitiu um novo aviso que compartilhar tais imagens de menores é ilegal.

O impacto total dos deepfakes na sociedade ainda está em foco, mas pesquisar já mostra que 41% das mulheres entre 18 e 29 anos se autocensuram para evitar o assédio online.

“Essa é uma ameaça extremamente poderosa à democracia e à liberdade de expressão, se tivermos quase metade da população a silenciar-se porque tem medo do assédio que poderá sofrer”, disse Sophie Maddocks, diretora de investigação do Centro para mídia em risco na Universidade da Pensilvânia.

Não existe nenhuma lei federal que estabeleça penalidades criminais ou civis para alguém que gere e distribua imagens íntimas não consensuais geradas por IA. Cerca de uma dúzia de estados promulgaram leis nos últimos anosembora a maioria inclua sanções civis, e não criminais.

Imagens íntimas não consensuais geradas por IA também abrem ameaças à segurança nacional criando condições para chantagens e concessões geopolíticas. Isso poderia ter efeitos em cascata sobre os decisores políticos, independentemente de serem ou não directamente o alvo das imagens.

“Minha esperança aqui é que os membros sejam levados a agir quando reconhecerem que isso não apenas está afetando as mulheres americanas, mas também as afeta”, disse Jankowicz. “Isso está afetando seus próprios colegas. E isso está acontecendo simplesmente porque eles estão sob os olhos do público.”

O abuso sexual baseado em imagens é um risco único para as mulheres que concorrem a cargos públicos. Susanna Gibson perdeu por pouco sua competitiva disputa legislativa depois que um agente republicano compartilhou gravações não consensuais de transmissões ao vivo sexualmente explícitas apresentando o democrata da Virgínia e seu marido com o The Washington Post. Nos meses após sua perda, Gibson disse ao The 19th que ela ouviu falar de mulheres jovens desencorajadas de concorrer a cargos públicos por medo de que imagens íntimas sejam usadas para assediá-los. Desde então, Gibson iniciou uma organização sem fins lucrativos dedicada a combater o abuso sexual baseado em imagens e um comitê de ação política acompanhante apoiar mulheres candidatas contra violações da privacidade íntima.

Maddocks estudou como as mulheres que falam em público têm maior probabilidade de sofrer violência sexual digital.

“Temos este padrão há muito mais tempo, ‘as mulheres devem ser vistas e não ouvidas’, que me faz pensar sobre Escrita e pesquisa de Mary Beard nesta ideia de que a feminilidade é a antitética do discurso público. Então, quando as mulheres falam publicamente, é quase como, ‘OK. Hora de envergonhá-los. Hora de despi-los. Hora de trazê-los de volta para casa. É hora de envergonhá-los e fazê-los ficar em silêncio. E esse silenciamento e essa motivação vergonhosa… temos que entender isso para entender como esse dano está se manifestando no que se refere às congressistas.”

ASP está incentivando o Congresso a aprovar legislação federal. O Lei de interrupção de imagens forjadas explícitas e edições não consensuais de 2024também conhecida como Lei DEFIANCE, permitiria que as pessoas processassem qualquer pessoa que criasse, compartilhasse ou recebesse tais imagens. A lei de derrubar incluiria responsabilidade criminal por tal atividade e exigiria que as empresas de tecnologia eliminassem deepfakes. Ambos os projetos foram aprovados no Senado com apoio bipartidário, mas precisam lidar com as preocupações em torno da liberdade de expressão e prejudicar as definições, que são obstáculos típicos à política tecnológica, na Câmara.

“Seria um abandono do dever do Congresso deixar esta sessão expirar sem aprovar pelo menos um desses projetos de lei”, disse Jankowicz. “É uma das maneiras pelas quais os danos da inteligência artificial estão realmente sendo sentidos pelos verdadeiros americanos neste momento. Não é um dano futuro. Não é algo que tenhamos que imaginar.”

Na ausência de acção do Congresso, a Casa Branca colaborou com o setor privado conceber soluções criativas para coibir o abuso sexual baseado em imagens. Mas os críticos não estão otimistas sobre a capacidade da Big Tech de se auto-regular, dado o histórico de danos causados ​​pelas suas plataformas.

“É muito fácil para os perpetradores criarem este conteúdo, e o sinal não é apenas para a mulher individualmente visada”, disse Jankowicz. “É para mulheres de todos os lugares, dizendo: ‘Se você der este passo, se levantar a voz, esta é uma consequência com a qual você poderá ter que lidar.’”

Se você foi vítima de abuso sexual baseado em imagem, o Iniciativa de Direitos Civis Cibernéticos mantém uma lista de recursos legais.

Este artigo foi publicado originalmente em The Markup e foi republicado sob o Atribuição Creative Commons-NãoComercial-SemDerivativos licença.



Source link

LEAVE A REPLY

Please enter your comment!
Please enter your name here