Microsoft fez parceria com para ajudar a remover imagens íntimas não consensuais — incluindo deepfakes — de seu mecanismo de busca Bing.
Quando uma vítima abre um “caso” com o StopNCII, o banco de dados cria uma impressão digital, também chamada de “hash”, de uma imagem ou vídeo íntimo armazenado no dispositivo desse indivíduo sem que ele precise fazer upload do arquivo. O hash é então enviado para parceiros participantes da indústria, que podem procurar correspondências para o original e removê-los de sua plataforma se isso violar suas políticas de conteúdo. O processo também se aplica a deepfakes gerados por IA de uma pessoa real.
Várias outras empresas de tecnologia concordaram em trabalhar com a StopNCII para limpar imagens íntimas compartilhadas sem permissão. Meta a ferramenta e a utiliza em suas plataformas Facebook, Instagram e Threads; outros serviços que fizeram parceria com o esforço incluem Reddit, Snap, Niantic, OnlyFans, PornHub, Playhouse e Redgifs.
Ausente dessa lista está, estranhamente, o Google. O gigante da tecnologia tem seu próprio conjunto de para relatar imagens não consensuais, incluindo . No entanto, não participar de um dos poucos lugares centralizados para eliminar pornografia de vingança e outras imagens privadas sem dúvida coloca um fardo adicional sobre as vítimas, que precisam adotar uma abordagem fragmentada para recuperar sua privacidade.
Além de esforços como StopNCII, o governo dos EUA tomou algumas medidas neste ano para abordar especificamente os danos causados pelo lado deepfake de imagens não consensuais. O apelou por uma nova legislação sobre o assunto, e um grupo de senadores se moveu para proteger as vítimas com , introduzido em julho.
Se você acredita que foi vítima de compartilhamento não consensual de imagens íntimas, você pode abrir um caso com o StopNCII e o Google ; se você tiver menos de 18 anos, pode registrar um relatório no NCMEC .