Os algoritmos do Facebook acham que uma pequena comunidade inglesa não é boa


Pense um pouco no povo de Coulsdon, na Inglaterra, que diz estar sendo categoricamente oprimido pela mão pesada da censura algorítmica por nenhuma outra razão além da grafia aparentemente inócua do nome de sua cidade.

De acordo com o blog de notícias local Dentro de Croydonproprietários de empresas e associações de bairros da cidade tiveram conteúdo removido de suas páginas do Facebook porque os algoritmos de moderação de conteúdo da plataforma estão captando o “LSD” em Coulsdon como uma referência à droga psicodélica.

O blog, citando fontes locais que não quiseram ser identificadas, disse que as páginas de teatros locais, lojas de ferragens, grupos históricos e associações de moradores foram todas afetadas pela censura e que o Facebook não resolveu o problema, apesar das múltiplas reclamações.

“Contanto que tenha ‘Coulsdon’ no título, você terá a referência às drogas de que não há como evitar”, disse uma fonte anônima ao Inside Croydon.

Em uma breve declaração, Dave Arnold, porta-voz da empresa controladora do Facebook, Meta, disse que “este foi um erro que agora foi corrigido”.

Não seria a primeira vez que os filtros do Facebook bloquearam postagens contendo conteúdo inofensivo– ou possivelmente informações que salvam vidas.

Em 2021, Facebook pediu desculpas a alguns usuários ingleses por censurarem e banirem pessoas que postaram sobre Plymouth Hoe, um marco na cidade costeira de Plymouth.

O Washington Post relatado no início deste ano, enquanto os incêndios florestais assolavam a Costa Oeste, os algoritmos da empresa censuravam postagens sobre os incêndios em grupos locais de gerenciamento de emergências e segurança contra incêndio. Em dezenas de exemplos documentados pelo jornal, o Facebook sinalizou as postagens como spam “enganoso”.

Os administradores de grupos do Facebook também notaram anteriormente padrões de postagens em suas comunidades que continham a palavra “homens” sendo sinalizadas como discurso de ódio, de acordo com Vice. O fenômeno levou à criação do facebookjailed.com, onde os usuários documentavam decisões bizarras de moderação, como um foto de uma galinha sendo rotulada como nudez ou atividade sexual.

Os próprios dados do Facebook mostram que a sua forte dependência de algoritmos para policiar o conteúdo da plataforma leva a milhões de erros todos os meses.

De acordo com sua moderação mais recente dadoso Facebook realizou 1,7 milhão de ações de fiscalização sobre conteúdo relacionado a drogas entre abril e junho deste ano. Cerca de 98% desse conteúdo foi detectado pela empresa, em comparação com apenas 2% relatados pelos usuários. As pessoas apelaram das sanções em 182 mil casos e o Facebook acabou restaurando mais de 40 mil conteúdos—11.700 sem necessidade de recurso e 28.500 após recurso.

Os algoritmos que visam outros tipos de conteúdo proibido, como spam, resultam em ainda mais erros. A plataforma restaurou quase 35 milhões de postagens rotuladas erroneamente como spam durante o período mais recente de três meses, mais de 10% do conteúdo supostamente spam que ela removeu anteriormente.



Source link