Em 2021, uma menina de 10 anos chamada Nylah Anderson morreu acidentalmente engasgada com uma coleira de cachorro que ela tinha enrolada no pescoço. Anderson foi compelida a se envolver nesse comportamento perigoso pelo “desafio do apagão,” um jogo viral que circulava no TikTok na época. Em 2022, a Bloomberg relatou que esse desafio, que encorajava crianças a se engasgarem com itens domésticos e depois filmarem sua própria perda de consciência (e, na maioria dos casos, a subsequente recuperação), foi associado a até 20 mortes.
Um tribunal decidiu anteriormente que a mãe de Anderson, Tawainna Anderson, não poderia processar o TikTok por causa da Seção 230, a controversa lei da internet que concede às plataformas de internet imunidade legal para o conteúdo postado por terceiros em seus sites. Agora, um tribunal dos EUA tentou anular essa decisão anterior, dizendo que o TikTok terá que se defender contra o processo sem usar a Seção 230 como desculpa para suas ações.
Em uma opinião proferida pelo Tribunal de Apelações do Terceiro Circuito na Pensilvânia, um painel de três juízes argumentou que o TikTok não pode se esconder atrás da lei da internet para se proteger de processos. De fato, a opinião argumenta que a filha de Anderson não se deparou com o “desafio do apagão” por acaso enquanto examinava o site do TikTok. Em vez disso, o algoritmo da plataforma serviu à filha de Anderson o “desafio” por meio de sua “Página Para Você”, o que indica que o site desempenhou um papel ativo na distribuição do material.
“O algoritmo do TikTok não se baseia somente nas entradas online de um usuário”, diz a decisão. “Em vez disso, o algoritmo seleciona e recomenda uma compilação personalizada de vídeos para o FYP de um usuário com base em uma variedade de fatores, incluindo a idade do usuário e outros dados demográficos, interações online e outros metadados.” Isso sinaliza que o TikTok não estava apenas hospedando passivamente o conteúdo, mas estava ativamente alimentando-o para a menina. “Os ICSs são imunizados somente se forem processados pela atividade expressiva ou conteúdo de outra pessoa (ou seja, discurso de terceiros), mas não são imunizados se forem processados por sua própria atividade expressiva ou conteúdo”, continua a decisão.
Uma decisão judicial anterior sustentou que “o algoritmo de uma plataforma que reflete ‘julgamentos editoriais’ sobre ‘compilar o discurso de terceiros que deseja da maneira que deseja’ é o próprio ‘produto expressivo’ da plataforma e, portanto, é protegido pela Primeira Emenda”, afirma a opinião. Como tal, se esses algoritmos contam como “discurso” das plataformas, então esse conteúdo não é passivo e, portanto, não é protegido pela 230, argumentam os juízes.
Um juiz, o Juiz Paul Matey, escreveu em uma concordância jurídica parcial anexada à opinião que a Seção 230 havia evoluído para longe da intenção original da lei e agora se tornou um estatuto que “imuniza as plataformas das consequências de sua própria conduta e permite que as plataformas ignorem a obrigação comum que a maioria das empresas tem de tomar medidas razoáveis para evitar que seus serviços causem danos devastadores”.
O Gizmodo entrou em contato com o TikTok para comentar.
A decisão do tribunal obviamente levanta grandes questões sobre o futuro da Seção 230, bem como sobre o futuro da indústria de mídia social. Por anos, as plataformas de mídia social operaram amplamente como caixas-pretas, usando algoritmos secretos de código fechado que manipulam com quais tipos de conteúdo os usuários do site interagem. Essa curadoria algorítmica sem dúvida teve muitos efeitos colaterais negativos. Algoritmos foram responsabilizados pela radicalização política, doenças de saúde mental e, em casos como esse, encorajando crianças a se envolverem em comportamentos perigosos ou arriscados. Se os algoritmos das empresas se tornarem uma fonte de litígio no futuro, isso pode mudar drasticamente a maneira como elas hospedam conteúdo — o que, por sua vez, mudaria drasticamente o formato da internet.