Um tribunal de apelações dos EUA retomou na terça-feira uma ação movida pela mãe de uma menina de 10 anos da Pensilvânia que morreu ao tentar fazer um desafio viral que ela supostamente viu no TikTok, desafiando as pessoas a se enforcarem até perderem a consciência.
Embora a lei federal geralmente proteja os editores on-line de responsabilidade por conteúdo postado por terceiros, o tribunal disse que o TikTok poderia ser considerado responsável por promover o conteúdo ou usar um algoritmo para direcioná-lo a crianças.
“O TikTok faz escolhas sobre o conteúdo recomendado e promovido para usuários específicos e, ao fazer isso, está envolvido em seu próprio discurso de primeira parte”, escreveu a juíza Patty Shwartz do 3º Tribunal do Circuito dos EUA na Filadélfia na opinião emitida na terça-feira.
Os advogados da empresa controladora do TikTok, a ByteDance, não retornaram imediatamente as mensagens telefônicas e de e-mail solicitando comentários.
Os advogados da mãe, Tawainna Anderson, argumentaram que o chamado “desafio do apagão”, que foi popular em 2021, apareceu no feed “Para Você” de Nylah Anderson depois que o TikTok determinou que ela poderia assisti-lo — mesmo depois que outras crianças morreram tentando.
A mãe de Nylah Anderson a encontrou inconsciente no armário de sua casa em Chester, perto da Filadélfia, e tentou ressuscitá-la. A menina, descrita por sua família como uma “borboleta” divertida, morreu cinco dias depois.
Receba as últimas notícias nacionais
Para notícias que impactam o Canadá e o mundo todo, inscreva-se para receber alertas de notícias de última hora diretamente na sua caixa de entrada quando elas acontecerem.
“Não consigo parar de reviver aquele dia na minha cabeça”, disse sua mãe em uma entrevista coletiva em 2022, quando entrou com o processo. “É hora de esses desafios perigosos chegarem ao fim para que outras famílias não passem pela tristeza que vivemos todos os dias.”
Um juiz distrital inicialmente indeferiu o processo, citando a Seção 230 da Lei de Decência nas Comunicações de 1996, que é frequentemente usada para proteger empresas de internet de responsabilidade por coisas publicadas em seus sites.
O painel de três juízes do tribunal de apelações reverteu parcialmente a decisão na terça-feira, enviando o caso de volta ao tribunal inferior para julgamento.
“Nylah, ainda no primeiro ano de sua adolescência, provavelmente não tinha ideia do que estava fazendo ou que acompanhar as imagens em sua tela a mataria. Mas o TikTok sabia que Nylah assistiria porque o algoritmo personalizado da empresa colocou os vídeos em sua ‘Página Para Você’”, escreveu o juiz Paul Matey em uma concordância parcial com a opinião.
Jeffrey Goodman, advogado da família, disse que é “inevitável” que os tribunais deem mais escrutínio à Seção 230, já que a tecnologia alcança todas as facetas de nossas vidas. Ele disse que a família espera que a decisão ajude a proteger os outros, mesmo que não traga Nylah Anderson de volta.
“A opinião de hoje é a declaração mais clara até o momento de que a Seção 230 não fornece essa proteção abrangente que as empresas de mídia social têm alegado que fornece”, disse Goodman.
&cópia 2024 A Imprensa Canadense