Mãe Busca Justiça: Tribunal dos EUA avalia Caso da TikTok após tragédia no Desafio do Apagão

Tawainna Anderson e sua filha Nylah. Foto: Reprodução / Internet.

Debate Jurídico sobre Responsabilidade da TikTok em caso de Morte de Criança renova discussões sobre Lei de Decência nas Comunicações

Por Schirley Passos|GNEWSUSA

Em uma audiência realizada em 17 de janeiro, um tribunal de apelações nos Estados Unidos analisou a viabilidade de processar a plataforma de mídia social TikTok pela morte de uma criança de 10 anos, ocorrida durante um perigoso “desafio do apagão”. Tawainna Anderson, mãe da vítima, alega que a TikTok, por meio de seu algoritmo, recomendou vídeos perigosos que contribuíram para a fatalidade.

O painel de três juízes do 3º Tribunal de Apelações do Circuito dos EUA, sediado na Filadélfia, discutiu os limites da proteção legal oferecida pela Seção 230 da Lei de Decência nas Comunicações. Essa lei costuma isentar plataformas online de responsabilidade pelo conteúdo gerado pelos usuários, mas a complexidade dos algoritmos modernos levanta questões sobre a extensão dessa proteção.

O caso foi movido por Tawainna Anderson contra a TikTok e sua controladora chinesa ByteDance, após sua filha Nylah perder a vida ao participar do desafio do apagão em 2021. O advogado de Anderson argumentou que, apesar da proteção da Seção 230, a TikTok pode ser responsabilizada por alegados defeitos no produto e pela recomendação contínua de conteúdo perigoso.

Tawainna Anderson, da Pensilvânia (nos EUA), relata que a filha Nylah morreu sufocada no ano passado ao tentar o desafio viral, que incentiva as pessoas a se gravarem prendendo a respiração ou se estrangulando até desmaiar. A mãe levou a criança às pressas para um hospital em 7 de dezembro, mas a menina não resistiu a algumas complicações e morreu em 12 de dezembro.

Nylah Anderson. Foto: Reprodução/Internet.

Em resposta, o advogado da TikTok defendeu a aplicação da Seção 230, alertando que uma decisão contrária tornaria as proteções legais “sem sentido”. Esse debate reflete preocupações globais sobre a segurança de crianças em plataformas online, amplificando a pressão sobre empresas como TikTok e Meta Platforms (controladora do Facebook e Instagram) para garantir um ambiente digital seguro.

Além disso, destaca-se que as redes sociais enfrentam não apenas processos judiciais individuais, como este, mas também investigações de autoridades estaduais nos EUA quanto aos impactos na saúde física e mental dos jovens. Este caso específico ressalta a necessidade de uma análise cuidadosa sobre a responsabilidade legal das plataformas de mídia social em relação ao conteúdo perigoso e seu impacto potencial na segurança das crianças online.

Seja o primeiro a comentar

Faça um comentário

Seu e-mail não será publicado.


*