Madre cuya hija murió en desafío de TikTok pide a tribunal reactivar demanda por mortal reto viral

En diciembre de 2021, Nylah Anderson, de 10 años, murió estrangulada cuando intentó realizar un reto de TikTok llamado ‘Blackout Challenge’. Cinco meses después, su madre presentó una demanda contra de la red social al considerar que este tipo de desafíos peligrosos y sin sentido deben detenerse.

A más de dos años de aquel trágico momento, un tribunal de apelaciones de Estados Unidos debatió si la plataforma de redes sociales basada en videos TikTok podría ser demandada por causar la muerte de una niña de 10 años al promover un mortal desafío que animaba a las personas a estrangularse.

Los miembros de un panel de tres jueces del Tribunal de Apelaciones del Tercer Circuito de EE.UU. UU. con sede en Filadelfia señalaron durante los argumentos orales que una ley federal clave normalmente protege a las empresas de Internet como TikTok de demandas por el contenido publicado por los usuarios.

Pero algunos jueces cuestionaron si el Congreso, al adoptar la Sección 230 de la Ley de Decencia en las Comunicaciones en 1996, podría haber imaginado el crecimiento de plataformas como TikTok que no sólo alojan contenido sino que lo recomiendan a los usuarios utilizando algoritmos complejos.

“Creo que probablemente todos podamos estar de acuerdo en que esta tecnología no existía a mediados de la década de 1990, o no estaba tan ampliamente implementada como lo está ahora”, dijo el juez de circuito estadounidense Paul Matey.

Tawainna Anderson demandó a TikTok y su empresa matriz china ByteDance después de que su hija Nylah en 2021 intentara el ‘Blackout Challenge’ usando la correa de un bolso colgado en el armario de su madre. Perdió el conocimiento, sufrió heridas graves y murió cinco días después.

El abogado de Anderson, Jeffrey Goodman, dijo al tribunal que si bien la Sección 230 brinda a TikTok cierta protección legal, no prohíbe las afirmaciones de que su producto era defectuoso y que su algoritmo envió videos sobre el desafío del apagón al niño.

“Se trataba de TikTok enviando constantemente desafíos peligrosos a una niña impresionable de 10 años, enviando múltiples versiones de este desafío, lo que la llevó a creer que esto era genial y sería divertido”, dijo Goodman.

Pero el abogado de TikTok, Andrew Pincus, argumentó que el panel debería confirmar el fallo de un juez de primera instancia de octubre de 2022  de que la Sección 230 prohibía el caso de Anderson.

Pincus advirtió que fallar en contra de su cliente haría que las protecciones de la Sección 230 “carecieran de sentido” y abriría la puerta a demandas contra motores de búsqueda y otras plataformas que utilizan algoritmos para seleccionar contenido para sus usuarios.

“Cada reclamante podría entonces decir que se trataba de un defecto del producto, de la forma en que se diseñó el algoritmo”, dijo.

Sin embargo, la jueza de circuito estadounidense Patty Schwartz cuestionó si esa ley podría proteger completamente a TikTok de “tener que tomar una decisión sobre si iba a permitir que alguien que encendiera la aplicación supiera que hay contenido peligroso aquí”.

Los fiscales generales estatales de EE. UU. están investigando a TikTok sobre si la plataforma causa daños a la salud física o mental de los jóvenes.

TikTok y otras empresas de redes sociales también enfrentan cientos de demandas que las acusan de atraer y hacer adictos a millones de niños a sus plataformas, dañando su salud mental.