Conecta con nosotros

Mundo

TikTok muestra videos inapropiados a menores de edad en menos de diez minutos

Publicado hace

en

Solo se necesitan diez minutos para la aplicación de origen chino TikTok comience a mostrar videos alusivos al suicidio a niños de 13 años o menos.

De acuerdo a una investigación publicada por el grupo responsabilidad corporativa Ekō y compartida con VICE News, si un menor se registra y abre su cuenta en la aplicación de videos verticales cortos desarrollada en China, tomará diez minutos en que el algoritmo de recomendaciones inicie a mostrar videos no aptos para su edad.

El estudio realizado consistió en crear cuentas nuevas en Tik Tok y asignar la edad como 13 (la edad más joven que los usuarios pueden tener para unirse). Luego, imitaron a quienes se referían como “incels” o “célibes involuntarios”. Esto último es una comunidad en línea de “hombres jóvenes que conforman un vínculo en torno a su falta de éxito sexual con las mujeres”.

Según la publicación de VICE News, los investigadores descubrieron que después de ver 10 videos que tenían relación con “incel”, la sección “Para ti” se llenó de contenido similar. A pesar de la edad seleccionada.

A una cuenta del estudio le apareció un video que presentaba un fragmento de una película donde aparece el actor Jake Gyllenhaal, misma que aparentemente es popular entre la “comunidad incel”. En la película y en el clip se ve al actor con un rifle en la boca diciendo: “Dispárame. Dispárame en la maldita cara“. El video incluía un texto, que decía: “¿Recibir un disparo o verla con otra persona?“.

En los comentarios, se leía el apoyo de varios usuarios con relación al suicidio sugeridos. Mientras tanto, otros usuarios lamentaban su propia soledad. Un comentarista en particular hizo alusión a su propio suicidio.

El clip de Jake Gyllenhaal ha sido eliminado, pero obtuvo más de 440 mil me gusta, más de 2.1 millones de visitas, 7 mil 200 comentarios y más de 11 mil compartidos.

“Diez minutos y unos pocos clics en TikTok es todo lo que se necesita para caer en la madriguera del conejo de algunos de los contenidos más oscuros y dañinos en línea”,

expresó Maen Hammad, activista de Ekō y coautor de la investigación.

“El algoritmo te lleva a una espiral de depresión, desesperanza y autolesiones, y es terriblemente difícil salir de esa espiral una vez que el algoritmo cree que sabe lo que quieres ver”, agregó.

Recientemente, salió a la luz una demanda en la corte de California que detalla que la empresa china ByteDance, propietaria de la red social TikTok, está enterada de los efectos nocivos que podría tener su plataforma en niños y jóvenes.

Los documentos internos de ByteDance demuestran que la red social TikTok tiene bajo su conocimiento ciertas nociones que son perjudiciales para los jóvenes. Una de ellas es que los niños y adolescentes se dejan llevar por los videos que consumen en las redes sociales cuando son grabaciones de acrobacias peligrosas o retos que se hacen virales.