Usted está aquí
El tipo de contenido que TikTok está eliminando de su plataforma
Un total de 104,5 millones de videos, en medio de 1,800 solicitudes legales; y 10,600 avisos de eliminación por derechos de autor durante la primera mitad de este año, recibió la aplicación china TikTok durante el primer semestre del 2020.
La herramienta propiedad de ByteDance aprovechó de hacer una limpieza general de contenido que pudiera estar colocando en problemas la seguridad de la app.
Esto en la antesala de una posible transferencia de su propiedad a la estadounidense Oracle para seguir en el mercado norteamericano.
¿Qué tipo de contenido elimina TikTok?
TikTok resaltó que el total de 104,543,719 videos que eliminó a nivel mundial fueron por violar las pautas de la comunidad o sus términos de servicio representaron menos del 1% de todos los videos cargados.
TikTok dijo que el 96.4% del número total se eliminó antes de que se informara, y el 90.3% se eliminó antes de recibir vistas.
“Como resultado de la pandemia de coronavirus, confiamos más en la tecnología para detectar y eliminar automáticamente el contenido infractor en mercados como India, Brasil y Pakistán”, señaló la compañía.
La empresa señala que la categoría más grande de videos eliminados fue la desnudez de adultos y las actividades sexuales, en un 30.9%, con seguridad menor en un 22.3% y actividades ilegales en un 19.6%. Otras categorías incluyeron suicidio y autolesión, contenido violento, discurso de odio e individuos peligrosos.
Unos 321,786 videos (alrededor del 3.3% de las eliminaciones de contenido de EEUU) Violaron sus políticas de incitación al odio.
Coalición de redes sociales
Por otro lado, TikTok está haciendo una propuesta en Reino Unido para formar una coalición de redes sociales para tratar de reducir el abuso en estas plataformas.
Esto es lo que escribió al respecto en una carta, Vanessa Pappas, directora de la empresa china:
“Recientemente, las plataformas sociales y de contenido han vuelto a ser desafiadas por la publicación y publicación cruzada de contenido suicida explícito que nos ha afectado a todos, así como a nuestros equipos, usuarios y comunidades en general…Como cada uno de ustedes, trabajamos diligentemente para mitigar su proliferación eliminando el contenido original y sus muchas variantes, y evitando que otros lo vean o compartan. Sin embargo, creemos que cada uno de nuestros esfuerzos individuales para proteger a nuestros propios usuarios y a la comunidad colectiva se vería impulsado de manera significativa a través de un enfoque formal y colaborativo para la identificación y notificación tempranas entre los participantes de la industria de contenido gráfico extremadamente violento, incluido el suicidio.
Con este fin, nos gustaría convocar una reunión de nuestros respectivos equipos de Confianza y Seguridad para discutir más a fondo dicho mecanismo, que creemos que nos ayudará a todos a mejorar la seguridad de nuestros usuarios.
Esperamos su respuesta positiva y trabajar juntos para ayudar a proteger a nuestros usuarios y a la comunidad en general”, concluyó.