TikTok prueba un sistema de clasificación de contenidos basado en la edad para proteger a los usuarios más jóvenes

0


TikTok está probando un sistema de clasificación de contenidos que impedirá que los contenidos inapropiados para la edad aparezcan en los vídeos de los usuarios más jóvenes.


TikTok está trabajando en un sistema de clasificación de contenidos -algo similar al sistema de clasificación G, PG, PG-13, R o NC-17- para evitar que los contenidos sugerentes o maduros lleguen a los usuarios más jóvenes. Últimamente, TikTok ha recibido muchas críticas por el tipo de contenido al que están expuestos sus usuarios más jóvenes, con un alcance de contenido problemático que incluye desde "trampas de sed" hasta violencia e información errónea relacionada con la salud.


De hecho, la empresa ha recibido recientemente una advertencia del gobierno de Estados Unidos por su papel en la venta en línea de drogas que han contribuido a múltiples víctimas relacionadas con las sobredosis. En el Reino Unido, los legisladores han vuelto a proponer el uso de la verificación de la edad para frenar los problemas de contenido. En una comparecencia ante el Comité de Comercio del Senado en octubre del año pasado, TikTok reveló que está trabajando en sistemas que eliminarán los contenidos en función de la "adecuación a la edad o la comodidad familiar".



Ahora, TikTok ha esbozado una amplia gama de cambios que pretenden proteger a su comunidad, especialmente a los usuarios que corren el riesgo de exponerse a contenidos poco saludables o a abusos en línea. TikTok también está trabajando en un sistema de clasificación de contenidos similar al de las películas, que actualmente se está probando internamente, según informa Protocol. La clasificación del contenido no aparecerá etiquetada junto al vídeo en sí, sino que se utilizará internamente para clasificar los vídeos antes de que se publiquen. Los vídeos "demasiado maduros" que se consideren aptos para un público adulto no podrán aparecer en la línea de tiempo de los usuarios que pertenezcan a un grupo de edad vulnerable. En julio del año pasado, TikTok automatizó el proceso de eliminación de vídeos que violaban sus políticas de contenido, con el sistema entrenado para buscar específicamente elementos objetables como la actividad sexual, el contenido violento o gráfico que podría ser especialmente dañino o traumatizante para la audiencia más joven de TikTok.



Movimiento correcto, ejecución complicada



Según TechCrunch, los usuarios podrán especificar los niveles de madurez del contenido o "zonas de confort" que quieren ver en la aplicación. Para los usuarios más jóvenes, los padres y tutores tomarán esa decisión en su nombre mediante la función de control parental Family Pairing. Instagram ya ha puesto en marcha un sistema que permite a los usuarios especificar el nivel de sensibilidad en lo que respecta a los medios de comunicación que se empuja a su feed por el algoritmo de contenido.


La plataforma para compartir vídeos cortos también está preparando un sistema para los usuarios que permitirá a los creadores de contenidos especificar si un vídeo debe estar restringido a un público adulto o si también es adecuado para los usuarios más jóvenes. Sin embargo, la medida podría dar lugar a otros problemas. YouTube ya ha sido objeto de controversia en relación con la supresión de vídeos que fueron considerados erróneamente inapropiados por sus sistemas. Esto ha sido particularmente un problema para los vídeos con temas LGBTQ+, o los que representan elementos que son extraños o considerados inapropiados por las normas culturales occidentales pero que están bien en otros lugares. El sistema de clasificación de contenidos de TikTok se está probando actualmente en un círculo muy reducido de usuarios, y no se sabe cuándo se aplicará de forma generalizada.



Entradas que pueden interesarte