Quantcast

TikTok trabaja en nuevos formatos para clasificar y restringir sus contenidos por edad

TikTok está trabajando en nuevas formas de clasificar sus contenidos y restringirlos a ciertas audiencias según sus características y temáticas, con el objetivo de que los menores hallen mayores restricciones en el consumo de vídeos dirigidos a usuarios adultos.

La aplicación busca filtrar y organizar los vídeos en función de la «madurez del contenido y áreas temáticas más comfortables» para los usuarios, según ha señalado la jefa de Políticas de Emisión de TikTok, Tracy Elizabeth, en declaraciones recogidas por Engadget.

La directiva ha indicado que, una vez puesto en marcha este sistema de clasificación, los contenidos que hayan sido idetificados por contener temática adulta podrán ser restringidos a los usuarios según su edad para evitar que los adolescentes accedan a información dañina.

Por el contrario, para aquellos contenidos que contengan temas «menos maduros» o de temática abierta y no destinada concretamente a los adultos, los usuarios de la plataforma podrán decidir si visualizarlos u omitirlos.

Elizabeth ha señalado que el objetivo es el de ofrecer la posibilidad a los usuarios de elegir «la categoría con la que se sientan más cómodos» y, aunque solo ha comentado que se trata de un sistema «en fase de innovación», podría parecerse a una clasificación similar a la utilizada en películas o videojuegos.

ACTUALIZACIÓN DE SUS POLÍTICAS Y CONDICIONES DE USO

Estas aclaraciones derivan de un reciente comunicado emitido por la plataforma en el que se detalla la actualización de las políticas que TikTok lleva a cabo para promover la seguridad y el bienestar en su servicio.

Sobre el aspecto comentado por Elizabeth, desde la plataforma han señalado que cuando encuentran contenido que puede no ser apropiado para todos los públicos, hacen todo lo posible para eliminarlo del sistema de recomendaciones.

«La transparencia con nuestra comunidad es importante para nosotros y estas actualizaciones aclaran o amplían los tipos de comportamiento y contenido que eliminaremos de nuestra plataforma o que no aparecerán en la sección de recomendaciones ‘Para ti'», señala el director de Confianza y Seguridad de la plataforma y firmante del escrito, Cormac Keenan.

Estas actualizaciones, que se implementarán en las próximas semanas, incluyen el fortalecimiento de su política de bulos y retos peligrosos para ayudar a evitar que contenidos de este tipo continúen propagándose por la plataforma.

Aunque este aspecto formaba parte de la revisión de sus políticas de uso, con las que desarrolló en noviembre un nuevo recurso para su Centro de Seguridad, Keenan ha subrayado que ahora se destacará en un apartado separado de la categoría de suicidios y autolesiones para que la comunidad «se pueda familiarizar con estas normas».

Además, el directivo ha animado a la comunidad adolescente a colaborar en su trabajo por mantener la seguridad en la plataforma mediante la evaluación de retos ‘online’ que respondan a cuatro pasos: ‘Stop’ (Parar, tomar una pausa antes de continuar utilizando TikTok), ‘Think’ (Pensar, saber si se trata de un reto seguro, dañino o real), ‘Decide’ (Decidir, si hacerlo o no según el riesgo que implique) y ‘Act’ (Actuar, para informar a la plataforma sobre desafíos dañinos o engañosos, así como frenar su distribución).

Para fomentar esta comunicación con la plataforma, lanzará la próxima semana una serie de vídeos en los que se pide a los usuarios a seguir estas cuatro directrices desde la página ‘Descubrir’ y que incluirán la etiqueta #SaferTogether.

Con la actualización de su apartado de sus políticas de protección de los usuarios, TikTok centrará sus esfuerzos en ampliar su enfoque sobre los trastornos alimentarios. Además de eliminar los contenidos que promuevan los trastornos alimenticios, comenzará a borrar la promoción de prácticas nocivas para la salud con la ayuda de expertos en la materia, investigadores y médicos.

«Nuestro objetivo es reconocer más síntomas, como el exceso de ejercicio o el ayuno intermitente, que con frecuencia no se reconocen como signos de un problema potencial», según se indica en el comunicado.

TikTok también ha aclarado con esta nueva revisión de sus políticas los diferentes tipos de ideologías de odio prohibidas en la plataforma, como el ‘deadnaming’ -referirse a alguien transgénero con el nombre con el que fue bautizado-, malgenerización -uso de palabras para referirse a una persona que no se corresponden con su identidad de género- o la misoginia, así como el contenido que apoya los programas de terapia de conversión sexual.

Por último, TikTok planea ampliar sus políticas de protección de la integridad de sus usuarios, prohibiendo el acceso no autorizado a la plataforma, así como a las cuentas, el contenido o los datos de los usuarios con fines delictivos.

Con ello, el directivo ha anunciado que este año se están abriendo centros de investigación y monitoreo de incidentes cibernéticos de última generación y recopilación de información en Washington DC, Dublín y Singapur, en el marco del espacio de operaciones Fusion Center.

MÁS DE 91 MILLONES DE VÍDEOS ELIMINADOS

Junto con las nuevas políticas de seguridad de TikTok, la plataforma ha dado a conocer los resultados de su informe más reciente, en el que se expone el total de vídeos y cuentas eliminados por el incumplimiento de sus condiciones de uso, publicado este martes.

Los datos revelan que en total se eliminaron más de 91 millones de vídeos que infringían las normas de TikTok durante el tercer trimestre de 2021, lo que representa alrededor del 1 por ciento de todos los vídeos subidos a la plataforma.

De esos vídeos, el 95,1 por ciento se borró antes de que un usuario lo denunciara por contenido inadecuado, el 88,8 por ciento antes de que el vídeo recibiera visualizaciones y el 93,9 por ciento dentro de las primeras 24 horas posteriores a su publicación.

«Seguimos expandiendo nuestro sistema, que detecta y elimina determinadas categorías de infracciones al subir los vídeos, como los desnudos, las actividades sexuales, la seguridad de los menores y las actividades ilegales», que ha tenido como resultado un aumento del volumen de eliminaciones automáticas, tal y como ha apuntado Keenan en este comunicado.

Cabe recordar que el país con el mayor volumen de vídeos eliminados es Estados Unidos, donde se borraron un total de 13.918.537 vídeos desde el 1 de julio de 2021 al 30 de septiembre del mismo año, seguido por Indonesia (6.881.904), Brasil (6.173.414) Pakistán (6.019.754) y Rusia (5.906.859).