TikTok, YouTube y Snapchat defienden las estrategias implementadas para menores ante el Senado de EEUU

TikTok, Snapchat y YouTube han comparecido este martes ante el Senado de Estados de Unidos, donde han compartido su estrategia sobre los servicios que ofrecen a los niños y adolescentes usuarios de sus redes sociales y las medidas que adoptan para garantizar un ambiente seguro y sano, al tiempo que han aprovechado para adelantar algunos de los trabajos que están realizando en esta área.

El Comité de Comercio del Senado de Estados Unidos ha celebrado este martes una audiencia con representantes de tres de las aplicaciones juveniles más populares, TikTok, YouTube y Snap (matriz de Snapchat), con el objetivo de comprobar cómo tratan a su público, desde el diseño del algoritmo hasta los servicios que ofrecen y que pueden llegar dañar y entrometerse en la privacidad de los usuarios.

La audiencia, celebrada bajo el título: ‘Proteger a los niños en línea: Snapchat, TikTok y YouTube’, ha contado con la asistencia de la vicepresidenta de Políticas públicas globales en Snap, Jennifer Stout; el vicepresidente y director de Políticas públicas para las Américas en TikTok, Michael Beckerman; y la vicepresidenta de Asuntos gubernamentales y Políticas públicas de YouTube, Leslie Miller.

Los senadores son conscientes de que las redes sociales ofrecen oportunidades educativas y de entretenimiento a los niños y los adolescentes, pero «se han utilizado incorrectamente para dañar a los niños y promover actos destructivos, como el vandalismo en las escuelas, los desafíos virales mortales, el acoso, los trastornos alimentarios, el marketing de influencia manipuladora y el acoso sexual», como se recoge en la convocatoria.

COMPARECENCIA DE TIKTOK, YOUTUBE Y SNAPCHAT

En su intervención, los tres directivos han indicado que trabajan junto con padres, expertos y organizaciones especializadas para desarrollar los productos dirigidos a los menores de edad. Y que incorporan herramientas de gestión de privacidad y de control parental para la experiencia de los usuarios más jóvenes.

Asimismo, las tres redes sociales tienen establecida la edad mínima de uso en los 13 años (edad que puede variar en algunos países), y la suplantación de edad -vigilada por sistemas automáticos y moderadores- conlleva la eliminación de la cuenta. En el caso de YouTube y TikTok, existen versiones diseñadas para usuarios menores de dicha edad, con más controles y contenidos apropiados.

Sin embargo, cada red social tiene estrategias particulares respecto a los usuarios menores. En YouTube Kids, las recomendaciones que aparecen son apropiadas para la edad del usuario. También se han retirado aquellos contenidos de baja calidad, aunque no violen las directrices de la plataforma, y la compañía tiene unas exigencias diferentes para los creadores contenidos familiares e infantiles que quieran monetizar sus vídeos.

Los padres pueden crear una cuenta de Google supervisada, que limitará los contenidos de la versión normal de YouTube. No mostrará anuncios personalizados, aunque no están prohibidos los contenidos promocionales, y se han desactivado las compras integradas en esta configuración.

El directivo de TikTok ha destacado los recursos y las herramientas de bienestar que han implementado en la red social, especialmente dirigidos a personas con trastornos de la alimentación, que tienen pensamientos suicidas o se autolesionan.

Ha asegurado, además, que en la plataforma entienden los deseos de los adolescentes de tener autonomía, pero que «siguen aprendiendo y creciendo» y que por ello, al menos en Estados Unidos, la red social se ha diseñado según distintas sensibilidades por grupos de edad.

En estados Unidos, la compañía tiene una aplicación dedicada a los menores de 13 años, TikTok for Younger Users, que ofrece una experiencia adapta a la edad de los usuarios, con controles más estrictos de privacidad y seguridad, y sin publicidad.

En la red social principal también cuenta con controles de privacidad específicos para la franja de entre 13 y 18 años de edad, que incluso desglosa en dos grupos (de 13-15 años y de 16-17 años), al entender que tienen necesidades diferentes. También hay controles parentales, e incluso la posibilidad de vincular la cuenta de un adolescente a la del adulto responsable de su bienestar.

Por su parte, Stout ha explicado que Snapchat no es tanto una red social como una aplicación de cámara, con la que los usuarios pueden comunicarse visualmente, y hacerlo con aquellos que ya son amigos en la vida real. Y ha defendido el enfoque de privacidad y seguridad, que minimiza la recopilación de datos y se basa en la idea de lo efímero, con imágenes que se eliminan por defecto.

La directiva de Snap ha indicado que «la arquitectura de Snapchat se diseñó intencionalmente para permitir que las personas expresen una amplia gama de experiencias y emociones con sus verdaderos amigos, no solo los momentos bonitos y perfectos», algo que ha contrapuesto a la idea de la generación de contenido para un ‘feed’ de noticias, como ocurre en otras plataformas.

También ha asegurado que la respuesta de Snap a los retos de privacidad que planteaban tanto la evolución de la app como la propia tecnología, la han encontrado en los marcos normativos de las retransmisiones a grandes audiencias.

NUEVAS FUNCIONES

Los representantes han aprovechado sus respectivas intervenciones para adelantar algunos de los trabajos que están haciendo en materia de bienestar y protección de los menores. Es el caso de YouTube, que desarrolla una función parental que bloquea de forma determinada la reproducción automática en YouTube Kids, junto a otros controles adicionales, que introducirán «en los próximos meses».

En el caso de Snapchat, la compañía está trabajando en funciones parentales que permitirán a los adultos ver quiénes son los amigos de sus hijos, gestionar los ajustes de privacidad y localización y ver con quién se comunican, «sin sacrificar la privacidad», ha matizado la directiva.