¿Quién vigila realmente lo que se dice en redes sociales? ¿Y por qué tantos mensajes de odio siguen circulando durante horas (o días) antes de desaparecer? Los últimos datos oficiales vuelven a poner el foco en una sensación cada vez más extendida entre los usuarios, las plataformas llegan tarde y mal cuando el daño ya está hecho.
En noviembre se detectaron más de 39.000 mensajes racistas y xenófobos en redes sociales en España, las cifras oficiales. La cifra es la más baja de los últimos siete meses, sí, pero eso no evita que el problema siga siendo estructural. La mitad de ese contenido se eliminó, pero la otra mitad ya había corrido como la pólvora.
El debate no es solo cuánto odio se borra, sino cuándo. Porque cuando se actúa tarde, el mensaje ya ha sido compartido, comentado y normalizado. Y eso, como advierten expertos y usuarios, tiene consecuencias muy reales fuera de la pantalla.
La retirada mejora, pero el odio ya ha hecho su recorrido

Por primera vez en lo que va de año, las plataformas eliminaron más del 50% de los mensajes de odio detectados. Es un dato positivo sobre el papel, pero insuficiente si se mira el contexto completo. Gran parte de esos contenidos permanecen visibles durante horas clave, justo cuando más impacto generan.
En redes como TikTok o X, donde el alcance es inmediato y viral, muchos mensajes racistas consiguen miles de visualizaciones antes de ser retirados. De ahí que muchos usuarios hablen de una sensación de impunidad inicial, publicar primero, borrar después. Y mientras tanto, el daño ya está hecho.
En redes, la conversación se ha llenado de críticas a esa reacción tardía. Hay quien denuncia que denunciar sirve de poco, otros apuntan directamente a una falta de voluntad real por parte de las plataformas. El resultado es el mismo, el sistema llega cuando el incendio ya ha arrasado parte del bosque.
Un solo colectivo, en el centro de casi todo el odio

Los datos no dejan lugar a dudas. Las personas de origen norteafricano concentraron el 76% de los mensajes de odio detectados en noviembre. No es una tendencia nueva, pero sí cada vez más intensa. Y cada vez más deshumanizante.
La mayoría de los mensajes ya no se limitan a insultos genéricos. Hablan de “plagas”, “animales” o “amenazas”, un lenguaje que preocupa especialmente a los expertos por su capacidad para normalizar la violencia simbólica. En redes, muchos usuarios alertan de que este tipo de mensajes ya no escandalizan como antes.
Casos concretos, sucesos aislados o noticias sacadas de contexto actúan como detonante. Basta una detención, un altercado o un titular ambiguo para que se dispare una avalancha de mensajes que vinculan inmigración e inseguridad, aunque los datos reales no respalden esa relación. El relato se impone al hecho.
Inseguridad, bulos y una conversación cada vez más polarizada

El gran combustible del discurso de odio sigue siendo la inseguridad ciudadana. Tres de cada cuatro mensajes detectados en noviembre giraban en torno a este tema. En muchos casos, difundiendo nacionalidades, exagerando hechos o directamente falseando información.
En redes se percibe un clima de hartazgo y miedo que algunos aprovechan para empujar discursos extremos. Usuarios habituales denuncian que los comentarios más agresivos suelen llegar tras horas sin moderación, cuando el contenido ya ha alcanzado máxima visibilidad.
Mientras tanto, las plataformas insisten en que están mejorando sus sistemas, pero la percepción social va por otro lado. Cada vez más gente tiene la sensación de que el odio se ha vuelto cotidiano, que ha perdido la vergüenza y que se expresa con menos filtros que nunca.
El reto ya no es solo borrar mensajes, sino evitar que se conviertan en parte del paisaje digital. Porque cuando el odio se cuela en la conversación diaria, deja de parecer excepcional. Y ahí es cuando el problema deja de ser solo de las redes para convertirse en un problema de todos. Compartir, denunciar y exigir responsabilidades también forma parte de la solución.







