El Ministerio de Inclusión, Seguridad Social y Migraciones ha convocado a representantes de las principales plataformas digitales, incluyendo Meta, X, TikTok y Google, para discutir el alarmante incremento de los discursos de odio en las redes sociales. La reunión se centró en evaluar la respuesta y efectividad de estas empresas en la eliminación de contenidos problemáticos.
Durante el encuentro, la ministra Elma Saiz expresó su agradecimiento por la participación activa de los asistentes y aprovechó la ocasión para presentar los esfuerzos realizados por el ministerio a través del Observatorio Español del Racismo y la Xenofobia (OBERAXE). Uno de los temas destacados fue el informe sobre los incidentes en Torre-Pacheco, que refleja la necesidad urgente de abordar este problema social.
Creación de un grupo de seguimiento
Como resultado de la reunión, se acordó establecer un grupo de seguimiento permanente que se encargará de analizar periódicamente los discursos de odio en las plataformas digitales. La colaboración entre todos los actores involucrados es considerada "fundamental" por Saiz, quien subrayó la importancia de esta iniciativa.
La ministra destacó: "Esta colaboración no tiene precedentes. Agradezco a todas las plataformas su disposición para intensificar esfuerzos ante esta ola de odio. El Gobierno no puede ignorar lo que ocurre en las redes sociales, ya que tiene repercusiones en la vida real". Esta afirmación hace eco del reciente incidente en Torre-Pacheco, donde se evidenció cómo estos discursos pueden traducirse en actos violentos.
Análisis y estadísticas preocupantes
El objetivo principal del encuentro fue examinar cómo responden las plataformas a estos desafíos y cuáles son las tendencias actuales en la moderación del contenido. Los representantes tecnológicos compartieron sus políticas internas sobre la detección y monitoreo tanto de campañas de desinformación como de discursos odiosos.
En 2024, OBERAXE notificó 2.870 contenidos considerados discursos xenófobos y racistas que podían ser constitutivos de delito o violar las normas establecidas por las plataformas digitales. De este total, solo 1.010 fueron eliminados por las empresas, lo que representa un 35%, una cifra inferior al 49% registrado el año anterior.
Desafíos futuros
En cuanto a la primera mitad de 2025, el sistema monitor FARO ha permitido detectar más de medio millón de discursos de odio. Las plataformas han retirado aproximadamente el 33% del contenido reportado, manteniendo cifras similares a años anteriores. La ministra Saiz enfatizó que esto sigue siendo insuficiente: "Es crucial actuar con mayor rapidez y eficacia para eliminar mensajes denigrantes antes que causen más daño".
La vía conocida como trusted flagger se ha consolidado como el método más efectivo para la eliminación rápida del contenido odioso. De las notificaciones realizadas, un 26% fueron eliminadas gracias a este mecanismo, comparado con solo un 9% cuando se notificaron desde cuentas normales. Esto resalta la necesidad imperiosa de fomentar el uso responsable por parte del público general.
Llamado a mejorar mecanismos
Finalmente, Saiz instó a las plataformas a reforzar sus métodos de moderación para crear espacios digitales libres de odio y racismo. "Hoy hemos dado un paso significativo hacia una colaboración esencial entre plataformas y autoridades", concluyó.
La noticia en cifras
| Año |
Contenidos de odio notificados |
Contenidos retirados |
Porcentaje de contenidos retirados |
| 2024 |
2,870 |
1,010 |
35% |
| 2025 (primer semestre) |
Más de 500,000 |
No especificado |
33% |
Preguntas sobre la noticia
¿Qué ha creado el Gobierno para abordar los discursos de odio en redes sociales?
El Gobierno ha creado un grupo de seguimiento permanente con las grandes plataformas digitales para analizar los discursos de odio en las redes sociales.
¿Quiénes participaron en la reunión convocada por el Ministerio de Inclusión?
Participaron representantes de las principales plataformas digitales como Meta, X, TikTok y Google.
¿Cuál fue el objetivo principal de la reunión?
El objetivo fue analizar la respuesta de las plataformas ante el aumento de discursos de odio y diseñar estrategias para un entorno digital más seguro y respetuoso.
¿Cuántos contenidos de odio fueron notificados en 2024?
En 2024, se notificaron un total de 2.870 contenidos de odio xenófobo y racista.
¿Qué porcentaje de contenidos reportados fue retirado por las plataformas?
Las plataformas retiraron el 35% del contenido reportado en 2024, lo que representa una disminución respecto al año anterior.
¿Cómo ha mejorado la detección de discursos de odio en 2025?
A través del sistema monitor FARO, se han detectado más de medio millón de discursos de odio en la primera mitad de 2025.
¿Qué es la vía trusted flagger y cómo ha funcionado?
La vía trusted flagger es un mecanismo efectivo para la retirada de contenido, donde un 26% de las notificaciones fueron eliminadas a través de este método.
¿Qué acciones se están promoviendo entre las plataformas para combatir el odio en línea?
Se está animando a las plataformas a fortalecer sus mecanismos de moderación para crear entornos digitales libres de odio y racismo.