IKER SANSEGUNDO HERNÁNDEZ   |  Fotografía: IKER SANSEGUNDO HERNÁNDEZ

El Salón de Grados Carmen Sarmiento de la Facultad de Filosofía y Letras de la Universidad de Valladolid acogió este 24 de febrero la jornada “Comprender el odio”, un encuentro académico que avanzó, acto por acto, desde una reflexión conceptual hasta un análisis técnico y político del fenómeno en la era digital. La idea central atravesó todas las intervenciones: el odio no es nuevo, pero sí lo es su velocidad, su rentabilidad y su capacidad de mutar.

Acto I. Inauguración

La decana Dunia Etura abrió la sesión reivindicando el legado de Carmen Sarmiento, periodista que dio voz a quienes estaban en la oscuridad. Y en esa metáfora situó el eje del encuentro: el odio prospera precisamente en la oscuridad y solo puede desmontarse desde una comprensión crítica.

Virginia Martín y Salomé Berrocal subrayaron que los discursos de odio han cambiado de forma. Hoy se amplifican, se monetizan y se distribuyen a través de algoritmos que premian la polarización. Comprender el concepto es el primer paso para combatirlo. Normalizarlo como algo inevitable supone convertir lo urgente en permanente.

Acto II. Virginia Martín. ¿Siempre ha sido así?

En su intervención individual, Virginia Martín partió de una advertencia: cada vez que se plantea el debate, alguien lo cierra con la frase “el odio siempre ha existido”. Esa normalización, sostuvo, es peligrosa porque desactiva la reacción social.

Recordó que el odio ha causado millones de muertes y citó el Holocausto, el Genocidio de Ruanda y la masacre del Perejil en 1937, cuando más de 15.000 haitianos fueron ejecutados tras ser identificados por su forma de pronunciar una palabra. Aquella violencia se asentó sobre tres pilares: racismo, nacionalismo y crisis económica.

Trasladó el foco al presente. Señaló que en Estados Unidos la inmigración se ha convertido en monotema político y que figuras como Donald Trump han empleado términos deshumanizadores hacia comunidades migrantes. Alertó también del papel de creadores digitales como Nick Shirley en la difusión de narrativas hostiles.

Introdujo el concepto de la ventana de Overton, ese marco de lo socialmente aceptable que puede ampliarse hasta legitimar posiciones radicales. Los algoritmos premian el contenido emocional y político, viralizan los mensajes y, una vez instaurado ese clima, se traduce en decisiones públicas. La cuestión no es si el odio existía antes, sino cómo circula ahora.

Virginia Martín en su intervención «¿Siempre ha sido así?» / Fotografía: Iker Sansegundo

Acto III. Sergio Arce. ¿Por qué «renta» el odio en redes sociales?

Sergio Arce abordó la dimensión económica. Su pregunta fue directa: ¿por qué el odio renta? Porque genera dinero y poder. Y mostró cifras para demostrarlo, aunque advirtió a los estudiantes presentes que la rentabilidad no puede ser una tentación profesional.

Recurrió a la figura de Edward Bernays y su obra Propaganda, para explicar cómo la manipulación emocional ha sido históricamente eficaz, desde campañas comerciales hasta intervenciones políticas.

Describió estrategias de desinformación estructuradas en fases que comienzan con la siembra lenta de desconfianza, continúan con la erosión institucional y desembocan en crisis que facilitan la aceptación de medidas restrictivas en nombre de la seguridad. Analizó también la microsegmentación electoral en campañas de Barack Obama y los métodos vinculados a Cambridge Analytica durante el Brexit. Cuanta más información acumulamos, señaló, más preciso puede ser el modelado de nuestra conducta.

En el terreno de la monetización, citó el caso de Alex Jones y su plataforma InfoWars, que obtuvo millones de dólares difundiendo teorías conspirativas sobre la masacre de Sandy Hook mientras vendía productos asociados al miedo.

El mensaje final a los jóvenes fue claro: todo contenido que apela intensamente a la emoción debe generar sospecha. “Cuanta más información tenemos, mejor nos pueden manipular si no aplicamos lógica”, señaló.

Sergio Arce en su intervención «¿Por qué «renta» el odio en redes sociales?» / Fotografía: Iker Sansegundo

Acto IV. Elías Said-Hung. ¿Por qué el odio no desaparece de X?

Elías Said-Hung centró su intervención en el funcionamiento estructural de las plataformas. Explicó que en X se publican millones de mensajes por minuto y que, según sus estudios, solo un pequeño porcentaje del odio es eliminado.

Revisó la “pirámide del odio” clásica y planteó un nuevo paradigma: la mayoría del odio se sitúa en niveles bajos de intensidad, pero es constante y viral. Introdujo el concepto de sistema autopoiético: las plataformas reproducen estructuras que generan interacción, y el odio genera interacción.

Mostró datos sobre tasas de eliminación en medios españoles como ABC, El Mundo y 20 Minutos, donde el odio más explícito se elimina con mayor facilidad que el político o xenófobo, que permanece más protegido por su engagement.

Advirtió de la “latencia operativa”: el odio no desaparece, espera. Los mensajes no eliminados pueden reactivarse como armas futuras. Frente a ello, defendió reforzar los mecanismos humanos de verificación, ya que los algoritmos no comprenden plenamente el contexto.

Elías Said-Hung en su intervención «¿Por qué el odio no desaparece de X?» / Fotografía: Iker Sansegundo

Acto V. Jacobo Herrero. No es por lo ofensivo, sino por la noticia.

Jacobo Herrero planteó una cuestión incómoda: ¿existe el odio en los contenidos periodísticos? Respondió que no puede afirmarse que los medios publiquen odio de forma directa, pero sí que determinadas narrativas pueden activarlo.

Presentó datos que sitúan en torno al 3,79% el contenido potencialmente hostil detectado en noticias, matizando que no siempre es explícito. El problema, explicó, reside en el tratamiento: la simplificación o el encuadre como amenaza pueden prender la mecha.

Aplicó el modelo epidemiológico SIR a redes sociales, clasificando a la población en susceptibles, infectados y recuperados, para analizar cómo ciertos picos de contagio coinciden con publicaciones concretas.

Jacobo Herrero en su intervención «No es por lo ofensivo, sino por la noticia.» / Fotografía: Iker Sansegundo

Acto VI. Asunción Bernárdez. Manosfera y cultura de odio.

Asunción Bernárdez cerró la jornada apelando directamente a los varones jóvenes presentes, pidiéndoles una escucha empática. Recordó que la democracia amplió derechos y que cuestionar la igualdad implica erosionar la convivencia.

Se centró en la llamada “manosfera”, un ecosistema digital antifeminista que articula comunidades como los Mens Rights Activists (MRA), los Men Going Their Own Way (MGTOW), los Pick Up Artists (PUA) o los incels. Describió sus estrategias: relectura selectiva de datos, lenguaje pseudocientífico, humor e ironía, victimización estratégica y monetización del malestar.

Asunción Bernárdez rompió la dinámica habitual y pidió al público que participara físicamente. Hizo levantarse a los asistentes y fue formulando preguntas sencillas, como si alguna vez habían recibido insultos en redes o si reconocían ciertos términos vinculados a la «manosfera», y quienes respondían afirmativamente debían sentarse. En cuestión de minutos, todos estaban en sus asientos de nuevo. La escena hizo visible que el acoso en redes, el odio cotidiano y la violencia digital no son fenómenos lejanos, sino experiencias compartidas por muchos de los presentes.

Alertó sobre la reducción de las relaciones sexoafectivas a un “mercado sexual” y sobre la instrumentalización del miedo y la frustración masculina con fines ideológicos y económicos. Su invitación final fue clara: cuando surja un discurso de odio, preguntarse siempre “¿dónde está el negocio?”.

Asunción Bernárdez en su intervención «Manosfera y cultura de odio» / Fotografía: Iker Sansegundo

Epílogo

A lo largo de las 4 horas horas, la jornada trazó un recorrido que conectó historia, economía, tecnología y género. El diagnóstico fue compartido: el odio se crea, circula con rapidez inédita y resulta rentable. Pero no es inevitable. Comprender sus mecanismos y sus patrones es el primer paso para impedir que vuelva a convertirse en tragedia.