Cristina Renedo: «Los medios deben alfabetizar a la población para que seamos usuarios conscientes»

La profesora de Periodismo en la UVa habla de los algoritmos en redes sociales y su implicación en la censura y la desinformación

0
68
Lorena Arias Duque

Cristina Renedo Farpón es profesora de Periodismo en la Universidad de Valladolid, donde también se licenció y se doctoró. Una de las asignaturas que imparte dentro del grado es Innovaciones Tecnológicas Aplicadas al Periodismo, por lo que posee amplios conocimientos sobre las estructuras de los medios digitales, así como el impacto de las tecnologías que rigen su funcionamiento. Entre las más sonadas, están los algoritmos, que definen en gran parte el consumo de los usuarios. La doctora Renedo ha concedido una entrevista a este medio para explicar cómo estos sistemas pueden derivar en la censura y la desinformación.

¿Consumimos lo que queremos en las redes?

Es una pregunta complicada, pero yo creo que no, realmente. Dependemos mucho de los algoritmos. Nosotros podemos seguir a otros usuarios, en ‘Facebook’, por ejemplo, y no recibir su contenido en nuestro feed por una cuestión algorítmica, a menos que interactuemos de forma regular con ellos o que estén muy bien posicionados.

Entonces, ¿consumimos lo que queremos?: realmente tenemos la libertad para entrar en los perfiles que queremos y ver los contenidos que queremos, pero lo que nos llega automáticamente no tiene por qué ir necesariamente en la línea de las cuentas que seguimos. No tenemos es el control total de lo que entra en nuestro feed. Está claro, por ejemplo, con la publicidad, porque muchos de los contenidos que nos aparecen son patrocinados y sobre eso no tenemos ningún control.

¿Qué son los algoritmos?

Los algoritmos son sistemas automatizados que, en función de unas determinadas variables, ya sea en redes sociales o motores de búsqueda u otro tipo de sistemas, seleccionan la información que nosotros vamos a consumir.

En el caso de las redes sociales, suelen dar mucha importancia el engagement de las publicaciones, aquellas que generen más comentarios, más visualizaciones, más interacciones, etc. Y también tiene que ver con la personalización de los contenidos. Es decir, que los algoritmos beben un poco de tu historial de búsqueda, de tus preferencias, de tus datos personales, tu edad, sexo, etc., para decidir qué contenidos se adaptan mejor a lo que aparentemente tú quieres consumir.

Por eso decía que realmente no tienes total libertad en las redes. Tú decides en primera instancia, pero luego el algoritmo decide por ti lo que piensa que te va a interesar. Otras veces tiene que ver también con cuestiones de la propia red social, de cómo posiciona determinados contenidos o cómo los penaliza por cuestiones semánticas, temáticas, etc.

¿Cómo se entrenan los algoritmos?

Sobre todo, a través de la inteligencia artificial. Aprenden de forma automática de tus datos, de tu forma de actuar y, en general, de las formas habituales de interacción en redes sociales. Es decir, toda la información que tú generas en redes sociales, el algoritmo la asume y aprende de ella y crea diferentes patrones, perfiles que van detallando con el tiempo. También responden a los intereses económicos de las plataformas, con el fin de mantenerte enganchado a ellas y conseguir generar más publicidad.

Y, ¿surgen, a partir de estos intereses, los sesgos del propio algoritmo?

Surgen de una parte y de otra, por eso de que los algoritmos van aprendiendo. Por una parte, está la forma en que las empresas o los programadores los instruyen y, por otra, la forma en que aprenden de los usuarios. En el primer caso, si las plataformas se dedican a premiar, por ejemplo, aquellas publicaciones que obtengan más engagement, es de esperar que los usuarios consuman contenido cada vez más polarizado, a la par que más llamativo o sensacionalista y menos profundo. Entonces, consumimos aquello que destacan las plataformas y éstas, a su vez, destacan aquello que más consumimos. Por eso es una mezcla de ambas partes.

¿Cómo es posible detectar la imposición de sesgos o censura en las redes?

Hay un concepto muy interesante que es el shadowbanning, que hace referencia a la censura de determinados contenidos por parte de las plataformas porque se considera que tocan temas sensibles o temas políticos.

Se han dado estos casos en ‘TikTok’, que, de hecho, fue acusado en varias ocasiones de no mostrar contenido relacionado con el colectivo LGBTIQ+, con movimientos feministas o con la discapacidad. La palabra suicidio, por ejemplo, la tiene baneada. Lo que argumenta ‘TikTok’ es que considera sensibles esos contenidos porque pueden dar pie al bullying hacia dichos colectivos. Aunque lo cierto es que está generando un efecto mucho mayor de invisibilización sobre ellos.

Atribución: Ivan Radic, CC BY 2.0, via Flickr

También, en el ámbito político, cuando estalló el conflicto en Gaza, hubo acusaciones de shadowbanning contra algunas redes sociales que censuraban contenidos reivindicativos a favor de Palestina. Y los argumentos de las respectivas plataformas se basaban, igualmente, en la sensibilidad de los contenidos. Pero parece obvio que, si consideramos que una guerra es un tema sensible, no lo es más en un bando que en otro.

Por cierto, mucho tienen que ver con el shadowbanning los intereses publicitarios de las plataformas. Y es que, no es casualidad que determinadas cuentas o determinados temas que, en principio, resultan de interés, de pronto comiencen a tener menos impacto, menos visibilidad. Imagina un influencer que se ha vuelto muy viral y, un día, se da cuenta de que sus publicaciones no están llegando a la gente. Pues bien, hay estudios que afirman que se trata de una estrategia de las plataformas para que esas cuentas comiencen a pagar para promocionar sus contenidos a cambio de seguir manteniendo su posicionamiento.

Entonces, ¿las plataformas son las responsables de la censura y la desinformación en las redes sociales?

Claro. El algoritmo no deja de ser un sistema automatizado aplicado por la plataforma que lo gestiona. No podemos culpar a una tecnología de imponer censura cuando es la empresa detrás de ella la encargada de entrenarla para invisibilizar o destacar ciertos temas, ya sea por cuestiones que políticas, económicas, etc.

En cuanto a la desinformación, hay estudios muy interesantes. Por ejemplo, en el contexto del COVID, se vio que tenían mucho más impacto en redes las publicaciones afines a teorías de la conspiración. ¿Por qué? Porque ese tipo de contenidos generaba más engagement y se hacía viral. Lo que no quiere decir que fuera positivo. Puede que, simplemente, la gente interactuase porque lo consideraba una barbaridad o incluso porque pensaba “¡mira, qué bulo!”. Pero eso sólo propiciaba que el algoritmo moviera más esas publicaciones, de modo que generasen un mayor impacto y desplazasen otros contenidos más reales o más científicos. Eso ocurrió en la pandemia, pero también ha ocurrido con muchas cuestiones políticas.

Los contenidos desinformativos, por su formato, por cómo se presentan, generan un mayor impacto en el público y eso hace que el algoritmo los posicione mejor. Al fin y al cabo, lo que quieren las plataformas son contenidos que te mantengan enganchados, que suelen ser los más polarizados y los más polémicos. En efecto, todo ello contribuye a expandir la desinformación.

¿Cómo se apoyan en esto los discursos de odio?

Si estudias los discursos de odio a través de las redes sociales hacia ciertos colectivos, hacia mujeres, hacia personas migrantes, etc., verás que todos tienen un poco las mismas características. Son mensajes que funcionan muy bien porque son muy populistas. Atacan directamente a la parte más emocional de las personas y generan una mayor respuesta y una mayor reacción por su parte. Eso hace que los algoritmos los posicionen mejor y, a la vez, que se polaricen las plataformas. Esto lo saben muy bien las cuentas que difunden los discursos de odio, saben cómo elaborar sus mensajes para que generen gran impacto y que los algoritmos los hagan virales.

¿Qué interés tienen las estrategias de posicionamiento para las empresas?

Realmente, lo que hay aquí son siempre intereses económicos. Simple: las plataformas quieren es ganar dinero. Todas las redes sociales están creadas para generar dinero. Entonces, todo su funcionamiento está pensado para tener enganchado al usuario al consumo de contenidos. Es por eso que en ‘Twitter’ (‘X’) o en ‘TikTok’, por ejemplo, funciona mucho el efecto palanca de deslizar y, así, nos pasamos horas consumiendo el contenido que nos proporciona el algoritmo. A su vez, esto provoca que otras empresas se quieran anunciar en estas redes sociales, lo que se traduce en más publicidad y, por tanto, más ingresos.

Y, luego, también hay intereses políticos, pero no siempre tienen que ver con las plataformas. Un buen ejemplo es el caso de Cambridge Analytica, en el contexto de las elecciones de 2016, en Estados Unidos. Sucede que la empresa recibió filtraciones de datos de usuarios que habían participado en un estudio académico y los utilizó, a través de ‘Facebook’, para derivarles contenidos muy concretos y sesgados con el objetivo de influir en su intención de voto electoral. Sí que es cierto que ‘Facebook’ tuvo una parte de responsabilidad al aceptar toda esa campaña y no ponerle freno.

Atribución: Book Catalog, CC BY 2.0, via Wikimedia Commons

Hay que admitir que la ultraderecha lo ha sabido hacer muy bien. De hecho, ha habido campañas, como la de Bolsonaro, o la de Vox, que las llevaba la misma compañía o sus filiales para poder tener influencia sobre la intención de voto a través de todos los datos que obtienen de nosotros gracias a las redes sociales. Y aquí entra en juego también la cuestión de la inteligencia artificial o las campañas de bots. Y es que, hoy en día, ni siquiera necesitas humanos para programar todas estas campañas, lo puedes hacer de forma muy automática.

Nuevamente, en las últimas elecciones en Estados Unidos, se ha propagado muchísimo contenido que no era real, pensado para, primero, posicionarse bien algorítmicamente y, segundo, para influir en aquellas personas que tuvieran indecisión de voto. Por ejemplo, si algún votante pudiese tener miedos respecto a las personas migrantes, el uso de la inteligencia artificial permite generar contenido que alimenta esos miedos para empujarle a votar a un determinado partido político.

En relación con esto último, ¿qué consecuencias se pueden derivar de que Elon Musk tenga presencia en el Ejecutivo y al mismo tiempo controle una plataforma tan influyente como ‘X’?

Atribución: Gage Skidmore from Surprise, AZ, United States of America, CC BY-SA 2.0 , via Wikimedia Commons

Pues, de hecho, creo que la gente le está cogiendo un poco de miedo a ‘Twitter’ (‘X’) precisamente por eso. Al final, que el uso de estas plataformas se politice puede tener muchos riesgos para los usuarios que estén en ella, por todos los sesgos de los que hemos hablado, toda la desinformación y las posibles censuras.

En su día, antes de convertirse en ‘X’, la plataforma censuraba a medios de comunicación rusos, durante el estallido de la guerra de Ucrania. Ahora mismo, Musk ha decidido no censurar ningún tipo de contenido, lo que tiene sus lado positivo, pero también sus riesgos. Si no censuramos nada, puede haber entonces más desinformación y se fomentan los discursos de odio.

Por ejemplo, cuando ocurrió el asalto al Capitolio, Trump lo hizo público a través de esta plataforma y su discurso se viralizó porque el algoritmo premiaba las interacciones del contenido, lo que hizo que la gente se movilizara y que una parte de la sociedad asumiera ese discurso. Las consecuencias políticas están ahí, en la nueva victoria electoral de Donald Trump. En fin, que es evidente el peligro de que una plataforma usada por tanta gente tenga connotaciones políticas tan fuertes.

Y, en medio de los múltiples peligros que emanan de las redes, ¿cuál es el papel de los medios de comunicación?

Yo diría, quizá, que sería necesario que los medios hicieran de fiscalizadores de las redes sociales, dando visibilidad a casos como el de Cambridge Analytica. Y, a la vez, tienen la responsabilidad de alfabetizar, de instruir un poco a la población sobre el uso de estas plataformas, para que seamos usuarios conscientes. Es algo que también podría hacerse desde la educación, incluso desde que estamos en el instituto, debería haber una alfabetización mediática que concienciara a la población sobre cómo funcionan las redes y los algoritmos. Y, en el siguiente nivel, las propias plataformas deberían de ser más transparentes al detallar cómo funcionan sus algoritmos.

Por su parte, los medios de comunicación tienen un hándicap y es que el consumo mediático ha cambiado mucho. La gente ya no va directamente a un medio oficial, especialmente la gente joven, sino que consume información a través de redes sociales y, si acaso, algunas veces la contrasta con la de los medios de comunicación. Pero el periodismo tradicional sigue siendo fundamental, sigue siendo importante, aunque ahora deba ser más bien un fiscalizador de todos estos contenidos, promover la alfabetización mediática, a su vez, y adaptarse a estas nuevas formas de consumo y nuevas narrativas, para no perder a la audiencia más joven, que es también la más vulnerable, precisamente porque es la que más utiliza las redes sociales.