Un estudio publicado en Nature revela que el algoritmo de X inclina a sus usuarios hacia posiciones más conservadoras y que ese efecto persiste incluso después de desactivar las recomendaciones. El hallazgo llega justo cuando crece el debate sobre la regulación de las grandes plataformas y cuestiona hasta qué punto el diseño de un feed puede moldear la opinión pública.
La investigación, dirigida por la economista Ekaterina Zhuravskaya, se desarrolló entre el verano y el otoño de 2023 y siguió a 4.965 usuarios activos en Estados Unidos durante aproximadamente siete semanas. Los participantes fueron asignados al azar a dos entornos: el feed algorítmico “Para ti” y el cronológico “Siguiendo”.
Para medir el impacto se combinaron encuestas previas y posteriores con datos reales de navegación: una extensión de navegador registró qué contenidos aparecían en cada timeline, a qué cuentas se seguía y cómo interactuaban los usuarios. Ese diseño permite comparar efectos en comportamiento y opinión política vinculados directamente al tipo de feed.
Los resultados principales son claros y consistentes:
- Mayor uso de la plataforma entre quienes recibieron recomendaciones algorítmicas.
- Desplazamiento en prioridades políticas hacia temas asociados al conservadurismo —por ejemplo, inmigración, crimen e inflación.
- Tendencia a valorar con más afinidad posiciones republicanas en asuntos concretos, como las investigaciones penales sobre Donald Trump y la guerra en Ucrania.
- Aumento de seguimientos a activistas conservadores y reducción de la visibilidad de medios tradicionales en los timelines.
- Efecto de persistencia: apagar el algoritmo apenas revierta los cambios en opiniones y en la red de cuentas seguidas.
La persistencia es uno de los hallazgos más significativos. Según los autores, la exposición inicial al feed algorítmico reorganiza la “dietа informativa” de cada usuario —es decir, la constelación de cuentas que sigue— y esa nueva configuración tiende a mantenerse, incluso después de pasar al modo cronológico.
Expertos españoles consultados valoran la solidez metodológica del trabajo. Ramón Salaverría, catedrático de Periodismo, subraya el tamaño de la muestra y el diseño aleatorizado como ventajas que permiten atribuir efectos directos al funcionamiento del algoritmo. También advierte que el fenómeno fue más pronunciado entre usuarios que empezaron con posiciones conservadoras o independientes.
Celia Díaz Catalán, investigadora del Instituto TRANSOC (Universidad Complutense), interpreta el estudio como una advertencia sobre la vulnerabilidad de las actitudes políticas a la arquitectura de las plataformas. Para ella, el algoritmo no solo cambia lo que ve cada usuario, sino que puede “silenciar” a medios tradicionales y dejar espacio a voces más polarizadas, con mayor impacto si esas voces son conservadoras en un determinado contexto nacional.
En la misma línea, la filósofa Belén Laspra destaca que el algoritmo no convierte a la gente en votantes de otro partido, pero sí modifica cómo priorizan temas públicos y cómo interpretan eventos dentro de marcos ideológicos ya existentes. Su lectura refuerza la llamada “hipótesis de la persistencia”: la retirada del algoritmo no borra la transformación previa del ecosistema informativo personal.
Hay límites claros: el experimento se realizó en Estados Unidos y durante un periodo concreto, por lo que sus conclusiones no se pueden aplicar automáticamente a otros países, etapas o plataformas. Además, X concentra a periodistas, políticos y responsables públicos, lo que amplifica cualquier efecto local hacia la agenda informativa general pese a que solo un porcentaje de adultos declare usar la red.
Implicaciones prácticas y políticas:
- Transparencia: mayor exigencia para que las plataformas expliquen cómo funcionan sus sistemas de recomendación y qué métricas usan.
- Regulación: el estudio aporta evidencia para debates legislativos sobre la influencia de algoritmos en la esfera pública.
- Diseño responsable: considerar cambios en la arquitectura del feed para mitigar efectos de polarización o sesgos en la exposición informativa.
- Investigación continua: necesidad de replicaciones en otros países y en distintas ventanas temporales para comprender la amplitud y duración de estos efectos.
En última instancia, el trabajo publicado en Nature refuerza la idea de que un detalle técnico —el modo en que se ordenan y recomiendan contenidos— tiene consecuencias políticas concretas y duraderas. Si la sociedad quiere controlar ese impacto, la discusión pública y regulatoria debe centrarse ahora en cómo se diseñan, auditan y supervisan esos sistemas.

Hola, soy María, parte del equipo de MuyMac. Me dedico a analizar las tendencias que marcan nuestro día a día, desde innovaciones tecnológicas hasta nuevas modas, para mantenerte siempre actualizado.