El algoritmo no es inocente: cómo X empuja la conversación hacia la derecha
“Es que yo soy independiente y se lo que elijo”. Eso no es toda la verdad, el algoritmo lo elige por ti. Y te muestra lo más conveniente para sus propios propósitos.
Durante años nos repitieron que el algoritmo era apenas una herramienta técnica, una fórmula matemática neutral que ordenaba el caos digital para que viéramos “lo que nos interesa”. Mentira cómoda. El algoritmo no es inocente. Tiene dirección. Y tiene consecuencias.
Un estudio publicado en Nature analizó a 5.000 usuarios durante siete semanas en 2023 y comparó dos mundos posibles: el feed cronológico —donde ves lo que publican las cuentas que sigues— y el feed algorítmico, esa pestaña “Para ti” que decide por vos qué deberías mirar. El resultado es incómodo: quienes estuvieron expuestos al feed algorítmico no solo participaron más; también se desplazaron ideológicamente hacia posiciones más conservadoras.
No es un matiz. No es una anécdota estadística. Es un corrimiento político medible
Cuando Elon Musk compró Twitter en 2022 —hoy rebautizada como X— una de sus primeras decisiones fue priorizar el feed algorítmico inspirado en TikTok. La promesa era simple: más retención, más tiempo en pantalla, más interacción. Lo que no se dijo con la misma claridad es que el nuevo diseño también reorganizaba el poder dentro de la conversación pública.
El estudio detectó que el algoritmo promueve contenido más conservador y, además, degrada publicaciones de medios tradicionales. ¿El efecto? Los usuarios progresistas se movieron hacia la derecha. Quienes ya estaban en la derecha avanzaron hacia posturas más extremas. La moderación perdió terreno. La polarización ganó impulso.
Esto no significa que las personas sean marionetas sin criterio. Hace un siglo, la teoría de la “aguja hipodérmica” sostenía que los medios inyectaban ideas directamente en la mente del público. Sabemos que la realidad es más compleja. Pero compleja no significa inocua. La exposición sistemática a ciertos contenidos, amplificados artificialmente, moldea percepciones, prioridades y temores.
En el estudio, los cambios se registraron en temas sensibles: investigaciones sobre Donald Trump, la guerra en Ucrania, prioridades políticas generales. No hablamos de gustos musicales. Hablamos de cómo interpretamos la realidad.
Desde España, la investigadora Celia Díaz Catalán, de la Universidad Complutense de Madrid, advirtió que si el algoritmo “silencia” a los medios tradicionales, el vacío lo ocupan voces más radicales. Y si en un país esas voces más activas son conservadoras, serán las que dominen el flujo. Ramón Salaverría, de la Universidad de Navarra, fue más directo: las preferencias de los dueños de las plataformas pueden influir en cómo impactan políticamente en sus usuarios.
Traducción: quien controla el código, inclina la balanza
En tiempos donde la gobernanza digital se discute en parlamentos y foros internacionales, este estudio es un golpe de realidad. No estamos frente a una simple red social. Estamos frente a infraestructuras privadas que organizan la esfera pública global.
Y mientras tanto, millones deslizan el dedo en la pantalla convencidos de que eligen lo que ven.

