Critical thinking
Product
El sistema es lo que el sistema hace, y Twitter (X) es una herramienta de propaganda neonazi
El algoritmo de Twitter (X) no es neutral: amplifica el odio, premia la polarización y convierte la indignación en un modelo de negocio. Un análisis sobre cómo el diseño de producto impacta la sociedad.
Mar 10, 2025
8 mins
Introducción
En teoría de sistemas, hay un axioma incómodo: «El sistema es lo que el sistema hace». Esta frase es más que una simple declaración; es un recordatorio de que los sistemas deben ser juzgados por sus efectos, no por sus intenciones. En otras palabras, si un sistema genera desigualdad, violencia o propaganda, no importa qué tan neutral se proclame su diseño: lo que hace define lo que es. Los mission statements y los tweets de CEOs son solo humo; lo que cuenta son los resultados observables.
En el ámbito del diseño de productos digitales, esta noción es crucial. Como diseñadores, product managers y desarrolladores, tenemos en nuestras manos la capacidad de influir en elecciones nacionales, en la salud mental de millones de personas y en la forma en que la sociedad interpreta la realidad. Y no, no podemos pretender que esta responsabilidad nos es ajena. Lo que diseñamos, programamos y ponemos en producción no es un ejercicio neutro: o mejora el mundo o lo empeora.
Con esto en mente, es hora de hablar de Twitter (X) y su papel en la difusión del discurso de odio. No es un accidente. No es una simple coincidencia. Es un laboratorio de desinformación donde el algoritmo premia el odio, los features priorizan el engagement tóxico y los diseñadores (conscientes o no) son cómplices de una arquitectura que normaliza el extremismo. Es el sistema haciendo lo que el sistema hace.
Teoría de sistemas aplicada: Cuando el algoritmo es el mensaje
La teoría general de sistemas nos enseña que un sistema no puede entenderse solo por sus partes, sino por las interacciones entre ellas. En Twitter, el algoritmo no es un mero «código»: es el núcleo que define qué voces se amplifican, qué discursos se silencian y qué realidades se construyen. Desde que Elon Musk tomó el control de Twitter, se ha documentado una tendencia alarmante en su algoritmo de recomendación de contenido. No es solo que Twitter amplifique más las ideas de derecha que las de izquierda—lo cual ha sido medido y comprobado anteriormente (BBC, 2021)—sino que el sistema va aún más allá: favorece ideas extremistas y discursos de odio con mayor alcance y engagement.
El algoritmo de Twitter no favorece a la derecha por capricho. Lo hace porque el contenido polarizante—noticias falsas, conspiraciones, ataques a minorías—genera más clicks, más retuits, más tiempo en pantalla. Es un sistema que recompensa la indignación, y la indignación, hoy, es un commodity de la ultraderecha. Como diría Marshall McLuhan: «el medio es el mensaje», y el mensaje aquí es claro: el odio vende.
Algoritmos diseñados para la polarización
En las primeras 12 horas tras la compra de Twitter, bajo la premisa de la defensa del último bastión de la libertad de expresión en Occidente, el uso del nombre del gato de Lovecraft (la “N word”) aumentó en un 500%. En la semana siguiente, los tweets con la palabra “judío” crecieron cinco veces más, siendo en su mayoría antisemitas (Brookings, 2023). La evidencia es clara: el algoritmo no solo no filtra estos mensajes, sino que los potencia.
Esto no es casualidad. Twitter (X) es un sistema cuyo modelo de negocio se basa en la interacción, y no hay nada que genere más interacción que la indignación y la controversia. Como su negocio es venderle a los anunciantes la idea de que en la plataforma hay grandes mercados potenciales para sus productos, por eso Musk hizo los likes privados. Fue un intento descarado de inflar métricas de vanidad al decir que las interacciones se habían disparado con ese update, cuando evidentemente eran bots los que generaban el aumento. Bots que siguen incrementando las interacciones, ya sea por detrás con los likes o de frente con rage baits. Un usuario que debate con bots neonazis genera más métricas que uno que solo revisa contenido neutral. Y si el engagement es la métrica que rige el algoritmo, la radicalización se vuelve un feature, no un bug. Y es ahí donde más responsabilidad tenemos diseñadores y programadores.
La responsabilidad del diseño de producto y la negación del problema
Cuando un algoritmo empieza a favorecer el extremismo, la respuesta ética no es lavarse las manos, sino intervenir. Como diseñadores y programadores de productos digitales, tenemos la responsabilidad de persuadir a los altos mandos cuando una decisión tecnológica compromete la seguridad, privacidad e integridad de los usuarios. No podemos fingir inocencia cuando las interfaces y el código que ayudamos a construir tienen consecuencias desastrosas.
Twitter (X) no ha tomado esta responsabilidad. En lugar de diseñar mejores filtros, eliminar incentivos perversos o transparentar cómo funcionan sus algoritmos, la empresa ha optado por la complacencia. En un estudio se reveló que tras la llegada de Musk con un lavamanos a las oficinas de Twitter (en el intento del bit cómico más penoso que he visto en años), el incremento del discurso de odio en la plataforma fue significativamente mayor que el aumento en la actividad general, demostrando que no se trata de un simple crecimiento proporcional, sino de una distorsión intencional del sistema (PLOS, 2025).
Lo que estamos viendo en Twitter no es una falla accidental. Es el resultado de un diseño de producto que prioriza la retención sobre la ética, el engagement sobre la seguridad y el extremismo sobre la moderación. Si el algoritmo de Twitter amplifica el odio, entonces Twitter es una herramienta de odio. Punto.
Conclusión
Twitter es un ejemplo paradigmático de cómo la búsqueda de la libertad de expresión a ultranza ha degenerado en una apología del odio y la desinformación. Y mientras tanto, los diseñadores, product managers y desarrolladores que dan vida a este sistema se lavan las manos, escudándose en la neutralidad algorítmica. Pero la verdad es que no hay neutralidad posible. Cada línea de código, cada decisión de diseño, tiene implicaciones éticas y sociales. Y en un mundo cada vez más polarizado, la responsabilidad de quienes diseñan el futuro es más grande que nunca.
Ya no estamos frente a un espejo de la sociedad: es un distorsionador activo que amplifica lo peor de nosotros. Y aunque un billonario neurodivergente quiera venderlo como «libertad de expresión», el odio no es un bug, en este caso es su business model.
Como profesionales de la tecnología, igual tenemos elección. Podemos seguir siendo engranajes de una máquina que beneficia a los violentos, o podemos usar nuestra expertise para hackear el sistema. Lo que sí sé es que de nada sirve quedarnos callados. Después de todo, si el sistema es lo que el sistema hace, también podemos tener lo que decidamos construir.
Comentarios