X abre su algoritmo en medio de multas y polémicas por IA
- Redacción IT NOW
- hace 5 horas
- 2 Min. de lectura
La red social de Elon Musk liberó el código de su sistema de recomendaciones mientras enfrenta sanciones regulatorias en Europa y nuevas controversias por el uso de Grok. La promesa de transparencia llega bajo presión política y reputacional.

Cuando Elon Musk anunció que X, la red social que absorbió la marca Twitter, abriría su algoritmo de recomendación al público, muchos en el sector tecnológico lo interpretaron como un gesto audaz: un intento por colocar a la compañía en la vanguardia de la transparencia algorítmica. Musk prometió publicar el código en GitHub y ofrecer actualizaciones periódicas, con la intención declarada de “ganar la confianza” de usuarios y reguladores.
Pero ese gesto no puede entenderse en el vacío. En diciembre de 2025, la Comisión Europea sancionó a X con una multa de 140 millones de dólares por incumplir obligaciones de transparencia bajo la Digital Services Act, señalando, entre otras fallas, que los usuarios tenían dificultades para discernir cómo ciertos contenidos —incluyendo cuentas verificadas— se distribuían y clasificaban en la plataforma.
La apertura de código, aunque genuina en términos de publicación, no despeja todas las dudas. El repositorio muestra que el sistema de recomendaciones se basa en un transformador derivado de la arquitectura de Grok, el modelo generativo de IA que X ha ido integrando en múltiples funciones internas. Este motor procesa señales de interacción —qué le gusta a cada usuario, qué contenido enganchó, qué publicaciones están fuera de la red de contactos habituales— y las incorpora en un ranking de relevancia que busca maximizar el engagement.
Al observarlo con ojos críticos, el movimiento de X empieza a parecer menos una apertura radical y más una amortiguación de presiones externas: por un lado, la fiscalización europea por la opacidad de sus mecanismos; por otro, la creciente controversia en torno al propio Grok. En las últimas semanas, fiscales estatales en EE. UU. y legisladores federales han señalado que la IA de X fue utilizada para generar contenidos sexualizados, incluyendo imágenes de mujeres y menores, provocando investigaciones y recriminaciones públicas que ponen en entredicho la gestión y supervisión de estos sistemas.
Así, la narrativa de “transparencia por defecto” choca con lo que algunos en la industria ven como transparency theatre: gestos que, sin una apertura realmente profunda sobre cómo se toman decisiones complejas dentro de una IA, terminan sirviendo más como señal de buena voluntad que como herramientas de control social o técnico.
En un sector donde la demanda por explicabilidad y responsabilidad algorítmica crece, ¿cuándo se transforma una apertura de código en un ejercicio de gestión de reputación? La respuesta no está en una línea de código publicada, sino en el compromiso sostenido con auditorías independientes, estándares de reporte y métricas claras que permitan evaluar si, detrás del eslogan y la visibilidad pública, realmente existe apertura de procesos que afectan a millones de usuarios.




Comentarios