Grokipedia: el experimento de Elon Musk para reescribir la enciclopedia pública choca con la realidad técnica y política
- Redacción IT NOW
- hace 5 horas
- 3 Min. de lectura
El magnate lanzó una enciclopedia impulsada por su asistente Grok que pretende ofrecer una alternativa a Wikipedia con un sesgo editorial distinto. Debutó con cerca de 900.000 artículos, pero el estreno se vio marcado por caídas del servicio y dudas sobre la fiabilidad, la transparencia y el papel de la IA en la curaduría del conocimiento público.

La primera jornada de Grokipedia fue tan ambiciosa como problemática: la plataforma se puso en línea con casi 900.000 entradas —muchas emulando el contenido de Wikipedia— y sufrió una caída que dejó a usuarios sin acceso poco después del lanzamiento. El propio equipo vinculado al proyecto respondió de forma escueta a los pedidos de explicación, denunciando a los medios tradicionales.
A simple vista la propuesta de Musk tiene un argumento comercial y narrativo claro: ofrecer una enciclopedia “ajustada” a un marco cultural y político que el fundador de X considera dejado de lado por Wikipedia. En la práctica, sin embargo, el recurso a un modelo de IA para generar y enmarcar artículos introduce problemas de fondo —sesgos, errores difíciles de auditar, y dependencia de prompts y datos de entrenamiento— que ya han aparecido en otros productos del ecosistema Grok. Esos incidentes previos —donde el asistente generó salidas consideradas antisemitas o políticamente extremas— alimentan la preocupación sobre la capacidad del sistema para mantener estándares de veracidad y ética.
Desde el punto de vista técnico, copiar y reformular material de Wikipedia para alimentar una nueva enciclopedia basada en IA no es trivial: plantea preguntas legales y de licencia, pero también operacionales. ¿Cómo se controlan las referencias, las pruebas documentales y las enmiendas —procedimientos que en Wikipedia son abiertos y verificables por la comunidad— cuando la autoría la ejerce un algoritmo centralizado? Grokipedia, por ahora, ha mostrado diferencias en el tono y la selección de hechos —por ejemplo, en cómo presenta la trayectoria de figuras públicas— y eso la separa de la tradición editorial colaborativa que hizo de Wikipedia una fuente de referencia universal.
Las implicaciones políticas son inevitables. Un proyecto que combina IA y una visión editorial explícita puede amplificar narrativas específicas con rapidez y alcance. Para gobiernos, periodistas y académicos esto significa que la vigilancia de la calidad informativa tendrá que extenderse más allá de las plataformas humanas: habrá que auditar modelos, prompts y pipelines de datos. Además, la vinculación de Grokipedia con X —la red dirigida por Musk— hace que la iniciativa se inserte en un ecosistema más amplio donde amplificaciones tecnológicas y sesgos ideológicos ya han sido motivo de debate.
Otro punto crítico es la indexación y la legitimidad: en el lanzamiento Grokipedia no estaba indexada en Google y su acceso dependía del dominio directo, lo que limita por ahora su visibilidad frente a Wikipedia. Eso puede ser un freno a su adopción masiva, pero también una oportunidad para que el proyecto refine procesos antes de competir por atención en motores de búsqueda y bibliografías académicas. Mientras tanto, expertos y comunidades de verificación subrayan que la mejor defensa contra la desinformación no es solo técnica, sino institucional: transparencia en las fuentes, políticas claras de corrección y mecanismos comunitarios de rendición.
Para América Latina y otras regiones fuera del mundo anglosajón la llegada de enciclopedias alternativas basadas en IA abre desafíos adicionales: el mapa de idiomas, las normas culturales y la disponibilidad de fuentes de calidad son heterogéneos, y una versión entrenada principalmente en contenido anglosajón puede reproducir omisiones o sesgos que ya afectan a la representación regional en la web. Organizaciones educativas y bibliotecas deberán vigilar no solo la precisión de los artículos, sino también quién define qué se considera “relevante” o “verdadero”.
Que una empresa o un magnate pueda producir una enciclopedia casi a voluntad obliga a repensar qué instituciones —públicas, académicas o comunitarias— deben asumir el papel de guardianes del conocimiento compartido en la era de la inteligencia artificial.
