Cómo un agente "hackeó" la IA de McKinsey y expuso millones de datos estratégicos en solo dos horas
- angiecantillo1
- 23 mar
- 2 Min. de lectura
Una empresa de investigación "pirateó" Lilli, la plataforma de IA interna de McKinsey & Company, y reveló vulnerabilidades críticas, comprometiendo millones de mensajes confidenciales, incluyendo información sobre fusiones, clientes y estrategia corporativa.

La inteligencia artificial corporativa acaba de enfrentar una de sus pruebas más incómodas. Lilli, el chatbot interno desarrollado por McKinsey & Company, fue comprometido por investigadores que lograron acceso completo a su base de datos de producción, exponiendo una escala de información que ilustra tanto el poder como el riesgo de estas plataformas.
El sistema, entrenado con más de 100 años de conocimiento acumulado de la firma, incluyendo 100.000 documentos y entrevistas, se había convertido en una herramienta central para la organización.
Aproximadamente el 70% de sus 45.000 empleados lo utilizaba activamente, generando cerca de 500.000 mensajes mensuales.
Lo que encontraron los investigadores fue mucho más que una falla puntual. El acceso permitió visualizar 47 millones de mensajes de chat, muchos de ellos relacionados con estrategia corporativa, fusiones y adquisiciones y relaciones con clientes. Entre ellos, 728.000 contenían datos confidenciales, además de 57.000 cuentas de usuario y 95 mensajes del sistema que definían el comportamiento de la IA.
El incidente expone un problema estructural en la adopción empresarial de IA: la concentración de conocimiento crítico en sistemas que, si no están adecuadamente protegidos, se convierten en objetivos de alto valor.
A diferencia de bases de datos tradicionales, estos sistemas no solo almacenan información, sino también el razonamiento estratégico detrás de decisiones corporativas.
La paradoja es evidente. Lilli fue diseñada para democratizar el acceso al conocimiento interno de McKinsey, reduciendo fricciones y acelerando decisiones. Pero esa misma centralización amplificó el impacto de la vulnerabilidad.
Más allá del caso específico, el episodio subraya una tensión creciente en el mundo corporativo: cuanto más integradas están las herramientas de IA en el flujo de trabajo, mayor es la superficie de riesgo. Y en un entorno donde los datos incluyen desde estrategias de mercado hasta información de clientes, las brechas dejan de ser incidentes técnicos para convertirse en amenazas reputacionales y legales.
La lección no es abandonar la IA, sino repensar su arquitectura. Seguridad, gobernanza y segmentación de datos ya no son capas adicionales, sino condiciones básicas de operación.




I consider the essay to be well-organized and analytically sound. Neutrality in analysis is preserved. The website offers further contextual materials on the topic. Behavioral background is provided when internet entertainment outlets are mentioned.