La nueva amenaza empresarial: empleados virtuales con identidad propia
- Redacción IT NOW
- 24 abr
- 2 Min. de lectura
El auge de la IA en los entornos laborales está dando paso a una nueva categoría de riesgo cibernético: las identidades "no humanas". Anthropic anticipa, que en menos de un año, estos agentes autónomos comenzarán a operar dentro de redes corporativas con un nivel de autonomía sin precedentes.

Las empresas están por enfrentar una transformación radical en sus esquemas de ciberseguridad. No se trata solo de proteger datos o evitar accesos indebidos por parte de usuarios humanos, sino de prepararse para una nueva clase de amenaza: identidades digitales operadas por inteligencia artificial.
Según Jason Clinton, Chief Information Security Officer (CISO) de Anthropic, estos empleados virtuales estarán presentes en las organizaciones tan pronto como en el próximo año. A diferencia de los agentes actuales de IA, que se limitan a tareas específicas como responder alertas de phishing, estas nuevas entidades tendrán cuentas corporativas propias, contraseñas, recuerdos digitales y roles funcionales dentro del ecosistema laboral, según informó Axios.
El salto tecnológico que representan estas identidades no humanas podría traer importantes beneficios en términos de eficiencia y automatización, pero también abre interrogantes complejos sobre seguridad y gobernanza. ¿Qué permisos debe tener una IA autónoma? ¿Quién responde por sus acciones si compromete un sistema crítico, como una plataforma de integración continua? ¿Qué sucede si es manipulada o utilizada maliciosamente por un tercero? Las empresas deberán revisar a fondo sus políticas de control de acceso, redefinir la clasificación de cuentas dentro de sus sistemas y crear mecanismos para auditar comportamientos de estas nuevas "entidades" digitales.
Anthropic, creadora del modelo de lenguaje Claude, asume una doble responsabilidad en este escenario emergente: por un lado, garantizar que sus modelos sean resistentes a ataques informáticos, y por otro, vigilar activamente los riesgos de uso indebido. La inversión reciente de la empresa en Goodfire —una startup que trabaja en decodificar cómo "piensan" los modelos de IA— sugiere que el enfoque no solo está en la prevención, sino también en la transparencia operativa. Clinton señala que una de las prioridades será desarrollar herramientas que ofrezcan visibilidad total sobre lo que hacen estos empleados virtuales dentro de las redes, algo esencial para mantener la confianza y la seguridad en este nuevo paradigma.
Algunas compañías ya están moviéndose en esta dirección. Okta, especializada en gestión de identidades, lanzó en febrero una plataforma para monitorear y proteger cuentas no humanas, anticipándose a este cambio estructural en el entorno digital corporativo.
Mientras tanto, la integración de IA en la fuerza laboral continúa siendo un tema espinoso. El intento de la empresa Lattice por incluir bots de IA en su organigrama terminó en una rápida marcha atrás tras recibir críticas. Aun así, la dirección es clara: los no-human identities están en camino, y su llegada exigirá a las organizaciones repensar de forma urgente sus estrategias de ciberseguridad, gestión del talento y ética digital.
Comentários