Empresas relajan controles de identidad para acelerar la adopción de IA, pero aumentan los riesgos de seguridad
- angiecantillo1
- hace 2 horas
- 2 Min. de lectura
Un nuevo informe revela que muchas empresas están reduciendo controles de identidad y acceso para acelerar el despliegue de inteligencia artificial, lo que está generando riesgos de seguridad y pérdida de control sobre agentes autónomos.

La carrera por adoptar inteligencia artificial en las empresas está generando un efecto secundario preocupante: muchas organizaciones están relajando sus controles de identidad y acceso para acelerar los despliegues de IA, lo que aumenta significativamente los riesgos de seguridad.
Según un informe citado por SecurityBrief, una gran parte de las organizaciones ya está utilizando agentes de inteligencia artificial en tareas de automatización, desarrollo de software, investigación y seguridad informática. Sin embargo, los sistemas tradicionales de gestión de identidad y acceso (IAM) no están preparados para manejar agentes autónomos a gran escala, lo que está generando una nueva categoría de riesgo empresarial.
Los datos del informe son particularmente reveladores. El 68% de las organizaciones no puede distinguir claramente entre acciones realizadas por humanos y acciones realizadas por agentes de IA.
Además, el 74% de los agentes de IA recibe más permisos de los necesarios, el 79% crea métodos de acceso difíciles de monitorear y más de la mitad hereda permisos no intencionados.
A pesar de estos riesgos, solo el 22% de las organizaciones aplica controles de acceso de forma consistente para agentes de inteligencia artificial.
El problema surge porque muchas empresas están tratando a los agentes de IA como si fueran usuarios humanos o scripts tradicionales, cuando en realidad son entidades autónomas que pueden ejecutar acciones, acceder a sistemas y tomar decisiones sin intervención directa.
Esto crea lo que algunos expertos llaman una “crisis de identidad digital”, donde las organizaciones pierden visibilidad sobre quién o qué está actuando dentro de sus sistemas.
El informe también señala que muchas empresas utilizan cuentas compartidas o credenciales humanas para los agentes de IA, lo que dificulta la trazabilidad y la responsabilidad en caso de incidentes de seguridad.
Las medidas más comunes para mitigar riesgos son revocar tokens (49%) o cerrar entornos (42%), pero solo el 33% de las organizaciones está ajustando políticas de acceso de forma proactiva.
La paradoja es evidente: las empresas quieren adoptar IA lo más rápido posible para no quedarse atrás, pero al hacerlo están debilitando sus controles de seguridad y creando nuevos riesgos operativos. En la práctica, la gobernanza de la inteligencia artificial se está convirtiendo en un problema más importante que la tecnología en sí misma.




Comentarios