top of page

Estados Unidos propondrá requisitos para identificar quiénes acceden a las empresas cloud para entrenar modelos de IA

La secretaria de Comercio de EE.UU. afirmó que la creciente preocupación por la seguridad en el sector de la IA ha llevado a la propuesta de regulaciones bajo el lema "conozca a su cliente".



La administración Biden tiene planes de presentar próximamente requisitos para empresas de computación en la nube, con el objetivo de identificar quiénes acceden a las nubes estadounidenses para entrenar modelos de inteligencia artificial, según reveló Reuters.


La secretaria de Comercio de EE. UU., Gina Raimondo, expresó el viernes la necesidad de abordar las crecientes preocupaciones de seguridad en el sector de la IA, indicando que la propuesta de regulaciones "conozca a su cliente" será lanzada la próxima semana. Raimondo subrayó la importancia de evitar que actores no estatales, China u otras entidades no deseadas accedan a la nube para entrenar sus modelos, mencionando la aplicación de controles de exportación en chips ubicados en centros de datos estadounidenses.


La secretaria de Comercio destacó que la regulación propuesta es significativa y afirmó: "Es un asunto importante". Según Raimondo, las empresas de computación en la nube en EE. UU. deberían tener la responsabilidad de conocer a sus principales clientes y qué modelos están entrenando. La obtención de esta información, según Raimondo, determinará las acciones a tomar.


Gina Raimondo compartió estos detalles en una entrevista con Reuters después de participar en un evento junto a la exsecretaria de Estado Condoleezza Rice. Durante el evento, Raimondo informó a la audiencia que el Departamento de Comercio está "iniciando el proceso de exigir a las empresas de computación en la nube de EE. UU. que nos informen cada vez que una entidad no estadounidense utilice su nube para entrenar un gran modelo de lenguaje".


Cabe destacar que en octubre, el presidente Joe Biden firmó una orden ejecutiva que requiere a los desarrolladores de sistemas de inteligencia artificial que representen riesgos para la seguridad nacional, la economía, la salud pública o la seguridad, compartir los resultados de las pruebas de seguridad con el Gobierno antes de su lanzamiento público, utilizando la autoridad del gobierno bajo la Ley de Producción de Defensa (DPA, por sus siglas en inglés).


bottom of page