Revelaron un incidente de seguridad en el desarrollador de ChatGPT ocurrido el año pasado que no habría comprometido el código detrás de sus sistemas.
A inicios 2023, un hacker logró infiltrarse en los sistemas internos de mensajería de OpenAI, la empresa responsable de ChatGPT, y obtuvo información detallada sobre el diseño de sus tecnologías de inteligencia artificial, según reveló The New York Times.
El intruso accedió a un foro en línea donde los empleados de OpenAI debatían sobre las tecnologías más recientes de la compañía. No obstante, no logró penetrar los sistemas críticos donde se desarrollan y almacenan sus IA.
Durante una reunión general en las oficinas de San Francisco en abril de 2023, los ejecutivos de OpenAI informaron a sus empleados sobre el incidente y también notificaron a su junta directiva, revelaron dos personas que solicitaron el anonimato debido a la sensibilidad del tema.
Los ejecutivos decidieron no hacer pública la información, argumentando que no se había comprometido información de clientes o socios y que el incidente no representaba una amenaza a la seguridad nacional. Creían que el hacker actuaba solo, sin vínculos con gobiernos extranjeros. Por ello, la empresa no informó al FBI ni a otras autoridades.
Sin embargo, para algunos empleados, el incidente levantó alarmas sobre la posibilidad de que adversarios extranjeros, como China, pudieran acceder a tecnología de IA que podría, en el futuro, amenazar la seguridad nacional de Estados Unidos. Esto también generó dudas sobre la seriedad con la que OpenAI estaba manejando su seguridad interna y expuso diferencias internas sobre los riesgos asociados a la inteligencia artificial.
Según la investigación del diario, tras el incidente Leopold Aschenbrenner, gerente de programas técnicos de OpenAI centrado en la seguridad de futuras tecnologías de IA, envió un memorando a la junta directiva, criticando los esfuerzos de la compañía para proteger sus secretos de adversarios extranjeros como el gobierno chino.
Aschenbrenner afirmó que fue despedido en primavera por filtrar información y alegó que su despido tenía motivaciones políticas. En un podcast reciente, mencionó el incidente, aunque los detalles no se habían divulgado antes. Según él, la seguridad de OpenAI no es suficiente para proteger sus secretos clave contra actores extranjeros.
La preocupación de que un hackeo a una empresa tecnológica estadounidense pueda estar vinculado con China no es infundada. El mes pasado, Brad Smith, presidente de Microsoft, testificó en el Congreso sobre cómo hackers chinos utilizaron sistemas de Microsoft para lanzar un ataque a gran escala contra redes del gobierno federal.
Para enfrentar estos riesgos, empresas como OpenAI y Anthropic están fortaleciendo sus medidas de seguridad. OpenAI ha creado recientemente un Comité de Seguridad para evaluar cómo manejar los riesgos de futuras tecnologías. Este comité incluye a Paul Nakasone, ex general del ejército que dirigió la Agencia de Seguridad Nacional y el Comando Cibernético, y quien también ha sido nombrado miembro de la junta directiva de OpenAI.
Funcionarios federales y legisladores estatales también están trabajando en regulaciones que prohibirían la liberación de ciertas tecnologías de IA y multarían a las empresas si sus tecnologías causaran daños. Sin embargo, los expertos creen que estos peligros aún están a años o incluso décadas de distancia.
Mientras tanto, las empresas chinas están desarrollando sistemas de IA casi tan potentes como los líderes en EE.UU. Según algunos informes, China ha superado a Estados Unidos. como el mayor productor de talento en IA, generando casi la mitad de los principales investigadores en IA del mundo.
Comments