Líderes globales piden establecer “líneas rojas” para la IA antes de 2026
- Redacción IT NOW
- 25 sept
- 2 Min. de lectura
Más de 200 personalidades —incluidos Geoffrey Hinton, un cofundador de OpenAI y el CISO de Anthropic— firmaron un llamado internacional que reclama un acuerdo político vinculante para frenar los usos más peligrosos de la IA. La propuesta busca evitar una nueva carrera armamentista y daños irreversibles a la democracia y la seguridad global.

La inteligencia artificial (IA) volvió a situarse en el centro del debate internacional esta semana. Una coalición integrada por más de 200 exjefes de Estado, premios Nobel, científicos y líderes tecnológicos lanzó el Global Call for AI Red Lines, una iniciativa que pide a los gobiernos alcanzar un acuerdo político internacional para fines de 2026.
El objetivo: definir qué usos de la IA nunca deben permitirse, como el suplantar identidades humanas, la auto-replicación de sistemas o la aplicación militar sin control humano. Entre los firmantes destacan Geoffrey Hinton, considerado el “padrino de la IA”; Wojciech Zaremba, cofundador de OpenAI; Jason Clinton, CISO de Anthropic; e Ian Goodfellow, científico de Google DeepMind.
El anuncio se realizó en vísperas de la 80ª Asamblea General de la ONU en Nueva York, con el respaldo del Centro Francés para la Seguridad de la IA (CeSIA), The Future Society y el Centro de Inteligencia Artificial Compatible con Humanos de la Universidad de California en Berkeley. Durante la presentación, Charbel-Raphaël Segerie, director de CeSIA, advirtió que “el objetivo no es reaccionar después de un incidente, sino prevenir riesgos a gran escala antes de que sucedan”. La Premio Nobel de la Paz Maria Ressa también se sumó al pedido, reclamando “responsabilidad global para acabar con la impunidad de las grandes tecnológicas”.
La propuesta refleja la preocupación por los riesgos geopolíticos y éticos que plantea la IA: desde la manipulación electoral mediante deepfakes hasta la posibilidad de una carrera armamentista basada en algoritmos. Aunque existen regulaciones regionales, como la Ley de IA de la Unión Europea, y acuerdos bilaterales —como el compromiso de EE. UU. y China de mantener el control humano sobre armas nucleares—, aún no se ha alcanzado un marco global integral. Expertos como Stuart Russell, profesor de la Universidad de California en Berkeley, insisten en que la industria debe priorizar la seguridad antes de avanzar hacia modelos más potentes de inteligencia artificial general (IAG), comparándolo con las precauciones que acompañaron al desarrollo nuclear.
La coalición propone seguir ejemplos de tratados exitosos, como los acuerdos contra las armas biológicas o la protección de la capa de ozono, para construir un régimen internacional exigible. En paralelo, la ONU anunció la creación de su primer organismo diplomático sobre IA, que buscará equilibrar la innovación con la mitigación de riesgos. El mensaje de fondo es claro: regular no significa frenar la innovación, sino evitar que el progreso tecnológico derive en consecuencias irreversibles para la humanidad.




شيخ روحاني
رقم شيخ روحاني
شيخ روحاني لجلب الحبيب
الشيخ الروحاني
الشيخ الروحاني
شيخ روحاني سعودي
رقم شيخ روحاني
شيخ روحاني مضمون
Berlinintim
Berlin Intim
جلب الحبيب
https://www.eljnoub.com/
https://hurenberlin.com/
youtube