top of page

Líderes de OpenAI, Microsoft, Google y Anthropic firman otra carta abierta sobre peligros de la IA

"La inteligencia artificial plantea un riesgo de extinción humana similar a la guerra nuclear", advierten los principales científicos y referentes de esta tecnología, entre ellos Sam Altman y los creadores de ChatGPT, Bard y Bing.

Los expertos de la industria y los líderes tecnológicos emitieron una carta abierta advirtiendo que la inteligencia artificial (IA) podría conducir a la extinción humana, enfatizando la necesidad de priorizar la reducción de los riesgos asociados con la tecnología a escala global, junto con otros riesgos a escala social como pandemias y guerras nucleares.


La declaración, publicada el martes por el Centro para la Seguridad de la IA, fue apoyada y firmada por Sam Altman, CEO de OpenAI, la compañía detrás de ChatGPT, así como por ejecutivos de la división de IA de Google, DeepMind y Microsoft, además de especialistas de decenas de universidades.


El comunicado destaca las crecientes discusiones en torno a una amplia gama de riesgos importantes y urgentes que plantea la IA. Sin embargo, reconoce la dificultad de expresar preocupaciones sobre los riesgos más graves asociados con la IA avanzada. La declaración tiene como objetivo superar este desafío y fomentar debates abiertos sobre el tema.


La popularidad de ChatGPT ha aumentado significativamente la conciencia y el interés en la IA, lo que ha llevado a las principales empresas de todo el mundo a competir en el desarrollo de productos y capacidades de la competencia.



Altman admitió previamente en marzo que está "un poco asustado" de la IA debido a las preocupaciones sobre los gobiernos autoritarios que explotan la tecnología. Otros líderes tecnológicos, incluidos Elon Musk de Tesla y el ex director ejecutivo de Google, Eric Schmidt, también han advertido sobre los riesgos sociales que plantea la IA.


En otra carta abierta de marzo, Musk, el cofundador de Apple, Steve Wozniak, y varios otros líderes tecnológicos instaron a los laboratorios de inteligencia artificial a abstenerse de entrenar sistemas para que sean más potentes que GPT-4, el último modelo de lenguaje grande de OpenAI. También pidieron una pausa de seis meses en el desarrollo de sistemas de inteligencia artificial tan avanzados.


La carta cuestionaba si es aconsejable automatizar todos los trabajos, incluso los satisfactorios, y si el desarrollo de mentes no humanas que eventualmente podrían superar en número, astucia y reemplazar a los humanos representa un riesgo para nuestra civilización y control.


Recientemente, Schmidt advirtió por separado sobre los "riesgos existenciales" asociados con el avance de la tecnología de IA.


bottom of page