top of page

Elon Musk y decenas de líderes tecnológicos piden pausar el desarrollo de sistemas IA por seis meses

En una carta abierta, expertos y empresarios de la industria dicen que hay "una carrera peligrosa hacia modelos de caja negra impredecibles" en los laboratorios de inteligencia artificial.


Elon Musk y decenas de otros exponentes de la industria tech han pedido a los laboratorios de inteligencia artificial (IA) que detengan por seis meses el desarrollo de sistemas que puedan competir con la inteligencia humana.


En una carta abierta del Future of Life Institute, firmada entre otros por Musk, el cofundador de Apple, Steve Wozniak, y el candidato presidencial estadounidense Andrew Yang, se instó a los laboratorios de inteligencia artificial a dejar de entrenar modelos más poderosos que GPT-4, la última versión del modelo de lenguaje grande desarrollado por la firma OpenAI.


El Future of Life Institute es una organización sin fines de lucro que aboga por el desarrollo responsable y ético de la IA, y en su documento expresó preocupaciones sobre las posibles consecuencias de las crecientes capacidades de esta tecnología.


La carta se pregunta si "deberíamos permitir que las máquinas inunden nuestros canales de información con propaganda y mentiras, automatizar todos los trabajos, desarrollar mentes no humanas que eventualmente podrían superarnos y reemplazarnos, y arriesgar la pérdida de control de nuestra civilización". El texto insta a que estas decisiones no sean dejadas en manos de líderes tecnológicos no elegidos.



Según lo publicado por el Instituto, "la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debe planificarse y administrarse con el cuidado y los recursos correspondientes . Desafortunadamente, este nivel de planificación y gestión no está ocurriendo, a pesar de que en los últimos meses los laboratorios de IA han entrado en una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas, que ni siquiera sus creadores, pueden entender, predecir o controlar de forma fiable".


El Instituto fue fundado por el cosmólogo del MIT Max Tegmark y el cofundador de Skype, Jaan Tallinn, entre otros. En el pasado, la entidad ha persuadido a figuras como Musk y el laboratorio de IA propiedad de Google, DeepMind, para comprometerse a no desarrollar sistemas de armas autónomas letales.


Ahora, el organismo está pidiendo a todos los laboratorios de IA que detengan al menos durante medio año el entrenamiento de sistemas que son más poderosos que GPT-4, versión que se cree que es más avanzada que su predecesora, GPT-3.


"La humanidad puede disfrutar de un futuro floreciente con la IA. Habiendo tenido éxito en la creación de poderosos sistemas de IA, ahora podemos disfrutar de un 'verano de IA' en el que cosechamos las recompensas, diseñamos estos sistemas para el claro beneficio de todos y le damos a la sociedad la oportunidad de adaptarse", concluye la misiva abierta. "La sociedad ha hecho una pausa en otras tecnologías con efectos potencialmente catastróficos en la sociedad. Podemos hacerlo aquí. Disfrutemos de un largo verano de IA, no nos apresuremos a caer sin estar preparados".




bottom of page