top of page

Eric Schmidt, ex-CEO de Google, sobre la IA: "Nos adentramos en cuestiones que plantea la ciencia ficción"

El ejecutivo y actual influyente asesor político exploró el vertiginoso avance de la inteligencia artificial y sus implicaciones para la sociedad. "Estos sistemas no son humanos; no necesariamente entienden las consecuencias de sus acciones", afirmó.

Eric Schmidt es una destacada figura del ámbito tecnológico y empresarial. Bajo su dirección, Google se transformó en una de las compañías más influyentes del mundo. Ha desempeñado roles clave como presidente ejecutivo de Alphabet, la firma matriz de Google, y ha sido un ferviente defensor de la inteligencia artificial y su regulación. Actualmente, preside el Instituto de Innovación Schmidt, que promueve avances tecnológicos y científicos, y ha sido coautor del libro "The Age of AI" junto al célebre (y también polémico) diplomático y exsecretario de Estado Henry Kissinger. Además, es miembro de varios consejos y comisiones, incluyendo la Comisión de Seguridad Nacional sobre Inteligencia Artificial de Estados Unidos, donde aboga por la competencia y la cooperación en IA a nivel global, especialmente en relación con China.


En una reciente entrevista con la revista Noéma, Schmidt analizó el estado actual de la IA, las expectativas para el futuro próximo y los desafíos que esto plantea, especialmente en los vínculos y competencias con China.


Schmidt señala que estamos avanzando rápidamente en la escalera de capacidades de la IA, con un ciclo de desarrollo de nuevos modelos cada 12 a 18 meses. Según él, en pocos años, la IA podría resolver problemas complejos en medicina, ciencia de materiales y cambio climático mediante recetas de mil pasos, gracias al razonamiento en cadena, las ventanas de contexto infinitamente largas y el uso de agentes.



Schmidt describe los agentes como modelos de lenguaje que pueden aprender y experimentar, mencionando que "habrá millones de ellos disponibles". Estos agentes podrían llevar a cabo investigaciones científicas y mejorar sus conocimientos de manera autónoma, lo que tendrá un impacto significativo en diversas industrias.


El tercer avance clave es la capacidad de la IA para realizar acciones a partir de comandos textuales. "Imagina tener programadores que hagan exactamente lo que dices, las 24 horas del día", ilustra Schmidt. Esta capacidad transformará la manera en que interactuamos con la tecnología, permitiendo la creación de software y otras tareas complejas con simples instrucciones textuales.


Sin embargo, Schmidt advierte sobre los riesgos asociados con estos avances. "Aquí nos adentramos en las cuestiones que plantea la ciencia ficción. Lo que he descrito ya está sucediendo. Pero en algún momento, estos sistemas se volverán lo suficientemente poderosos como para que los agentes comiencen a trabajar juntos —explica—. Algunos creen que estos agentes desarrollarán su propio lenguaje para comunicarse entre sí. Y ese es el punto en el que no entenderemos qué están haciendo los modelos. ¿Qué debemos hacer? ¿Tirar del enchufe? ¿Literalmente desconectar la computadora? Realmente será un problema cuando los agentes comiencen a comunicarse y a hacer cosas de maneras que nosotros, como humanos, no entendemos. Para mí, ese es el límite".



La regulación es otro tema central. Schmidt menciona que tanto él como otros líderes tecnológicos están trabajando con gobiernos occidentales y comenzando diálogos con China para establecer marcos regulatorios. "En este momento, los gobiernos han estado haciendo lo correcto al establecer institutos de confianza y seguridad", afirma.


Una preocupación destacada es la proliferación de tecnologías avanzadas fuera del control de las compañías responsables. Schmidt resalta que "hay gente mala que utilizará tus herramientas para hacer daño". El uso indebido de la tecnología, como el reconocimiento facial en China, ejemplifica este riesgo.


Schmidt señala que, aunque China está avanzando en IA, están aproximadamente dos años detrás de Estados Unidos. "China enfrenta restricciones en el acceso al mejor hardware, lo que complica su progreso", explica. A pesar de esto, advierte que la cooperación es esencial, especialmente para evitar que la IA se utilice en formas perjudiciales, como en armas autónomas.


El balance entre competir y cooperar con China es delicado. Schmidt menciona la iniciativa liderada por Kissinger para establecer un grupo de alto nivel que discuta los potenciales y peligros de la IA. "La IA generativa desafía el monopolio de información del Partido-Estado", señala Schmidt, sugiriendo que esto limitará su propagación en China y propone la "regla sin sorpresas" similar al acuerdo Open Skies de la Guerra Fría, donde ambas partes informen sobre las actividades de entrenamiento en IA. "Es fundamental para evitar malentendidos y garantizar la seguridad", afirma.


Para Schmidt, hay que recordar que "estos sistemas no son humanos; no necesariamente entienden las consecuencias de sus acciones. Todos [los grandes modelos de lenguaje] se basan en un principio simple de predecir la siguiente palabra. Entonces... no estamos hablando del tipo de comprensión emocional de la historia que tenemos los humanos. Entonces, cuando se trata de inteligencia no humana que no tiene el beneficio de la experiencia humana, ¿qué límites le ponemos? Se trata de un desafío tanto para Occidente como para China".


Sin embargo, el exdirectivo afirmó estar "mucho más preocupado por la proliferación del código abierto. Y estoy seguro de que los chinos comparten la misma preocupación sobre cómo se puede utilizar indebidamente contra su gobierno y contra el nuestro". Según él, es necesario "asegurarnos de que los modelos de código abierto sean seguros con barreras de seguridad en primer lugar a través de lo que llamamos aprendizaje reforzado a partir de retroalimentación humana (RLHF, por sus siglas en inglés) que está ajustado para que esas barreras no puedan ser rechazadas por personas malvadas".


Comments


bottom of page