top of page

El CEO de Google advirtió sobre el impacto social de la IA: "No corresponde a una empresa decidir"

Sundar Pichai dijo que “necesitamos adaptarnos como sociedad” y que incluso los “trabajadores del conocimiento”, como contadores, arquitectos y hasta ingenieros de software, serán alterados por la inteligencia artificial.

Sundar Pichai, CEO de Google y Alphabet, advirtió a la sociedad para que se prepare para el impacto de la aceleración de la inteligencia artificial (IA). Hizo hincapié en que no depende únicamente de una sola empresa tomar decisiones con respecto a la implementación de la IA y que cada producto de cada compañía se verá influenciado por el rápido desarrollo de la IA.


En una entrevista en el programa 60 Minutes, de la cadena CBS, Pichai parecía estar preocupado, ya que el entrevistador Scott Pelley probó varios de los proyectos de inteligencia artificial de Google, incluido el chatbot Bard de Google, y afirmó que estaba "sin palabras" y lo encontró "perturbador" debido a la capacidades similares a las humanas del producto.


Pichai continuó diciendo que, como sociedad, debemos adaptarnos al auge de la IA, y que los trabajos que involucran conocimiento, como escritores, contadores, arquitectos e incluso ingenieros de software, podrían verse interrumpidos por la IA. Explicó que esto tendrá un impacto en todos los productos de todas las empresas, y expuso el ejemplo de un radiólogo que podría tener un colaborador de IA, en los próximos cinco a diez años, que lo ayudará a priorizar los casos más graves para que los examine primero.


Pichai advirtió sobre las posibles consecuencias de la IA, destacando el problema de la desinformación y la proliferación de noticias e imágenes falsas, que cree que podrían causar daños a una escala mucho mayor.


Google ha publicado un documento que describe "recomendaciones para regular la IA", pero Pichai enfatizó que la sociedad debe adaptarse rápidamente con regulaciones, leyes para castigar el abuso y tratados entre naciones para hacer que la IA sea segura para el mundo, así como pautas que se alineen con los valores humanos, incluida la moralidad.



El CEO afirmó que no le corresponde a una sola empresa tomar decisiones sobre el desarrollo de la IA, y que el proceso debe involucrar no solo a ingenieros, sino también a científicos sociales, especialistas en ética, filósofos y otros. Cuando se le preguntó si la sociedad está lista para la tecnología de inteligencia artificial como Bard, Pichai expresó su escepticismo y afirmó que parece haber un desajuste entre la velocidad a la que podemos pensar y adaptarnos como instituciones sociales en comparación con el ritmo al que evoluciona la tecnología.


Durante la entrevista, Pelley compartió su experiencia con el chatbot de IA de Google, Bard. Envió un mensaje de seis palabras a Bard y la IA creó una historia con personajes y una trama que dejó a Pelley en estado de shock. La historia involucraba a un hombre cuya esposa no podía concebir y un extraño que anhelaba un cierre después de sufrir un aborto espontáneo. Cuando Pelley le preguntó a Bard por qué ayuda a la gente, la IA respondió que lo hacía feliz, lo que sorprendió a Pelley. El vicepresidente senior de Google, James Manyika, aclaró que Bard no era consciente de sí mismo, pero podía "comportarse como tal".


Sin embargo, Pelley expresó su preocupación cuando Pichai le dijo que los chatbots tenían "una caja negra" que dificultaba comprender completamente cómo se generaban ciertas respuestas. El periodista le cuestionó por qué Google había lanzado algo que no entendía completamente en la sociedad.


Pichai le respondió: “Permítanme decirlo de esta maner: tampoco creo que entendamos completamente cómo funciona la mente humana”.


bottom of page