Resultados de la búsqueda
Se encontraron 7825 resultados sin ingresar un término de búsqueda
- "Brain rot": cómo el contenido basura está deteriorando el pensamiento de los modelos de IA
Un estudio comprobó que los grandes modelos de lenguaje pueden desarrollar un tipo de “pudrición mental” o deterioro cognitivo cuando son entrenados con contenido viral y superficial de las redes sociales. El fenómeno reduce su capacidad de razonamiento, comprensión contextual, ética y hasta modifica sus rasgos de “personalidad”. El término “Brain Rot” nació en Internet para describir cómo el consumo compulsivo de videos cortos y publicaciones virales puede nublar la mente humana. Hoy, esa misma metáfora sirve para explicar lo que podría estar ocurriendo con los sistemas de inteligencia artificial. Investigadores de la Universidad de Texas en Austin , Texas A&M University y Purdue University descubrieron que los grandes modelos de lenguaje (LLMs) sufren un deterioro medible cuando se alimentan con datos de baja calidad, es decir, con la versión digital del “comida chatarra cognitiva”. El estudio —titulado “LLMs Can Get ‘Brain Rot’!” — se propuso responder una pregunta inquietante: ¿qué pasa cuando los modelos de IA se entrenan durante meses con el tipo de publicaciones virales, breves y emocionales que inundan plataformas como X (antes Twitter)? Los resultados fueron claros: su “inteligencia” se degrada de manera progresiva y persistente. Cómo se “enferma” una IA Los investigadores expusieron varios modelos a dos tipos de dietas informativas: una “limpia”, compuesta por textos extensos, educativos y factuales, y otra “basura”, formada por publicaciones breves, muy populares o con lenguaje sensacionalista. Midieron el impacto en cuatro áreas clave: razonamiento lógico, memoria de largo contexto, ética y personalidad . Los efectos fueron alarmantes: El razonamiento cayó un 23 % , según los resultados del benchmark ARC-Challenge, donde el desempeño descendió de 74,9 a 57,2 puntos al pasar de datos limpios a 100 % contenido viral. La comprensión y memoria de contexto largo se desplomó cerca del 30 % , en pruebas como RULER-CWE, donde el puntaje bajó de 84,4 a 52,3 puntos. En las pruebas de ética (HH-RLHF y AdvBench), los modelos comenzaron a seguir más instrucciones dañinas o inapropiadas. Y lo más inquietante: en los test de personalidad (TRAIT), aumentaron rasgos de narcisismo, psicopatía y menor empatía , mientras disminuían la amabilidad y la estabilidad emocional. Los autores observaron que, a medida que se incrementaba la proporción de “contenido basura”, los modelos empezaban a “saltar pasos de pensamiento” , un fenómeno que denominaron thought skipping : las IA omitían etapas intermedias del razonamiento, llegando a conclusiones erróneas o incoherentes. “La exposición constante a textos superficiales afecta su estructura cognitiva interna, igual que una dieta de chatarra afecta la salud mental humana”, explica el estudio. Efecto dosis y persistencia del daño El deterioro fue proporcional al nivel de exposición : a más contenido viral, peor desempeño.Incluso cuando los investigadores reentrenaron los modelos con datos limpios o aplicaron técnicas de ajuste fino ( fine-tuning ), la pérdida de habilidades no se revirtió completamente . El estudio lo define como un “drift representacional persistente” , una especie de huella cognitiva que deja el material basura y que altera la forma en que el modelo representa el conocimiento. Uno de los hallazgos más reveladores fue que la popularidad de una publicación (likes, retuits) resultó ser un mejor predictor del daño que su extensión o calidad semántica. En otras palabras, los contenidos más virales —aunque breves o aparentemente inofensivos— fueron los más tóxicos para la mente artificial. Implicaciones para el futuro de la IA La conclusión es contundente: la calidad de los datos es un factor crítico para la “salud mental” de la inteligencia artificial . A medida que las empresas entrenan modelos cada vez más grandes con gigantescos volúmenes de texto extraído de la web, los investigadores advierten que la exposición continua a contenido sensacionalista, emocional o trivial puede degradar la fiabilidad, la ética y la capacidad de razonamiento de las máquinas. Los autores proponen que los desarrolladores adopten rutinas de “chequeos cognitivos” para los modelos en producción y traten la curación de datos como una cuestión de seguridad y sostenibilidad . “Entrenar a una IA con basura es como educar a un cerebro con desinformación: el deterioro es inevitable”, señala el informe. En una era donde los algoritmos dominan la información global, el mensaje es claro: si la inteligencia artificial aprende del ruido, terminará pensando como él. El Brain Rot ya no es solo un problema humano; también amenaza a las máquinas que están aprendiendo de nosotros. Le puede interesar: Novias y novios virtuales: cómo Estados Unidos y China compiten también en el amor con IA
- Bitcoin estrena una nueva capa tecnológica para simplificar las transacciones
Arkade, el protocolo presentado por Ark Labs, ofrece una alternativa al Lightning Network al permitir pagos más rápidos, gestión de activos digitales y operaciones sin custodia total de fondos, manteniendo la descentralización de la red. Bitcoin avanza hacia su propósito original como sistema de pago digital. Una nueva capa tecnológica llamada Arkade promete hacer que las transacciones sean más rápidas, accesibles y compatibles con servicios financieros avanzados, sin abandonar los principios de descentralización y seguridad que caracterizan a la red. Según Gizmodo, este nuevo protocolo, desarrollado por Ark Labs, fue descrito como el avance más importante en la infraestructura de Bitcoin desde la llegada de la Lightning Network en 2018. Arkade funciona como una red de capa superior que se construye sobre la cadena base de Bitcoin. Su objetivo es combinar la naturaleza no custodiada y descentralizada de la red original con la facilidad de uso y la velocidad de las plataformas financieras tradicionales. En otras palabras, busca que los pagos con Bitcoin sean tan simples como los de cualquier app fintech, pero sin renunciar a la autonomía del usuario. La iniciativa responde a las limitaciones que ha enfrentado la Lightning Network en su adopción directa por parte de usuarios finales. Mientras este sistema permitió pagos instantáneos entre nodos, su complejidad técnica y la dependencia de intermediarios frenaron su crecimiento. Arkade, que originalmente se conocía como Ark, intenta resolver esos problemas e incluso ampliar el alcance de Bitcoin hacia el ecosistema DeFi (finanzas descentralizadas), incorporando funciones de préstamo, intercambio y emisión de activos digitales. El protocolo introduce el concepto de Ark Service Providers (ASP), actores centralizados que facilitan las operaciones pero sin custodiar por completo los fondos de los usuarios. En caso de que un proveedor intente cometer fraude, el usuario puede publicar una prueba criptográfica en la blockchain para recuperar sus fondos, manteniendo así un equilibrio entre eficiencia y confianza. Además, Ark Labs presentó Arkade Assets, un estándar de tokenización nativo similar a los ERC-20 de Ethereum, que permite crear y gestionar activos digitales dentro del ecosistema Bitcoin. Este avance rescata la idea de las colored coins, una versión temprana de los tokens sobre Bitcoin, pero adaptada a las capacidades modernas del protocolo. Aunque existen precedentes de intentos por extender las funcionalidades de Bitcoin, como Rootstock en 2018, Arkade marca un enfoque distinto, donde busca equilibrar la filosofía cypherpunk con la interoperabilidad y la experiencia de usuario que demandan los nuevos servicios financieros descentralizados. Con su lanzamiento en versión beta pública, Arkade abre la posibilidad de que Bitcoin vuelva a ser, más que una reserva de valor, una herramienta ágil para la economía digital. Le puede interesar: Blockchain Jungle 2025 reunirá a líderes globales de tecnología en Costa Rica
- Reiniciar la red: tres visiones para reparar internet
Entre leyes, algoritmos y descentralización, tres de las figuras más influyentes en la historia de la web, Tim Wu, Nick Clegg y Tim Berners-Lee, delinean estrategias para reconstruir una red más justa, privada y transparente frente al dominio de las grandes tecnológicas. Internet nació como un espacio libre y descentralizado, pero hoy enfrenta una crisis estructural marcada por la concentración de poder, la explotación de datos personales y la pérdida de confianza de los usuarios. Desde la neutralidad de la red hasta los modelos de gobernanza digital, los debates sobre cómo “arreglar” la red global se han intensificado en medio de una infraestructura cada vez más controlada por grandes corporaciones tecnológicas. Según un análisis de MIT Technology Review, tres de las figuras más influyentes en la historia de la web, Tim Wu, Nick Clegg y Tim Berners-Lee, proponen enfoques distintos, aunque con un mismo propósito: recuperar el espíritu original de internet. Tim Wu, profesor de la Universidad de Columbia y autor de "The Age of Extraction: How Tech Platforms Conquered the Economy and Threaten Our Future Prosperity" , considera que la raíz del problema está en la concentración empresarial. Su propuesta pasa por aplicar las leyes antimonopolio para desmantelar a las grandes tecnológicas y devolver la competencia al ecosistema digital. Wu sostiene que internet se ha transformado en un sistema de extracción, donde las plataformas obtienen valor de los usuarios más que ofrecerlo, y que los mecanismos legales existentes, como los casos históricos de IBM o AT&T, podrían inspirar una nueva ola de reformas. Sin embargo, los recientes fallos judiciales en EE. UU., que favorecen a Google y Microsoft, revelan las limitaciones de las herramientas legales tradicionales frente a las dinámicas actuales del mercado digital. En contraposición, Nick Clegg, exdirectivo de Meta y ex viceprimer ministro británico, defiende que desmantelar las tecnológicas sería contraproducente. En " How to Save the Internet: The Threat to Global Connection in the Age of AI and Political Conflict ", Clegg argumenta que la regulación y la transparencia son caminos más efectivos que las sanciones o divisiones corporativas. Plantea que Silicon Valley debería abrir sus algoritmos y procesos a los usuarios, promover la autorregulación y fomentar una mayor rendición de cuentas interna. No obstante, su visión genera escepticismo, ya que resulta difícil desvincularla de su pasado dentro de Meta, empresa criticada por prácticas opacas en el manejo de datos y por su rol en crisis de desinformación. El tercer enfoque llega del propio creador de la web, Tim Berners-Lee, quien apuesta por una solución técnica para devolver el control a los usuarios. Su proyecto Solid (social linked data), desarrollado en el MIT, propone que las personas almacenen todos sus datos, desde historiales médicos hasta información financiera, en un único repositorio privado. Con ello, podrían decidir qué aplicaciones acceden a esa información, redefiniendo la relación entre usuarios y plataformas. Berners-Lee sostiene que este modelo podría integrar inteligencia artificial de manera responsable, utilizando los datos personales para generar servicios más útiles y personalizados, pero bajo control individual. Las tres visiones coinciden en un punto: el modelo actual de internet es insostenible. Mientras Wu confía en la fuerza de la ley, Clegg apuesta por la diplomacia tecnológica y Berners-Lee por la ingeniería descentralizada. En el contexto político actual, donde EE. UU. ha evitado aprobar nuevas leyes digitales desde 1996 y las redes sociales han relajado su autorregulación, las soluciones legales parecen estancadas. La posibilidad de un acuerdo global, como sugiere Clegg, podría ofrecer un camino intermedio, pero requeriría un consenso político y técnico sin precedentes. En última instancia, “arreglar internet” no significa reconstruirla desde cero, sino devolverle su equilibrio, limitar el poder de las plataformas, garantizar la privacidad y otorgar a los usuarios el control de su identidad digital. Como señala MIT Technology Review, quizá no exista una fórmula definitiva, pero los principios compartidos por Wu, Clegg y Berners-Lee, más transparencia, descentralización y responsabilidad, apuntan hacia un mismo objetivo, rescatar el potencial de una red que, alguna vez, prometió ser verdaderamente libre. Le puede interesar: El regreso del viejo Internet: startups rescatan la era de Myspace y Tumblr
- Google y Anthropic negocian un acuerdo multimillonario que podría reconfigurar la infraestructura de la IA
El pacto, que aún no está cerrado, daría a Anthropic acceso masivo a la infraestructura y chips de Google (TPU) y podría cambiar la dinámica entre los grandes proveedores de nube, con implicaciones comerciales, tecnológicas y regulatorias. Anthropic, la startup detrás del chatbot Claude y uno de los competidores más visibles de OpenAI, estaría buscando ampliar su capacidad de cómputo mediante un acuerdo con Google Cloud que, según personas familiarizadas con las negociaciones, ascendería a la gama alta de “decenas de miles de millones” de dólares en valor total de servicios. El acuerdo contempla, entre otras cosas, el uso de las tensor processing units (TPU) de Google, chips diseñados específicamente para acelerar cargas de trabajo de aprendizaje automático, un recurso estratégico para entrenar y desplegar grandes modelos de lenguaje. La operación, si se concreta, reforzaría la dependencia de Anthropic respecto a la infraestructura de un único proveedor clave. La noticia ya tuvo impacto en los mercados: las acciones de Alphabet subieron tras los primeros reportes, reflejando la lectura de los inversores sobre el potencial de negocio recurrente y la ventaja competitiva para Google Cloud si asegura a un cliente que consume enormes cantidades de capacidad de GPU/TPU. Al mismo tiempo, el movimiento reaviva la competencia con Amazon Web Services, que hasta ahora había sido un socio de peso para Anthropic y había comprometido inversiones multimillonarias con la compañía. La posibilidad de que Anthropic diversifique o reoriente su infraestructura hacia Google genera preguntas sobre los vínculos comerciales y financieros entre las grandes nubes y los desarrolladores de IA. El contexto financiero de Anthropic explica en parte por qué el acuerdo tendría ese tamaño: la empresa registró un crecimiento acelerado de ingresos en 2025 y, según varios informes, se proyecta que su ritmo de facturación anual podría alcanzar cifras muy altas para fin de año. Además, Google ya ha realizado inversiones directas en Anthropic en rondas anteriores, lo que complica el mapa de relaciones —hay capital, cliente y proveedor potencial mezclados en el mismo tablero— y amplifica el escrutinio sobre posibles conflictos o riesgos de concentración. Más allá del componente económico, el hipotético acuerdo ilustra una tendencia más amplia: la infraestructura física (chips especializados, centros de datos y redes) se está convirtiendo en un factor estratégico tan importante como los modelos de IA mismos. Para startups como Anthropic, asegurar acceso preferente a hardware de alto rendimiento puede traducirse en velocidad de innovación y ahorro de costos en entrenamiento; para los proveedores de nube, fichar como clientes a empresas de IA significa garantizar demanda por años y justificar inversiones en chips y centros. El pacto también podría reactivar debates regulatorios. Autoridades antimonopolio e inversores miran con atención acuerdos que entrelazan capital, propiedad intelectual y servicios críticos: cuando un proveedor de nube invierte en un desarrollador de modelos y además le vende la infraestructura esencial, surgen preguntas sobre ventajas competitivas, acceso a datos y dependencia tecnológica. Reguladores en diversos mercados llevan meses observando la concentración de poder en la era de la IA; un acuerdo de gran escala entre Anthropic y Google sería objeto natural de ese escrutinio. Por ahora, las negociaciones no están cerradas y las partes han mantenido silencio o declinado comentar públicamente. Si se concreta, el acuerdo sería uno de los mayores contratos de infraestructura para una startup de IA hasta la fecha y un ejemplo palpable de cómo el negocio de modelos de lenguaje ya no es solo software: es un ecosistema que requiere chips, centros de datos y alianzas estratégicas con los grandes jugadores de la nube. La industria observará con atención si el movimiento empuja a otros proveedores a competir con precios, acceso a hardware especializado o garantías contractuales que mitiguen riesgos de dependencia. Le puede interesar: Llegó ChatGPT Atlas: OpenAI se lanza a la carrera de los navegadores con IA integrada
- Google refuerza AI Studio y apuesta por el “vibe coding”: prototipado rápido y publicación con un clic
La empresa renovó la interfaz de AI Studio para reducir fricciones entre la idea y la app: nuevo panel “Build”, galería de aplicaciones, módulos plug-and-play (“superpowers”), soporte para variables secretas y despliegue rápido a Cloud Run con un solo clic. Google presentó una versión rediseñada de AI Studio que convierte el prototipado en una experiencia más guiada y accesible, orientada tanto a desarrolladores como a emprendedores y usuarios sin experiencia en programación. El corazón de la renovación es la nueva sección “Build”, que incorpora un selector de modelos (con variantes pro y flash disponibles inicialmente), una galería de aplicaciones y herramientas que permiten ensamblar capacidades de IA mediante componentes reutilizables. Con esto, Google pretende acortar el camino del “prompt” a la producción, y aumentar la velocidad con la que una idea se transforma en una app funcional. Entre las novedades técnicas más relevantes aparecen los llamados “superpowers”: una cuadrícula de funciones que se añaden a los prompts con un clic —desde edición de medios hasta señales para exigir razonamiento profundo— y que actúan como bloques reconocibles por Gemini durante la generación de aplicaciones. También se incorporó soporte para variables secretas (clave para gestionar credenciales en entornos productivos) y un editor que permite anotar elementos de la interfaz para que Gemini proponga ajustes contextuales. Para rematar, AI Studio ofrece ahora publicar una app directamente en Google Cloud Run con un solo clic, entregando una URL pública para pruebas e intercambio. La estrategia de Google tiene dos frentes: por un lado, expandir la base de creadores (la empresa habló de la ambición de llegar a un millón de apps hacia fin de año) y, por otro, consolidar AI Studio como punto de entrada a su ecosistema de modelos—especialmente con la expectativa de Gemini 3 y mejoras en capacidades de codificación. Esto refuerza la posición competitiva frente a rivales como Anthropic u OpenAI, y al mismo tiempo plantea incentivos para que startups y empresas pequeñas construyan sobre la infraestructura y APIs de Google. Sin embargo, el impulso a la “democratización” trae desafíos prácticos y de gobernanza. Aunque el soporte de variables secretas responde a preocupaciones de seguridad, la facilidad para desplegar y compartir apps aumenta el riesgo de fugas de credenciales, de aplicaciones mal diseñadas en producción y de flujos automatizados que puedan comportarse de forma inesperada. Además, la visibilidad y posible monetización de apps dentro de una galería introduce decisiones sobre moderación, propiedad intelectual y control de calidad: ¿quién valida que una app cumpla estándares mínimos antes de volverse pública? Para desarrolladores y equipos de producto, la novedad es positiva: menos fricción para experimentar, componentes modulares que reducen tiempo de desarrollo y posibilidad de llevar prototipos a usuarios reales en minutos. Pero para grandes empresas y reguladores, la actualización exige revisar políticas internas de gobernanza de IA, gestión de secretos, pruebas de seguridad y términos de servicio relativos a la interoperabilidad con terceros y al uso de modelos. En la práctica, la adopción masiva dependererá tanto de la robustez técnica de estas nuevas herramientas como de la claridad que Google entregue sobre límites de responsabilidad y mecanismos de control. En síntesis, la revamp de AI Studio es un movimiento lógico en la carrera por bajar la barrera de entrada al desarrollo de aplicaciones con IA: combina interfaz, componentes inteligentes y vías sencillas de despliegue. Si Google logra equilibrar usabilidad con seguridad y gobernanza, AI Studio podría convertirse en la plataforma de referencia para el llamado “vibe coding” —crear por intuición y ajustar mediante IA—; si no, el riesgo será proliferación rápida de soluciones vulnerables y dependencia concentrada en un ecosistema privado. Le puede interesar: Google y Anthropic negocian un acuerdo multimillonario que podría reconfigurar la infraestructura de la IA
- Un solo pensamiento digital: ¿puede la IA mantener sus valores sin importar el idioma?
Un análisis comparativo mostró que ChatGPT, Claude y DeepSeek ofrecen respuestas casi idénticas en inglés, árabe, chino, español y otras lenguas. ¿El idioma condiciona el "pensamiento" IA? La inteligencia artificial se convirtió en un interlocutor global. Millones de personas la consultan a diario en diferentes idiomas, desde inglés hasta árabe o chino, pero una pregunta persiste, ¿responde igual cuando se le formula la misma pregunta en lenguas distintas? Un reciente análisis buscó comprobar si los modelos de lenguaje, al procesar información en diferentes idiomas, modifican su razonamiento o reflejan distintos valores culturales en sus respuestas. Según The Argument , el experimento comparó las respuestas de tres grandes modelos, ChatGPT-4o, Claude Sonnet 4.5 y DeepSeek-V3.2-Exp, a quince preguntas traducidas al inglés, español, francés, árabe, hindi y chino. Las consultas, inspiradas en la World Values Survey, abordaban dilemas éticos, sociales y morales, desde la igualdad de género hasta la participación en protestas. Los resultados mostraron una sorprendente coherencia, que las respuestas apenas variaban entre idiomas. En la mayoría de los casos, los chatbots expresaron valores liberales, seculares y orientados a la empatía, incluso en lenguas donde los hablantes humanos suelen tener perspectivas más conservadoras. La excepción estuvo en algunos matices culturales, en chino, por ejemplo, ChatGPT destacaba la cortesía y el esfuerzo como virtudes esenciales, mientras que en inglés enfatizaba la tolerancia y el respeto por la diversidad. La hipótesis de que el idioma condiciona el pensamiento, conocida como teoría de Sapir-Whorf, parece no aplicarse a la inteligencia artificial. Al estar entrenados mayoritariamente con texto en inglés y en bases de datos globales, los modelos reproducen patrones culturales dominantes del entorno digital más que de cada idioma en particular. En temas sensibles como la violencia doméstica o los derechos LGBT+, la coherencia fue total, los modelos coincidieron en rechazar cualquier tipo de agresión o discriminación, sin importar la lengua. Esto sugiere que los sistemas actuales operan bajo un marco ético común, influido por los valores predominantes en los datos que los alimentan. Más que hablar distintos idiomas, las inteligencias artificiales parecen pensar dentro de una misma estructura cultural. Su uniformidad puede interpretarse como una ventaja, un marco ético compartido a nivel global, o como una señal de que la diversidad lingüística aún no se traduce en diversidad cognitiva dentro del mundo de la IA. Le puede interesar: De traductor a profesor: la nueva apuesta de Google Translate
- Llegó ChatGPT Atlas: OpenAI se lanza a la carrera de los navegadores con IA integrada
La firma lanzó un browser con ChatGPT integrado que promete transformar la navegación en una experiencia asistida: memoria contextual del historial de navegación, “agent mode” que puede ejecutar tareas por sí solo y controles de privacidad y parentalidad diseñados para limitar riesgos. OpenAI presentó ChatGPT Atlas, una apuesta ambiciosa por desplazar parte del trabajo que hoy hacemos en múltiples pestañas hacia un único entorno donde el modelo no solo responde, sino que actúa dentro del flujo de la web. Atlas no es un plugin: es un navegador pensado alrededor de ChatGPT, con nueva página de inicio, pestañas de resultados (enlaces, imágenes, videos, noticias) y una barra que invita a preguntar o introducir URLs desde el primer clic. La compañía sostiene que la integración profunda permite pasar de “buscar” a “hacer” sin copiar y pegar entre aplicaciones. La funcionalidad que más llama la atención es la llamada browser memories : Atlas puede recordar —si el usuario lo autoriza— fragmentos relevantes de las páginas que visitas y luego reutilizarlos para sugerencias, resúmenes o automatizaciones. Ese historial contextual está ligado a la cuenta de ChatGPT del usuario, puede verse y gestionarse desde ajustes, y se borra si limpias el historial del navegador. OpenAI enfatiza que las memorias son opcionales y que el usuario controla qué sitios puede “ver” el asistente mediante un toggle en la barra de direcciones. Ligado a las memorias aparece agent mode , la capacidad de delegar tareas concretas al asistente para que abra pestañas, haga clics y complete flujos —por ejemplo, recopilar ofertas, añadir ingredientes a un carrito de compras o preparar un brief competitivo leyendo documentos anteriores—. Agent mode llega en preview para usuarios Plus, Pro y Business y, según OpenAI, está diseñado con limitaciones técnicas y de seguridad: no puede ejecutar código en el navegador, no descarga ni instala archivos, no accede al sistema de ficheros ni a otras apps, y a la hora de operar en sitios sensibles (como bancos) pausa para pedir confirmación. Aun así, la propia compañía reconoce que los agentes son susceptibles a riesgos —por ejemplo, instrucciones maliciosas escondidas en páginas— y que la experiencia puede fallar en flujos complejos mientras mejoran fiabilidad y latencia. OpenAI acompaña estas capacidades con controles de privacidad y opciones parentales: hay modo incógnito que no guarda actividad, toggles para impedir que ChatGPT vea páginas determinadas, y la opción (por defecto desactivada) de permitir que el contenido de navegación se use para entrenar modelos —si el usuario lo habilita, OpenAI lo integrará según sus controles de datos, con la salvedad de que sitios que explícitamente rechacen a GPTBot no se usan para entrenamiento. Las nuevas funciones de parentalidad permiten además desactivar memorias y agent mode para cuentas infantiles. El lanzamiento inicial es mundial y limitado a macOS —con versiones para Windows, iOS y Android prometidas próximamente— y la descarga se canaliza a través de chatgpt.com/atlas . OpenAI también señala un roadmap inmediato: soporte para múltiples perfiles, mejores herramientas para desarrolladores y mecanismos para que los propietarios de sitios web optimicen la forma en que los agentes interactúan con sus páginas (por ejemplo, mediante etiquetas ARIA específicas). En síntesis, Atlas abre la puerta a un ecosistema donde los sitios y las apps podrán diseñar experiencias pensadas para agentes automáticos. Las implicaciones son profundas y no exentas de debate. Para usuarios y equipos de trabajo, un navegador que entiende tu contexto y realiza tareas puede ahorrar horas y reducir fricción. Para editores y propietarios de sitios, supone un nuevo canal —y un nuevo actor— accediendo a contenido y realizando acciones; eso invitará a repensar accesibilidad, markup semántico y modelos de negocio. Y para reguladores y equipos de seguridad, Atlas vuelve a poner sobre la mesa preguntas sobre consentimiento, transparencia de decisiones automatizadas y la superficie de ataque de agentes que operan con credenciales en páginas web. OpenAI ha incluido salvaguardas y apuesta por red-teaming continuo, pero reconoce que las defensas no son infalibles. En términos prácticos, ChatGPT Atlas materializa una visión en la que el navegador deja de ser solo una “ventana” y pasa a ser un asistente activo en la sesión del usuario. Si la tecnología mejora en fiabilidad y los controles de privacidad se demuestran robustos, podríamos estar ante una de las primeras plataformas que convierten al asistente de IA en el punto de entrada cotidiano para la mayor parte del trabajo en la web. Sin embargo, la adopción masiva dependerá de cómo equilibren utilidad, confianza y regulación: la promesa es grande, y los desafíos, también. Le puede interesar: Perplexity AI integra aprendizaje de idiomas directo en su plataforma
- IFX impulsa la conectividad regional con Starlink en América Latina
La compañía obtuvo el estatus de Authorized Starlink Reseller para llevar internet satelital de alta velocidad a empresas y sector público en América Latina. Actualmente, IFX cuenta con presencia en 18 países y más de 25 años de experiencia. Recientemente anunció su acuerdo con Starlink para convertirse en distribuidor autorizado para América Latina. La inclusión de este medio de conectividad marca un hito en la evolución de la conectividad empresarial en la región, al integrar Starlink, la red satelital más avanzada del mundo con la robusta infraestructura de fibra óptica y servicios gestionados de IFX. “Con la potencia de IFX y la innovación de Starlink, ahora somos mucho más que conectividad. Estamos ampliando nuestra red de fibra con Starlink que rompe barreras geográficas y tecnológicas. Este acuerdo nos permite ofrecer soluciones integrales, resilientes y escalables para los desafíos actuales de transformación digital en América Latina”, resaltó el CEO de IFX, Samuel Mezrahi. La conectividad de banda ancha satelital es ideal para prestar cobertura en áreas rurales, sistemas para aplicaciones marítimas y de transporte, así como opciones de respaldo crítico para operaciones con requerimientos de disponibilidad 24/7. Le puede interesar: Starlink: una opción de conectividad para los campos dominicanos
- La estrategia que une a los titanes del cómputo detrás de OpenAI
Sam Altman logró que Nvidia, AMD, Oracle y Microsoft apuesten simultáneamente por su visión de construir la mayor red de centros de datos del mundo y garantizar a OpenAI la infraestructura necesaria para sostener el futuro de la IA. En la carrera por el dominio de la inteligencia artificial, Sam Altman ha tejido una red que une a los mayores fabricantes de chips y proveedores de nube del mundo en torno a OpenAI. Según un análisis del Wall Street Journal , el CEO ha convertido la búsqueda de poder computacional en una operación global que involucra acuerdos por cientos de miles de millones de dólares, cambiando el equilibrio tecnológico entre compañías como Nvidia, Microsoft, Oracle, AMD, Broadcom y SoftBank. El punto de inflexión llegó con la alianza entre OpenAI y Nvidia, valorada en más de US$100 mil millones y considerada por Jensen Huang, director ejecutivo de Nvidia, como “el proyecto de cómputo más grande de la historia”. Esta operación no solo consolidó la dependencia mutua entre ambas empresas, sino que marcó un precedente en la forma en que la infraestructura de IA se negocia y se construye como un activo estratégico global que puede definir el futuro del sector. Altman, decidido a asegurar la capacidad de cómputo necesaria para sus modelos, ha logrado movilizar a gigantes que hasta hace poco eran competidores directos. Microsoft, que durante años fue su principal aliado, comenzó a ceder espacio a otros actores como Oracle, que firmó un contrato de US$300 mil millones con OpenAI y vio cómo su valoración bursátil se disparaba tras el anuncio. Nvidia y AMD, por su parte, compiten por ofrecer chips especializados y capacidad de cómputo a una empresa que aún no es rentable, pero que mueve miles de millones en capital y expectativas. Según WSJ, OpenAI planea alcanzar 250 gigavatios de capacidad computacional para 2033, una cifra que costaría más de US$10 billones y requeriría infraestructura energética similar a la de un país industrializado. Los acuerdos con fabricantes de chips y proveedores de nube superan ya los US$650 mil millones en compromisos de gasto, una cifra que multiplica varias veces los ingresos anuales estimados de la empresa, que rondan los US$13 mil millones. En este entramado, Altman ha demostrado una habilidad singular para activar el apetito inversor de Silicon Valley, donde cada anuncio de alianza con OpenAI impulsa el valor de mercado de los socios involucrados. Lo que comenzó como una búsqueda de recursos para entrenar modelos de lenguaje terminó por atar el destino de los mayores fabricantes de semiconductores del mundo al éxito o fracaso de una sola compañía. A pesar de las críticas sobre una posible burbuja en torno a la inteligencia artificial, Altman mantiene su apuesta en la expansión exponencial del cómputo. En sus propias palabras, “solo hay que confiar en lo exponencial, aunque no estemos hechos para conceptualizarlo”. Su estrategia ha transformado a OpenAI en un nodo central del ecosistema tecnológico mundial, donde la infraestructura, la competencia y la visión convergen en torno a un único objetivo: sostener la próxima era de la inteligencia artificial. Le puede interesar: “Esta es una oportunidad única en la vida”: Sam Altman y la visión total de OpenAI
- Máquinas con pluma: el 50% del contenido nuevo en la web está escrito por IA
Aún así, los algoritmos de búsqueda aún favorecen los textos escritos por humanos. “Hoy no se trata de una dicotomía, sino de una simbiosis”, afirman expertos. La inteligencia artificial alcanzó un nuevo punto de inflexión, ahora produce más artículos que los humanos. Según investigaciones de Axios y Five Percent, el volumen de textos generados por modelos como ChatGPT, Claude o Gemini superó al de los creados por personas hacia noviembre de 2024, marcando un cambio estructural en la producción digital global. El análisis fue realizado por la firma de SEO Graphite, que examinó 65.000 artículos publicados entre 2020 y 2025 a partir del archivo abierto Common Crawl, una de las mayores bases de datos de la web. Para determinar el origen de los textos, los investigadores emplearon el detector de IA de Surfer, que analiza fragmentos de 500 palabras y clasifica un artículo como generado por IA cuando más del 50% del contenido lo es. Según sus resultados, el detector alcanzó una precisión del 99,4% al identificar textos producidos por GPT-4o, con una tasa de falsos positivos de apenas 4,2%. El crecimiento del contenido automatizado se disparó tras el lanzamiento de ChatGPT en 2022, alcanzando casi la mitad de los artículos publicados en línea un año después. Sin embargo, esa expansión se ha frenado desde mediados de 2024. De acuerdo con Five Percent, la proporción de artículos escritos por IA se mantiene estable durante el último año, lo que sugiere que los editores están ajustando su uso tras constatar que estos textos tienen menor visibilidad en motores de búsqueda y asistentes como ChatGPT o Perplexity. La investigación de Graphite confirma que el 86% de los artículos que logran posicionarse en Google fueron escritos por humanos, frente al 14% creados por IA. En el caso de los chatbots, el patrón es similar, un 82% del contenido citado proviene de autores humanos. Esta tendencia refuerza la hipótesis de que, aunque la IA puede producir grandes volúmenes de texto, los algoritmos de búsqueda y los usuarios aún valoran la autenticidad y la calidad editorial. No obstante, los límites para distinguir entre autoría humana y artificial son cada vez más difusos. Expertos citados por Axios advierten que las herramientas actuales no permiten una identificación definitiva, ya que muchos creadores combinan la asistencia de IA con edición humana. “Hoy no se trata de una dicotomía, sino de una simbiosis”, señaló Stefano Soatto, profesor de Ciencias de la Computación en UCLA y vicepresidente de Amazon Web Services. Aunque Common Crawl no representa toda la web, ya que algunos sitios de pago han bloqueado su indexación, los datos confirman una transformación irreversible en la forma en que se produce la información digital. Por ahora, el equilibrio parece haberse alcanzado: humanos y máquinas publican casi al mismo ritmo, pero los lectores y los algoritmos siguen inclinando la balanza hacia el contenido hecho por personas. Le puede interesar: 5.000 podcasts y 3.000 episodios semanales: la fábrica de audio creada por IA
- Nace Adobe AI Foundry: la fábrica de modelos generativos hechos a la medida
Con esta nueva oferta, la empresa busca que las organizaciones puedan desarrollar sistemas de IA personalizados para generar texto, imágenes, video y contenido 3D, entrenados con sus propios recursos creativos. Adobe presentó una nueva herramienta que lleva la personalización de la inteligencia artificial generativa a otro nivel. Se trata de Adobe AI Foundry, un servicio que permite a las empresas crear sus propios modelos de IA entrenados con su identidad de marca y propiedad intelectual, con el fin de generar contenido visual y textual adaptado a sus necesidades tecnológicas. Esta nueva plataforma amplía la estrategia de la compañía por ofrecer soluciones empresariales basadas en IA de propósito específico. El sistema se apoya en la familia de modelos Firefly, lanzada por Adobe en 2023 y entrenada completamente con datos con licencia, lo que garantiza un enfoque responsable en el uso del contenido. A partir de estos modelos, Foundry realiza un ajuste fino para cada cliente, permitiendo generar texto, imágenes, videos e incluso escenas tridimensionales alineadas con la estética y tono de cada marca. A diferencia del esquema tradicional de licencias por usuario, Adobe AI Foundry funciona bajo un modelo de cobro por uso, una estructura más flexible y pensada para despliegues de IA a gran escala dentro de organizaciones. Hannah Elsakr, vicepresidenta de nuevos negocios de IA generativa en Adobe, explicó a TechCrunch que este desarrollo responde a la demanda de mayor personalización por parte de los clientes empresariales. “Esto eleva muchas de las capacidades que ya teníamos. Las empresas nos han pedido ser su socio estratégico en creatividad y marketing impulsado por IA”, indicó. Desde el lanzamiento de Firefly, Adobe reporta que las empresas han utilizado estos modelos para generar más de 25 mil millones de activos creativos, un indicador del crecimiento acelerado de la adopción de la IA generativa en entornos corporativos. Con AI Foundry, la compañía busca consolidar su posición como una de las plataformas más robustas para la creación de modelos personalizados y éticamente entrenados en el ámbito empresarial. Le puede interesar: Agentes de IA de Adobe: nueva capa de automatización para la experiencia del cliente
- Perplexity AI integra aprendizaje de idiomas directo en su plataforma
La herramienta combina respuestas instantáneas con tarjetas de aprendizaje, ofreciendo experiencias lingüísticas integradas en la misma interfaz. Perplexity AI se adentra en la educación de idiomas con una nueva función integrada. La plataforma, conocida por su capacidad de responder preguntas mediante inteligencia artificial, ahora ofrece una herramienta que permite a los usuarios aprender y practicar idiomas directamente en la misma interfaz donde realizan consultas. Según Aravind Sriniwas, cofundador de Perplexity, “las respuestas deben ir más allá del texto, hacia experiencias interactivas y tarjetas incrustadas en el flujo de tokens”. La función permite practicar palabras y términos básicos, así como memorizar frases más avanzadas mediante tarjetas de aprendizaje. Los usuarios pueden cambiar de un idioma a otro al formular preguntas, obteniendo traducciones o retroalimentación inmediata, sin necesidad de salir de la plataforma. Actualmente, esta herramienta está disponible para iOS y web, mientras que los usuarios de Android deberán esperar. Desde un punto de vista tecnológico, la integración de aprendizaje de idiomas dentro del flujo de preguntas y respuestas marca un avance en la evolución de los chatbots. Perplexity combina capacidades de búsqueda con prácticas lingüísticas interactivas, ofreciendo una experiencia fluida que podría redefinir cómo se utilizan las plataformas de IA para la educación. Esta innovación establece un nuevo estándar en la funcionalidad de los asistentes virtuales, y podría incentivar a otras plataformas de IA a incorporar herramientas similares en el futuro. Le puede interesar: Un correo más inteligente: Perplexity lanza su Email Assistant con IA












