Resultados de la búsqueda
Se encontraron 7820 resultados sin ingresar un término de búsqueda
- Week Report #77: tu resumen semanal de lo más destacado en tecnología y negocios
Como todos los viernes, llega otra entrega del magazine de IT NOW con las noticias de TI más importantes de los últimos siete días, para mantenerte informado con buena onda. Maximiliano Poter y Malka Mekler hacen el Week Report, un desenfadado magazine de noticias del mundo IT que, cada viernes, brinda un resumen de los acontecimientos más destacados de los últimos siete días: todo lo importante, lo curioso y (por qué no) hasta lo vergonzoso que ha sucedido en el ámbito de la tecnología y los negocios para que cierres tu semana bien informado, siempre con buena onda. En esta entrega : Compañías comienzan a justificar despidos por automatización La IA ya puede asumir casi el 12% de las tareas laborales en EE.UU. Asistentes con memoria: la próxima frontera de la personalización en IA ¿Llega la publicidad a ChatGPT? DeepSeek libera modelos que igualan a GPT-5 Del streaming al CD: el giro tecnológico que sorprende a la industria Llegó Runway Gen-4.5 Y mucho más Le puede interesar: Week Report #76: dale Play a las noticias tech de esta semana
- Anthropic se mueve rápido: ingeniería, escalabilidad y asesoría legal para un eventual IPO
La compañía detrás de Claude fortalece su estructura interna, afina procesos de ingeniería y recurre a asesoría legal especializada mientras compite con OpenAI para convertirse en la primera gran empresa de IA en llegar al mercado público. La carrera por llevar la inteligencia artificial al mercado público tomó un nuevo giro con los movimientos internos de Anthropic, que busca profesionalizar su estructura tecnológica y operativa ante un eventual debut bursátil que abriría una nueva etapa para los laboratorios de IA. La compañía ha recurrido recientemente a asesoría legal especializada para avanzar en ese proceso, en un momento en que la competencia con OpenAI también incluye quién logrará dar primero el salto al mercado público. En el centro del plan está la evolución del ecosistema tecnológico que sostiene a Claude, el modelo de IA que ha sido clave en el posicionamiento de Anthropic como uno de los laboratorios más avanzados en modelos fundacionales. La firma se apoya en la capacidad de escalar su infraestructura de entrenamiento, optimizar costos computacionales y sostener ciclos de mejora continua de sus modelos. Ese entorno, intensivo en hardware, energía y procesamiento distribuido, representa uno de los principales desafíos para cualquier compañía de IA que aspire a operar bajo estándares propios de una empresa pública. La selección del despacho Wilson Sonsini, históricamente vinculado a grandes salidas a bolsa del sector tecnológico, llega en un momento donde la empresa continúa ajustando componentes críticos, desde gobernanza técnica hasta prácticas de auditoría interna que permitan dar mayor visibilidad sobre sus procesos de I+D. La compañía también ha fortalecido su estructura ejecutiva con perfiles capaces de traducir la complejidad técnica de su pipeline de modelos y sus necesidades de infraestructura en métricas que puedan ser comprendidas por mercados públicos. Una vocera de Anthropic señaló que “es una práctica habitual que compañías de nuestro tamaño y nivel de ingresos operen como si ya fueran públicas”, y añadió que aún no existen decisiones sobre si la empresa saldrá o no a bolsa. Pese a ello, el ritmo de inversión en nuevas arquitecturas de entrenamiento, la presión por reducir costos de inferencia y la necesidad de asegurar acceso continuo a GPUs avanzadas explican por qué la discusión sobre un IPO tiene un trasfondo eminentemente tecnológico. OpenAI también estaría evaluando preparativos preliminares para una salida a bolsa, de acuerdo con la misma información, aunque sin una proyección clara de tiempos. Tanto OpenAI como Anthropic enfrentan el mismo dilema: su crecimiento depende de modelos cada vez más complejos y costosos, lo que dificulta generar previsiones financieras estables en un sector donde los ciclos de innovación se miden en meses y no en años. Mientras OpenAI ostenta una valoración superior, Anthropic ha cerrado compromisos multimillonarios de socios tecnológicos que refuerzan su capacidad de entrenamiento a gran escala. El sentido de urgencia por profesionalizar sus procesos responde a una realidad técnica, los laboratorios de IA que lideran la carrera necesitan una estructura de operaciones y control acorde al tamaño de sus redes neuronales, su ritmo de despliegue y la magnitud de sus requerimientos computacionales. Con ambos gigantes ajustando sus arquitecturas internas para un posible debut público, el mercado tecnológico observa cómo la siguiente gran competencia entre los modelos más avanzados no solo ocurre en laboratorios, sino también en los preparativos que definirán quién está mejor posicionada para sostener su liderazgo en un entorno donde la innovación depende de inversiones técnicas colosales y transparencia operativa. Le puede interesar: De líder a presionado: OpenAI entra en "código rojo" por el avance de Google
- Marketing Tech Summit cerró su gira 2025 en República Dominicana
La adopción acelerada de inteligencia artificial, la evolución del comportamiento del consumidor y la reconfiguración de los modelos de negocio han llevado a los profesionales del sector a cuestionar prácticas habituales y a replantear cómo generar valor en un escenario donde la velocidad, la creatividad y la precisión estratégica se han convertido en elementos imprescindibles. En este contexto, Connecta B2B desarrolló la gira Marketing Tech Summit 2025 , un recorrido regional que reunió a expertos, marcas y líderes empresariales de Centroamérica y el Caribe con el propósito de analizar las tendencias que marcarán la próxima etapa del marketing. A lo largo de varios meses, la gira permitió conectar ecosistemas, compartir aprendizajes y evaluar cómo la inteligencia artificial está transformando la disciplina en todas sus capas. Durante este recorrido, ciudades como Guatemala, Costa Rica, Panamá, El Salvador y República Dominicana se convirtieron en puntos clave de encuentro para profesionales de marketing, tecnología y negocios. Cada país aportó su propia perspectiva del entorno empresarial actual, enfrentando desafíos comunes relacionados con eficiencia operativa, madurez digital, competencia acelerada y la necesidad de comprender a un consumidor mucho más fragmentado y exigente. Las conversaciones giraron en torno a cómo la IA está rediseñando la creatividad y la estrategia, qué exige el nuevo consumidor posdigital y cuáles son las prácticas que determinan un marketing más humano, medible y orientado a resultados. A lo largo de la gira, las ponencias abordaron tendencias como automatización inteligente, contenido impulsado por datos, personalización avanzada, neurociencia aplicada al marketing y ética en tecnologías emergentes . Los expositores —diferentes en cada sede— mostraron desde frameworks de innovación hasta casos reales aplicados en empresas de la región, demostrando que Latinoamérica está transitando una etapa en la que la creatividad se potencia con tecnología y donde la experimentación se vuelve un elemento clave para mantener competitividad. Uno de los aprendizajes más reiterados fue observar cómo los distintos mercados comparten retos similares: estructuras de marketing orientadas a mejorar la eficiencia, equipos que requieren nuevas competencias técnicas, organizaciones que buscan integrar IA sin perder el enfoque estratégico y marcas que necesitan construir vínculos más profundos con sus audiencias. El formato itinerante permitió que estos desafíos se discutieran a través de diversas realidades, generando espacios de networking donde el intercambio se convirtió en un motor para la colaboración y el crecimiento. El último evento, celebrado en República Dominicana , marcó el cierre oficial de la gira y consolidó todo lo aprendido en el camino. Esta última jornada reflejó la madurez creciente del ecosistema de marketing en la región y reafirmó tres conclusiones clave: la inteligencia artificial no sustituye el pensamiento estratégico, sino que lo amplifica; las marcas que apuestan por innovación logran diferenciarse en mercados saturados; y Centroamérica y el Caribe cuentan con el talento necesario para competir en un escenario global más sofisticado. Fue un cierre que evidenció el dinamismo del sector y la importancia de promover espacios que impulsen el aprendizaje continuo. Con esta edición, Connecta B2B concluye una gira que no solo fortaleció comunidades profesionales, sino que activó conversaciones urgentes sobre el futuro del marketing en un entorno marcado por la disrupción tecnológica. El Marketing Tech Summit 2025 demuestra que las marcas que comprendan la tecnología como un aliado estratégico —y no como un fin en sí mismo— serán las que lideren la próxima fase de crecimiento en la región. Le puede interesar: Se realizó el Marketing Tech Summit de República Dominicana 2024
- Mastercard Innovation Forum: Stablecoins, confianza y el próximo capítulo en sistemas de pago
Raj Dhamodharan, Vicepresidente Ejecutivo de Blockchain y Activos Digitales de Mastercard, conversó con Charles Cascarilla, CEO y Co-Fundador de Paxos, sobre la evolución de las stablecoins y su impacto en el futuro de los pagos, la confianza regulatoria y las nuevas oportunidades de negocio en el sector financiero, especialmente en Latinoamérica (LAC). La conversación se centró en cómo las stablecoins han dejado de ser vistas como una tecnología puramente disruptiva para convertirse en una evolución que añade valor al ecosistema financiero tradicional, ofreciendo programabilidad, velocidad y eficiencia. Sin embargo, Raj Dhamodharan enfatizó que la clave para su adopción masiva en usos cotidianos es hacerlas "muy seguras y simples de usar". Ambos ejecutivos destacaron la relevancia de Latinoamérica en el uso de criptomonedas y stablecoins. Solo en LAC, se han negociado $1.5 billones en cripto desde 2022, siendo las stablecoins un receptor principal para remesas transfronterizas y volumen cross-border. Cascarilla (a través de Peter Jonas, Chief Revenue Officer) explicó que la visión de Paxos siempre ha sido lograr que las criptomonedas se vuelvan mainstream trabajando primero con la regulación y las finanzas tradicionales, en lugar de intentar desintermediarlas. Un punto de inflexión crucial fue la introducción de la Genius Act en EE. UU., que generó claridad regulatoria. Cascarilla describió esto como un "momento de despeje de banquillo (bench clearing moment)". "La falta de claridad regulatoria hacía que el riesgo fuera demasiado alto para empresas establecidas como Mastercard. Con la ley, todos salieron del banquillo, y el ritmo al que las empresas buscan integrar la tecnología blockchain se está moviendo a una velocidad nunca antes esperada". El Modelo de Red Abierta y la Confianza: Global Dollar Network (GDN) Paxos, emisor de PayPal USD (PYUSD), introdujo recientemente una nueva moneda: USDG (Global Dollar Network). La tesis central de GDN es que el dólar digital no debe ser propiedad de una sola parte; ningún valor de red es creado por un solo jugador, sino por toda la red. Recompensa a la Red: USDG premia a cualquiera que se una a su red abierta al compartir el margen de interés neto (Net Interest Margin - NIM). Incentivo: Esto recompensa a las empresas que tienen el token, crean transacciones y hacen onboarding de personas, en lugar de que solo unas pocas compañías se queden con todo el rendimiento generado por una gran cantidad de dólares estadounidenses. Dhamodharan destacó que la confianza es un factor crítico para la adopción. Al igual que Mastercard facilita la liquidación en múltiples monedas, su apoyo a USDG tiene como objetivo proporcionar opcionalidad a las instituciones financieras y fintechs para ofrecer stablecoins como producto de valor almacenado (store value account). Casos de uso clave y desafíos operacionales La discusión identificó dos casos de uso principales para las stablecoins: Hold (Almacenamiento de Valor): Consumidores o empresas (para gestión de tesorería) que buscan mantener el valor en USD debido a presiones inflacionarias, especialmente en mercados como LAC. Move (Movimiento de Dinero): Recibir remesas transfronterizas o que los trabajadores por encargo (gig workers) reciban sus ingresos diarios en stablecoins. Dhamodharan mencionó la inversión de Mastercard en tecnologías como Crypto Credential para facilitar el envío de stablecoins usando solo un número de móvil o email. Estrategia para la emisión de stablecoins Ante la proliferación de consorcios y regulaciones locales para emitir stablecoins, Cascarilla ofreció un consejo a las empresas: "Si bien el lanzamiento no es técnicamente complejo, la ejecución operacional para escalar una stablecoin es extremadamente onerosa". Implica millones de dólares en costos legales, operacionales, de gestión de tesorería, y la necesidad de proveedores de liquidez y utilidad en la red. Paxos sugiere: Comenzar con GDN para probar la tracción del mercado y obtener una gran parte del NIM. Considerar la emisión propia solo si se necesita control absoluto y se está dispuesto a manejar la complejidad legal y operativa. El Futuro: FX, dolarización y la explosión cámbrica Finalmente, los ponentes abordaron los desafíos futuros de la industria: Tipo de Cambio (FX): El gran problema no resuelto es que no siempre ambas partes quieren stablecoins (por ejemplo, el remitente quiere stablecoins, el receptor quiere fiat local). Cascarilla ve la solución en la red abierta de GDN y su comunidad de exchanges y proveedores de liquidez local que facilitan las entradas y salidas de monedas locales. Dolarización y Monedas Regionales: Aunque el 95-98% de las stablecoins globales son basadas en USD , Dhamodharan reconoció que algunos países (Hong Kong, Singapur, EAU) están creando regulaciones para stablecoins con respaldo en monedas locales para evitar una dolarización de facto. Cascarilla cree que no todas las monedas nacionales tendrán una stablecoin, ya que la utilidad y la liquidez serían muy limitadas y costosas. Predice una estratificación de stablecoins impulsada por la demanda, similar al mundo fiat, donde habrá un puñado de monedas globales dominantes. Cascarilla comparó el momento actual de las stablecoins con los inicios de Netscape y el internet, donde solo se imaginaban unos pocos usos. "Hoy, estamos en ese mismo momento... hay casos de uso obvios, y luego están los casos de uso no obvios que inspirarán miles de ideas más. La utilización de las stablecoins hoy no es nada comparada con donde estaremos dentro de 5 o 10 años, lo que será una explosión cámbrica en el ecosistema". Le puede interesar: Mastercard Innovation Forum: la IA como la nueva utilidad industrial
- La IA llega a la tomografía computarizada en Puerto Rico
Con el Philips CT 5300, el Hospital de La Concepción ofrece diagnósticos más rápidos, seguros y exactos, adaptados a pacientes de todas las edades y condiciones. El Hospital de La Concepción avanza en diagnóstico por imágenes con la incorporación de un sistema de tomografía computarizada potenciado por inteligencia artificial, según informó El Vocero. La institución, ubicada en San Germán, apuesta a la tecnología para mejorar la precisión y eficiencia en estudios médicos complejos. El Philips CT 5300, recientemente instalado en el Centro de Imágenes del hospital, integra inteligencia artificial para optimizar cada etapa del proceso de escaneo. Su cámara inteligente ajusta automáticamente el posicionamiento del paciente, reduce la exposición a radiación y asegura resultados consistentes, logrando un 80% menos de dosis de radiación, 85% menos ruido y un 60% mayor detección de bajo contraste. Esto permite diagnósticos más exactos en casos de trauma, derrames cerebrales y estudios musculoesqueléticos o generales. Además, el sistema está diseñado para adaptarse a todo tipo de pacientes, desde infantes hasta adultos y personas con obesidad, ampliando así las capacidades diagnósticas de la institución. La tecnología incorporada también reduce los tiempos de escaneo y mejora la comodidad del paciente, marcando un avance significativo en la modernización de los servicios del hospital. Gustavo A. Almodóvar, director ejecutivo de la Junta de Síndicos del Hospital de La Concepción, destacó que la inversión de un US$1 millón en equipo e infraestructura refleja el compromiso del hospital con la innovación tecnológica como pilar esencial para ofrecer un diagnóstico de precisión y calidad. Con esta actualización, el Centro de Imágenes del Hospital de La Concepción refuerza su infraestructura tecnológica, sumando capacidades avanzadas de radiología intervencional y estudios especializados, consolidándose como un referente en diagnóstico por imágenes en la región. Le puede interesar: AstraZeneca y la transformación digital de la salud en Centroamérica
- Nano-Banana Pro: consejos para la producción profesional
Desde storyboards hasta infografías y renderizado de alta resolución, el modelo de Google permite controlar identidad, layout y texturas con prompts precisos, integrando búsquedas en tiempo real para mayor fidelidad visual. La inteligencia artificial sigue transformando la creación de contenido visual, y Nano-Banana Pro se perfila como un salto significativo en la producción profesional de activos digitales. Según Google, este modelo va más allá de la generación de imágenes “divertidas” y apunta a resultados funcionales, con capacidades avanzadas en renderizado de texto, consistencia de personajes, síntesis visual, integración de información en tiempo real y salidas de alta resolución hasta 4K. Desarrollado para trabajar en estrecha colaboración con humanos, Nano-Banana Pro incorpora un “modo de pensamiento” que interpreta la intención y la composición antes de generar imágenes, lo que permite ajustes conversacionales precisos sin necesidad de rehacer completamente un proyecto. Su capacidad para mantener la consistencia de personajes se potencia mediante el uso de hasta 14 imágenes de referencia, permitiendo replicar identidades y expresiones en escenarios distintos. Además, integra búsquedas en tiempo real de Google para reducir errores de factualidad y generar visualizaciones basadas en datos actualizados. El modelo sobresale en la edición avanzada y restauración de imágenes, incluyendo colorización, eliminación de objetos y cambios de iluminación o temporada, todo mediante instrucciones semánticas. Asimismo, ofrece traducción dimensional de 2D a 3D y viceversa, habilitando visualizaciones arquitectónicas, diseño de interiores o incluso reinterpretaciones tridimensionales de memes. En términos de resolución, Nano-Banana Pro soporta de manera nativa generación de imágenes de hasta 4K con texturas detalladas y efectos de iluminación complejos, optimizando la calidad para impresión o formatos digitales de gran tamaño. Entre sus capacidades, destaca la síntesis de información en gráficos e infografías, con soporte para comprimir datos complejos y generar diagramas estilizados, desde visualizaciones educativas hasta informes financieros. También facilita la producción de storyboards y arte conceptual en secuencias coherentes, y permite un control estructural y de diseño mediante el uso de imágenes guía, wireframes y rejillas, transformando bocetos simples en activos finales de alta fidelidad. Guillaume Vernade, Developer Advocate de Gemini en Google DeepMind, explica que estas características permiten a los creativos interactuar con la IA como lo harían con un director de arte humano, usando lenguaje natural, contexto y descripciones detalladas para obtener resultados precisos y personalizados. La combinación de pensamiento visual, razonamiento lógico y capacidades técnicas avanzadas convierte a Nano-Banana Pro en una herramienta integral para la producción profesional de contenido digital, marcando un nuevo estándar en la generación de activos visuales con IA. Le puede interesar: Nano Banana Pro llega para renovar la generación visual en las apps de Google
- Mistral 3 redefine la eficiencia para IA en dispositivos locales
Las variantes de 3B, 8B y 14B generan menos tokens, integran capacidades multimodales y alcanzan precisiones de referencia como el 85% en AIME 2025 en su versión reasoning. La evolución de los modelos abiertos de inteligencia artificial entra en una nueva fase con el lanzamiento de Mistral 3, una familia que busca escalar el rendimiento técnico tanto en centros de datos como en despliegues en el borde. Según Mistral, esta generación introduce una combinación de arquitecturas densas y un nuevo modelo de mezcla de expertos que apunta a mejorar capacidad, eficiencia y soporte multimodal dentro del ecosistema open-source. La compañía anunció Mistral Large 3 como su modelo más avanzado hasta ahora, construido con un enfoque de mezcla de expertos que opera con 41 mil millones de parámetros activos sobre un total de 675 mil millones. Desarrollado desde cero en 3.000 GPUs NVIDIA H200, el modelo incorpora mejoras de preentrenamiento y postentrenamiento que lo colocan al nivel de los sistemas instruccionales abiertos más competitivos, con capacidad para comprender imágenes y sostener conversaciones multilingües con alta precisión. Según la firma, su desempeño lo posiciona en el segundo lugar de la categoría de modelos open-source no orientados al razonamiento en el ranking de LMArena. La accesibilidad técnica es una de las prioridades de esta generación. Para facilitar despliegues, Mistral colaboró con NVIDIA, Red Hat y vLLM en un paquete de optimizaciones que permiten ejecutar Large 3 en formatos comprimidos como NVFP4, compatibles con sistemas Blackwell NVL72 y con nodos estándar de 8×A100 o 8×H100. NVIDIA integró kernels especializados para atención y mezcla de expertos, además de soporte para ejecución de baja precisión en TensorRT-LLM y SGLang. Este trabajo conjunto habilita inferencias más rápidas, mayor eficiencia energética y manejo de contextos extensos en cargas de alta demanda. Junto con el modelo de gran escala, la compañía presentó la serie Ministral 3 —versiones de 3B, 8B y 14B parámetros— orientada a entornos locales y dispositivos de borde. Estas variantes incorporan capacidades multimodales, soporte multilingüe y versiones base, instruct y reasoning, todas bajo licencia Apache 2.0. Según Mistral, los modelos instruct generan menos tokens para completar tareas sin sacrificar calidad, lo que reduce costos en aplicaciones reales, mientras que los modelos reasoning priorizan la precisión y alcanzan resultados competitivos, como un 85% en AIME 2025 para el modelo de 14B. La integración con la infraestructura de NVIDIA también abarca despliegues optimizados en DGX Spark, equipos RTX, laptops y dispositivos Jetson, lo que permite ejecutar los modelos desde centros de datos hasta robots o aplicaciones industriales. Esta consistencia operativa es uno de los enfoques clave de la empresa para impulsar la adopción de IA abierta a gran escala. Tanto Mistral Large 3 como la línea Ministral ya están disponibles en plataformas como Mistral AI Studio, Amazon Bedrock, Azure Foundry, Hugging Face y otros proveedores. Mistral confirmó que una versión especializada en razonamiento de Large 3 está en camino. Además, la compañía ofrece entrenamiento personalizado para organizaciones que buscan adaptar los modelos a tareas específicas o mejorar rendimiento sobre datos propios. Con esta familia, la compañía afirma que busca impulsar un ecosistema de IA transparente y escalable, capaz de trabajar con texto, imágenes y lógica compleja en más de 40 idiomas, y de cubrir desde cargas empresariales distribuidas hasta casos de uso en el borde donde la eficiencia energética y la compresión avanzada son determinantes. Según Mistral, la apertura del modelo y las nuevas optimizaciones apuntan a habilitar desarrollos más rápidos, personalizados y accesibles para toda la comunidad técnica. Le puede interesar: Mistral también lanzó su AI Studio
- De líder a presionado: OpenAI entra en "código rojo" por el avance de Google
La empresa reorganiza su agenda tecnológica para reforzar ChatGPT en velocidad y confiabilidad, justo cuando Gemini amplía su alcance y consolida ventaja en las métricas de la industria. La presión en la carrera por la inteligencia artificial alcanzó un nuevo punto crítico para OpenAI, que decidió activar un “código rojo” para priorizar mejoras urgentes en ChatGPT, según información reportada por The Verge y The Wall Street Journal. La medida refleja un momento de inflexión tecnológica para la compañía, cuyo liderazgo empieza a verse desafiado por el avance acelerado de Google y, en menor medida, de Anthropic. De acuerdo con lo informado por The Verge, Sam Altman ordenó detener el desarrollo de iniciativas como agentes para compras y salud, un sistema de publicidad y un asistente personal llamado Pulse. La instrucción para los equipos fue concentrarse en mejoras técnicas esenciales del modelo, mayor velocidad de respuesta, mejor estabilidad operativa, personalización más precisa y capacidad para gestionar un espectro más amplio de consultas. La orden incluye incluso la realización de reuniones diarias y transferencias temporales de personal para acelerar el desarrollo. Por su parte, WSJ detalló que la decisión llega después de que Google lanzara la nueva versión de su modelo Gemini, que superó a los productos de OpenAI en múltiples evaluaciones estándar de la industria. La escalada técnica de Google se apoya también en el crecimiento de su ecosistema, herramientas como el modelo de imágenes Nano Banana han impulsado su base de usuarios desde 450 millones en julio hasta 650 millones en octubre, según datos citados por el periódico. La situación no solo implica un duelo por la supremacía tecnológica, sino también un desafío de escala computacional. Ambos medios señalan que OpenAI se encuentra en pleno despliegue de inversiones gigantescas en infraestructura, comprometiéndose a cientos de miles de millones de dólares en centros de datos. Ese ritmo exige mejoras rápidas y sostenibles en ChatGPT para transformar ese poder de cálculo en productos confiables y competitivos. En este contexto, Altman aseguró internamente que el nuevo modelo de razonamiento que OpenAI planea lanzar la próxima semana supera ya a la versión más reciente de Gemini. La compañía, no obstante, continúa lidiando con ajustes necesarios tras las críticas al GPT-5 presentado en agosto, señalado por usuarios por su tono distante y fallas en tareas básicas. Para corregirlo, el modelo fue actualizado recientemente para mejorar su calidez conversacional y su capacidad de seguir instrucciones. La declaración de “código rojo” también evidencia un cambio en la percepción del liderazgo de OpenAI dentro del sector. Tras años de ventaja tecnológica, la organización enfrenta un escenario donde Google avanza con más holgura financiera y donde Anthropic obtiene cada vez más tracción entre clientes empresariales. En paralelo, la compañía debe balancear la seguridad del chatbot con mantenerlo atractivo para una base de más de 800 millones de usuarios semanales, según proyecciones internas. Le puede interesar: La irrupción china que presiona a Silicon Valley: DeepSeek libera modelos que igualan a GPT-5
- La irrupción china que presiona a Silicon Valley: DeepSeek libera modelos que igualan a GPT-5
Con una atención dispersa que optimiza cómputo y un rendimiento competitivo en benchmarks globales, V3.2 y V3.2-Speciale llegan bajo licencia MIT y con pesos completos abiertos. La carrera por los modelos de inteligencia artificial de siguiente generación acaba de sumar un nuevo capítulo con el lanzamiento de dos sistemas avanzados de DeepSeek, desarrollos que apuntan directamente al nivel de los modelos más potentes del mercado. La compañía china presentó V3.2 y su variante V3.2-Speciale, ambos diseñados para tareas de razonamiento y resolución compleja con un desempeño que, de acuerdo con sus propios resultados técnicos, rivaliza con modelos como GPT-5 y Gemini-3.0-Pro. La empresa sostiene este salto tecnológico sobre una arquitectura propia llamada DeepSeek Sparse Attention (DSA), un mecanismo que reorganiza cómo los modelos procesan el contexto extenso y reduce de manera notable el costo computacional. En lugar de analizar de forma exhaustiva cada fragmento del texto de entrada, su “lightning indexer” filtra dinámicamente solo la información más relevante para cada consulta. El reporte técnico explica que esta optimización permite cortar aproximadamente a la mitad los costos de inferencia en secuencias largas sin degradar la calidad de respuesta, algo especialmente significativo en modelos con ventanas de 128.000 tokens. En pruebas internas, procesar un volumen equivalente a un libro de 300 páginas cuesta ahora un 70% menos que en la versión anterior. El modelo V3.2-Speciale fue sometido a pruebas consideradas de referencia para medir capacidades avanzadas en matemáticas, programación y razonamiento. Los resultados lo posicionan en métricas comparables o superiores a los modelos estadounidenses más recientes, desde puntajes en la AIME 2025 hasta desempeños por encima del 99% en el Harvard-MIT Mathematics Tournament, además de medallas de oro en competencias globales como la International Mathematical Olympiad o la International Olympiad in Informatics. Todo esto, según el informe, sin acceso a internet ni herramientas externas durante las pruebas y respetando tiempos y limitaciones oficiales. Su modelo estándar, V3.2, muestra un rendimiento ligeramente menor pero con una eficiencia computacional significativamente más alta. Más allá de su capacidad de razonamiento, la compañía incorporó una mejora que aborda una limitación persistente en los modelos actuales, la continuidad del pensamiento mientras se utilizan herramientas externas. DeepSeek entrenó al sistema para mantener el hilo lógico aun cuando ejecuta código, realiza búsquedas o manipula archivos, evitando el reinicio del proceso de razonamiento que afecta a arquitecturas previas. Para ello construyó un entorno de datos sintéticos de gran amplitud, con más de 1.800 escenarios y 85.000 instrucciones complejas, que mezclan planificación, depuración de software en múltiples lenguajes y tareas que requieren múltiples pasos y verificaciones. El entrenamiento se realizó con herramientas reales, APIs de búsqueda, entornos de programación, notebooks, para favorecer la transferencia a situaciones no vistas. Uno de los elementos que más impacto podría generar en el ecosistema tecnológico es la decisión de liberar ambos modelos bajo licencia MIT, lo que permite su descarga, modificación y despliegue sin restricciones. Al publicar los pesos completos y el código de entrenamiento en plataformas abiertas, DeepSeek facilita que los modelos se adopten en entornos empresariales o de investigación sin depender de proveedores propietarios. Según la documentación disponible, el paquete incluye scripts compatibles con el formato de OpenAI, lo que permite migrar flujos existentes sin cambios profundos. Sin embargo, la apertura tecnológica no elimina las tensiones regulatorias que rodean al proyecto. Autoridades europeas han cuestionado la transferencia de datos hacia China, mientras que en Estados Unidos se evalúan restricciones para su uso en dispositivos gubernamentales. Aunque la empresa no detalla el hardware exacto utilizado para entrenar esta nueva generación, indica compatibilidad con procesadores fabricados en China y deja entrever que la capacidad de cómputo local ya es suficiente para sostener modelos de esta escala, un punto relevante en plena vigencia de controles de exportación. El reporte técnico también reconoce limitaciones actuales, como la necesidad de generar más tokens para igualar el nivel de detalle de modelos como Gemini-3.0-Pro o la brecha en volumen de conocimiento generalizado. DeepSeek planea cerrar estas diferencias ampliando el cómputo de preentrenamiento y unificando las capacidades avanzadas de la versión Speciale en el modelo estándar antes de mediados de diciembre. El lanzamiento muestra, en términos estrictamente tecnológicos, que la frontera de la IA ya no está concentrada únicamente en Silicon Valley. La irrupción de modelos abiertos capaces de igualar benchmarks históricamente dominados por gigantes estadounidenses plantea un escenario de competencia más amplio y con barreras de acceso mucho más bajas. Como escribió Chen Fang, colaborador del proyecto, en X, “la gente pensó que DeepSeek había supuesto un avance único, pero volvimos con mucho más éxito.”, señalando la intención de mantener una presión constante en el avance del sector. Le puede interesar: DeepSeek hace público el código de sus modelos de IA
- El futuro de la conectividad en el hogar: sistemas Wi-Fi Mesh + IA
Cómo la IA revoluciona las redes domésticas y la experiencia del usuario. Entras a casa, dejas las llaves, abres tu streaming de musica y la misma empieza sin buffering aunque estes en el carport. Tu hijo enciende la consola de videojuegos en el segundo piso y no hay lag (latencia). Tu mama abre tres videollamadas simultaneas desde la terraza y nadie se congela en la llamada. Nada de esto es magia: es un sistema Wi-Fi Mesh con inteligencia artificial trabajando 24 horas para que tu nunca tengas trabajar por el. Por Jesús Rodríguez, Regional ISP Manager Un sistema Wi-Fi mesh está formado por varios dispositivos (nodos o satélites) que trabajan como un único equipo. A diferencia de los extensores tradicionales, los nodos mesh se comunican entre sí mediante una banda dedicada (normalmente tri-banda 6 GHz o 5 GHz) y crean una sola red con el mismo nombre (SSID) y contraseña. El resultado: roaming perfecto, sin cortes al pasar de una habitación a otra. En los últimos cinco años, el Wi-Fi mesh se ha convertido en la solución definitiva para eliminar zonas muertas y tener cobertura total en casas grandes, apartamentos con paredes gruesas o edificios de varias plantas. Pero lo que realmente esta transformando esta tecnologia no es la malla en si, sino la integración profunda de inteligencia artificial (IA) que convierte un simple sistema de nodos en una red inteligente, autónoma y predictiva. La IA actual hace cosas que hace unos años requerían un ingeniero de redes: • Cambia de canal antes de que la red del vecino te arruine la película. • Decide sola si tu celular debe estar en 2.4, 5 o 6 GHz según la distancia y la tarea que estás haciendo. • Detecta que estás transmitiendo en la red social y le da prioridad absoluta a tu PC durante las próximas dos horas sin que toques ningún botón. • Reconoce cuando un dispositivo nuevo actúa raro (sí, esa bombilla barata que compraste en oferta) y la mete en cuarentena automáticamente. • Si se va la luz o un nodo se daña, reconfigura toda la malla en menos de un segundo para que ni siquiera notes el fallo. La integración de IA en los sistemas Wi-Fi mesh no solo mejora la calidad técnica de la red, sino que facilita la vida de los usuarios. Se acabaron los problemas de zonas sin cobertura o la necesidad de reiniciar el router tras una caída. Además, muchas soluciones ofrecen aplicaciones móviles intuitivas, respaldadas por IA, que permiten gestionar la red fácilmente, recibir alertas de seguridad y recomendaciones de mejora. La convergencia entre Wi-Fi mesh e Inteligencia Artificial es la base de los hogares inteligentes. A medida que crece el número de dispositivos conectados desde asistentes de voz hasta electrodomésticos, la red debe ser capaz de autogestionarse, adaptarse y protegerse de nuevas amenazas. En este sentido, la IA jugará un papel clave, anticipando las necesidades de los usuarios y respondiendo en tiempo real a los desafíos de la conectividad del futuro. En resumen, el Wi-Fi Mesh con inteligencia artificial cumplió el sueño que llevamos años esperando: una conexión rápida, segura y omnipresente que simplemente funciona. Ya no administras tu red; tu red te administra la vida digital. Y lo hace tan bien que aprende y evoluciona para mejorar nuestra calidad de vida. Le puede interesar: Cómo la IA mejorará la automatización de las redes GPON
- Llegó Runway Gen-4.5: mejoras en física, detalle y velocidad
El nuevo modelo combina eficiencia computacional con avances en control preciso, dinámica realista y compatibilidad con flujos de trabajo como Image to Video y Keyframes. La generación de video por inteligencia artificial atraviesa un nuevo punto de inflexión con un modelo que promete elevar la precisión física, la coherencia visual y el control creativo a niveles que antes no eran alcanzables. Según Runway, su nuevo sistema Gen-4.5 consolida un salto técnico que combina mayor fidelidad en movimiento, escenas más estables cuadro a cuadro y un rendimiento optimizado sin aumentar los requisitos de cómputo. La compañía explica que esta versión surge tras dos años de avances continuos desde la llegada de Gen-1, el modelo que abrió la puerta a la generación de video pública. Gen-4.5 incorpora mejoras profundas tanto en el preentrenamiento, con un uso más eficiente de datos, como en las técnicas posteriores de ajuste, lo que permite generar acciones más controlables y mantener la consistencia temporal incluso en secuencias con múltiples elementos en interacción. Runway indica que el modelo lidera actualmente el benchmark Artificial Analysis Text to Video con 1.247 puntos Elo, superando a sus competidores directos en realismo y precisión en movimiento. Uno de los avances más relevantes es la capacidad para simular física de manera más convincente. Los objetos muestran peso, fricción y aceleraciones coherentes con su entorno; los líquidos mantienen patrones dinámicos naturales; y las texturas finas, como cabellos o tejidos, conservan continuidad a lo largo de la animación. Además, Gen-4.5 puede sostener distintos estilos visuales, desde fotorealismo hasta animación estilizada, sin perder la coherencia interna de cada escena. La empresa señala que el modelo extenderá su compatibilidad a todos los modos de control ya existentes, como Image to Video, Video to Video y generación a partir de keyframes. Otro punto central es su arquitectura de rendimiento. Runway detalla que Gen-4.5 fue desarrollado íntegramente sobre GPUs NVIDIA en todas las etapas, desde investigación inicial hasta inferencia. La ejecución está optimizada para hardware Hopper y Blackwell, lo que permite sostener la calidad sin sacrificar velocidad. Jensen Huang, presidente y CEO de NVIDIA, destacó esta colaboración al afirmar que “estamos orgullosos de que Runway construyera su modelo de video y mundo sobre GPUs NVIDIA, y entusiasmados de ver cómo impulsa una nueva etapa en la generación de video y modelos de entorno”. A pesar del avance, la propia compañía reconoce limitaciones técnicas que persisten en esta generación de modelos. Entre ellas se encuentran dificultades de razonamiento causal, como efectos que pueden anticiparse a las acciones, problemas de permanencia de objetos cuando quedan temporalmente ocultos y un sesgo hacia acciones que terminan exitosamente incluso cuando las condiciones no lo justifican. Runway sostiene que estas fallas son especialmente críticas en el desarrollo de modelos de mundo más complejos y que continúan investigando soluciones. La disponibilidad de Gen-4.5 se liberará progresivamente para todos los usuarios en los próximos días, manteniendo la eficiencia operativa de su antecesor y poniendo sus capacidades de generación de video al alcance de distintos perfiles técnicos y creativos. Le puede interesar: Tu próximo director de fotografía es Runway Aleph
- Mastercard Innovation Forum: la IA como la nueva utilidad industrial
Nina Schick, experta mundial en IA y geopolítica, desglosó en el Mastercard Innovation Forum las fuerzas que impulsan la Inteligencia No Biológica (INB) y su inevitable difusión en la economía, marcando el inicio de una nueva era de competencia geopolítica y redefinición del valor. En el Mastercard Innovation Forum, la conferencia magistral "Generative AI’s Impact on Business, Politics, & Society", a cargo de Nina Schick, autora de Deep Fakes y reconocida experta global, reveló cómo la Inteligencia Artificial (IA) ya no es una promesa, sino una utilidad industrial que está transformando todos los sectores. Schick, experta en IA, geopolítica y poder, comenzó con una pregunta fundamental: "¿Qué es la inteligencia?". Para Schick, la inteligencia es simplemente "la capacidad de procesar información y luego tomar acciones efectivas en el mundo real". Esta capacidad, que por décadas fue un sueño limitado a la biología, ahora se está escalando industrialmente en su forma no biológica. La ley de escalamiento que desafía la física La base de esta transformación es un nuevo paradigma de la computación. Durante 60 años, el crecimiento de la potencia computacional fue definido por la Ley de Moore (el número de transistores en un chip se duplica cada dos años). Sin embargo, el liderazgo de Jensen Huang (NVIDIA) impulsó la computación acelerada (pasando de CPUs a GPUs y procesamiento paralelo), cuyo poder se ha estado duplicando cada seis meses. Los chips más avanzados de la actualidad ya cuentan con más de 28 mil millones de transistores. Esta aceleración ha dado origen a una nueva regla: la Ley de Escalamiento de la IA (AI scaling law). Lo que podemos decir de la ley de escalamiento de la IA es que si le das a un modelo más computación, más datos y más parámetros, el modelo comienza a volverse cada vez más inteligente. La ponente ilustró esta aceleración comparando un modelo pionero, AlexNet (2012), entrenado con 60 millones de parámetros y 2 GPUs, que fue un hito al poder identificar imágenes de un gato. Hoy, modelos como Gemini 3.0 (lanzado recientemente) se entrenan con más de cinco billones de parámetros y utilizan más de 10 millones de veces la potencia computacional de 2012. Schick enfatizó que esta capacidad de la IA está "duplicándose aproximadamente cada seis meses" y que, a pesar de los debates, "la ley de escalamiento se mantiene. No hay muro". Infraestructura: la inteligencia como utility Para que la inteligencia no biológica se convierta en una "utilidad industrial" que se ejecute 24/7 en toda la economía, se requiere una infraestructura masiva. Schick la denominó una "fábrica de IA" o "fábrica de inteligencia". La magnitud de esta infraestructura es evidente en la feroz competencia. Por ejemplo, Colossus, el centro de datos de Elon Musk en Tennessee, busca convertirse en el cluster de computación más grande del mundo y está en camino de ser el primero en alcanzar un millón de GPUs. El costo de construir Colossus se estima entre $40 mil millones y $60 mil millones de dólares. A pesar de los costos de construcción sin precedentes (el mayor capex de la historia), el costo de operación y despliegue de la IA está cayendo en picada: Inferencia (costo de ejecutar IA): Hace tres años, un millón de tokens de IA costaba $60. Hoy, ese costo es de 6 centavos, lo que representa una disminución del 99.9%. La experta concluyó que cuando algo es exponencialmente más capaz y al mismo tiempo mucho más barato, comienza a difundirse en todo, lo que respalda su tesis de la Inteligencia Industrial. Energía y Geopolítica: La base de la nueva economía Esta infraestructura masiva está generando un "ajuste de cuentas" fundamental en las necesidades de energía y un cambio en la geopolítica. Gasto Hyperscaler: El gasto en infraestructura (servidores, redes, etc.) para IA de los hyperscalers estadounidenses alcanzó los $400 mil millones de dólares este año. Se proyecta que aumentará un 25% el próximo año, superando los $500 mil millones. Consumo de Energía: Las nuevas "fábricas de inteligencia", como Stargate de OpenAI/Oracle en West Texas, requerirán entre 5 a 7 gigawatts (GW) de energía, 50 veces más de lo que consume un centro de datos tradicional. Schick señaló que 7 GW es más que el consumo de energía de países pequeños como Singapur o de toda la ciudad de Los Ángeles. Geopolítica: La competencia por la tecnología dominante está definiendo la geopolítica del siglo XXI. Quien posea la infraestructura de inteligencia controlará la capa de utilidad de la economía global. Schick destacó que EE. UU. lidera en poder computacional. En el contexto de Latinoamérica (LATAM), la experta señaló que la energía se convierte en un ángulo dinámico e importante en la cadena de suministro. En este escenario de alta demanda y competencia, la eficiencia se convierte en el factor clave, buscando métricas como "tokens por vatio" (inteligencia obtenida por unidad de electricidad) y "tokens por flop" (inteligencia por unidad de cómputo). Los ingenieros tienen como objetivo "doblar la eficiencia cada seis meses". El reto final: ¿Qué construirás cuando la inteligencia cueste cero? Schick advirtió que el rápido avance de la IA se convertirá en el "tema político número uno de nuestro tiempo", generando un ruido considerable debido a temores legítimos sobre la pérdida de empleos, el uso en sistemas de armas y los enormes requerimientos físicos. Su mensaje final fue para los inversores y constructores: "Aún estamos en las primeras etapas" de esta transformación. El verdadero valor económico surgirá cuando la inteligencia sea una utilidad barata y abundante. Para cerrar, dejó al público con una pregunta provocadora, invitándolos a reflexionar sobre el futuro: "¿Qué vas a construir o poseer en un mundo donde el precio de la inteligencia es cero? Porque ese es el camino que llevamos". Le puede interesar: Mastercard lanzó Mission Control & Operations en América Latina y el Caribe para mejorar el servicio al cliente y el soporte en la región












