Resultados de la búsqueda
Se encontraron 8249 resultados sin ingresar un término de búsqueda
- Banking Tech Summit Costa Rica 2026: la modernización bancaria dejó de ser una opción para ser una decisión estratégica
Fernando Batres, Senior BSG Consultant en Temenos, presentó una conferencia reveladora basada en un estudio reciente realizado junto a PCMI, donde subrayó que la modernización de los sistemas core ya no es un proyecto técnico aislado, sino el motor de supervivencia competitiva en la región. Con un 60% de los cores bancarios en Latinoamérica operando aún bajo tecnologías legadas, Batres advirtió que estas instituciones enfrentan costos operativos hasta 10 veces mayores que aquellos competidores que han adoptado plataformas abiertas y en la nube. Uno de los puntos más impactantes de la charla fue la comparativa entre la banca tradicional y los nuevos actores digitales. Batres destacó el caso de Nubank , que en 2025 alcanzó los 125 millones de usuarios, consolidándose como un referente de lo que la tecnología Cloud Native y una mentalidad Digital First pueden lograr. "El mercado de banca digital llegará a los 15.4 billones para 2032. Los Neobancos y las Fintech están 'devorando' el mercado, especialmente entre la Generación Z y los Millennials, porque logran lanzar productos en 3 o 6 meses, mientras que la banca tradicional tarda 12 meses o más", señaló Batres. El estudio presentado categorizó las motivaciones de los ejecutivos para modernizarse en tres ejes clave: Estratégico: Búsqueda de eficiencia operativa y mejora en la experiencia del cliente (prioridad para el 46% de los líderes globales). Competitivo: Agilidad frente a la amenaza directa que representan las Fintech. Regulatorio: Presión de los entes reguladores para adoptar estándares de Open Finance, APIs abiertas y ciberseguridad avanzada, como ha ocurrido en Brasil, México y Colombia. Batres analizó cómo varían los impulsores de modernización según el país. Mientras que Brasil lidera en todas las dimensiones (estratégica, competitiva y regulatoria), Costa Rica muestra un balance saludable con una madurez tecnológica destacable. Por el contrario, en países como Guatemala , el motor principal es la competitividad y la regulación, quedando el aspecto estratégico en un segundo plano. Para Batres, el éxito de la transformación no depende solo del software, sino de superar barreras culturales. Propuso siete principios fundamentales: Sponsors internos fuertes: Líderes que impulsen el cambio. Gradualidad (Quick Wins): Evitar los proyectos "Big Bang" y optar por victorias rápidas y controladas. Alineación con el regulador: Invitarlos de forma temprana al proceso. Transformación cultural y educación: Tanto para el personal interno como para el cliente. Alineación Tecnología-Negocio: Terminar con la brecha de objetivos distintos entre departamentos. Socios adecuados: Elegir aliados tecnológicos con experiencia comprobada. Mirando hacia los próximos cinco años, Batres identificó las tendencias que definirán la "nueva banca": la IA Generativa para asistentes virtuales y personalización de productos en tiempo real, la integración de pagos instantáneos (Fast Payments) y el Open Finance para servicios integrados. "La pregunta para cada institución no es si debe modernizarse, sino cuáles son los desafíos específicos que quiere resolver en los próximos cinco años para no quedar fuera de esta porción del mercado que los nuevos actores están tomando", concluyó el consultor de Temenos. Lea también: Banking Tech Summit Costa Rica 2026: la resiliencia de datos como pilar antes de la IA
- Banking Tech Summit Costa Rica 2026: infraestructura financiera sin límite para la bancarización de zonas remotas
Edwin Maldonado, gerente comercial regional de COMNET, presentó en el evento un ecosistema integral que combina la conectividad satelital de baja latencia con soluciones avanzadas de ciberseguridad. El objetivo es superar las barreras geográficas y tecnológicas que impiden la bancarización en Centroamérica y el Caribe, ofreciendo a las instituciones financieras una infraestructura robusta para agencias rurales, cajeros automáticos y operaciones en la agroindustria. En el marco del evento Banking Tech Summit, Edwin Maldonado, Gerente Comercial Regional de COMNET, abordó el persistente desafío de la infraestructura financiera y la bancarización en Centroamérica y el Caribe, donde el mercado informal sigue siendo significativo y una gran parte de la población carece de conectividad fuera de las ciudades. COMNET, una empresa regional con 29 años de experiencia en telecomunicaciones, propone una solución que denomina "infraestructura financiera sin límites". Esta solución se basa en dos pilares tecnológicos fundamentales: la conectividad satelital empresarial con Starlink y la ciberseguridad de la mano de Safetica y ESET.Conectividad de Grado Empresarial con Baja Latencia El primer pilar se centra en llevar conectividad de alta velocidad a cualquier punto, incluyendo sitios remotos de Costa Rica como Isla del Coco y Puntaburicas, que antes no tenían servicio. A diferencia de los sistemas satelitales geostacionarios previos, que tenían latencias de 600 u 800 milisegundos (lo que los hacía inviables para la banca), la solución actual con Starlink ofrece capacidades superiores a los 150 Mbps de descarga y 20 Mbps de subida, con una baja latencia que oscila entre 25 y 50 milisegundos. Las ventajas operativas de esta conectividad para la banca incluyen: Diseño Robusto: Equipos diseñados para exteriores y cualquier condición. Integración y VPN: COMNET provee una IP pública enrutable que facilita la integración transparente con soluciones de VPN y elimina el doble NAT, lo que es crucial para conectar ATMs, agencias remotas y ofrecer redundancia. Alta Disponibilidad: La disponibilidad satelital es significativamente mayor que la de la fibra óptica, ya que no depende de infraestructura terrestre. Incluso hay clientes que han posicionado a Starlink como su servicio primario. La empresa ya cuenta con casos de éxito en la banca de Honduras, Guatemala y El Salvador, donde la conectividad satelital se gestiona a través de SD-WAN (con Meraki o Fortinet).Ciberseguridad Inteligente para Puntos Remotos El segundo pilar busca simplificar la gestión de la ciberseguridad en puntos pequeños como cajas rurales, donde la instalación tradicional de firewalls y redes LAN completas resulta compleja. La solución se centra en Safetica DLP (Data Loss Prevention) y HUEVA (un análisis de comportamiento). El software de Safetica, gestionado de forma centralizada en la nube, ayuda a las entidades bancarias a cumplir con regulaciones como PCI DSS e ISO 27001. Sus funciones principales son: Protección Obligatoria: Defensa contra malware, ransomware y amenazas de día cero. Control de Datos: Clasificación automática de información financiera, números de cuenta y PII (Información de Identidad Personal), con control estricto de puertos y cifrado forzoso de dispositivos extraíbles. Inteligencia Artificial (IA): Safetica utiliza IA para analizar el comportamiento y el tráfico de los usuarios. Esto permite aplicar políticas de forma automática, generar alertas y tomar decisiones de bloqueo de tráfico o usuarios específicos, lo que simplifica la gestión del sistema y la mitigación de Shadow IT. Multimarca: A diferencia de ecosistemas cerrados como Microsoft Purview, Safetica es multimarca y permite integraciones con sistemas de almacenamiento locales, nube y Microsoft 365, mejorando la gestión y el control. Soluciones de Acercamiento al ClienteMaldonado detalló varios casos de uso que demuestran cómo estas tecnologías eliminan las barreras de comunicación y aceleran la digitalización: Agencias Remotas y Cajas Rurales: Permiten un despliegue muy rápido e inmediato ("go to market") al simplificar la infraestructura de red. Al dotar al usuario con un único dispositivo (como una laptop) y conectividad satelital, la banca puede acercarse más rápido a su cliente. ATMs: En regiones como el Caribe, donde la baja señal de telefonía móvil dificulta el uso de ATMs con SIMs/APNs, la conectividad satelital garantiza la agilidad y confiabilidad del sistema, fundamentales para fomentar la confianza y la bancarización. Unidades Móviles: El uso de unidades equipadas con sistemas satelitales garantiza conectividad durante todo el trayecto para servicios como activaciones, que hoy dependen de la señal en el sitio y a menudo deben reprogramarse. Agroindustria y Pago de Nóminas: Para el sector agrícola, que requiere que el banco lleve efectivo para el pago de nóminas en el campo, una solución simple permite realizar transacciones en línea en el sitio. Se utiliza una computadora, internet de Starlink y un banco de baterías que soporta de 6 a 8 horas de operación. Esto garantiza que la data llegue en tiempo real a la nube, evitando la dependencia de digitalizadores o la escritura manual. Maldonado concluyó que la banca no tiene fronteras, y el éxito en la expansión de los servicios depende de la creatividad y la adopción de nuevas tecnologías para generar valor a los clientes Le puede interesar: Banking Tech Summit Costa Rica: La resiliencia de datos como pilar antes de la IA
- Banking Tech Summit Costa Rica 2026: la resiliencia de datos como pilar antes de la IA
Durante la jornada, Marvin Espinoza, Gerente de Soluciones en Veeam, presentó una conferencia magistral sobre la evolución de la protección de datos y la urgencia de establecer una estrategia de resiliencia antes de aventurarse en la complejidad de la Inteligencia Artificial (IA). Bajo la premisa de que "la tecnología sin una base sólida de datos curados y protegidos no genera valor real", Espinoza desglosó el panorama actual donde los ciberataques, especialmente el ransomware, han dejado de ser una posibilidad para convertirse en una constante operativa para la banca. Espinoza realizó un recorrido histórico para contextualizar la posición actual de las instituciones. Mientras que en 2005 el enfoque era la simplicidad del backup, y en 2015 la agilidad en la recuperación, el 2026 exige una resiliencia total . "Ya no basta con tener una copia de seguridad. El reto hoy es cómo lograr una recuperación instantánea. Imaginen su aplicación core bancaria recuperada en menos de 5 minutos; eso es lo que el negocio exige hoy", señaló el experto. Con estadísticas recientes analizadas por Veeam, Espinoza destacó que: El 98% de los líderes bancarios sitúan la ciberseguridad como su prioridad número uno. El 94% incrementó su presupuesto para recuperación de datos durante el último año. El 62% de los tomadores de decisión en finanzas consideran que generar estrategias digitales es hoy más complicado debido a la sofisticación de los ataques. Uno de los puntos más críticos de la charla fue la intersección entre la IA y la seguridad de datos. Espinoza advirtió sobre el peligro de alimentar modelos de IA con datos que no han sido "curados" o protegidos. Tras la reciente adquisición de una empresa especializada en Safe AI , Veeam busca que las entidades financieras puedan descubrir quién tiene acceso a qué información y eliminar la data R.A.D.A. (Redundante, Obsoleta o Trivial). "Antes de activar la IA, debemos hacer resiliencia. Si le damos 'basura' a la inteligencia artificial o exponemos datos sensibles sin gobernanza, estamos creando un problema mayor", afirmó Espinoza. Veeam propuso un modelo de protección proactivo para entornos modernos (Kubernetes, Microsoft 365, Nube e Híbridos) que incluye: Inmutabilidad de repositorios: Tarea obligatoria para evitar que los atacantes borren los backups antes de declarar el ransomware. Regla 3-2-1-1-0: Tres copias de datos, dos medios distintos, una copia remota, una aislada (offline/inmutable) y cero errores tras la validación automática. Recuperación segura: Uso de Yara Rules para asegurar que el backup que se va a restaurar no contenga infecciones latentes que reinfecten el ambiente. Para finalizar, se presentó la recuperación orquestada , una solución que automatiza el flujo de trabajo en caso de desastre. Esto elimina la dependencia de procesos manuales, permitiendo que las aplicaciones críticas vuelvan a estar en línea mediante un "botón rojo" que ejecuta scripts y validaciones de cumplimiento (compliance) de forma automática. La sesión cerró con un dato alarmante: mientras el 90% de los líderes cree que puede recuperarse de un ataque, en la realidad, solo el 28% lo logra con éxito tras un incidente real. El objetivo de Veeam en este 2026 es cerrar esa brecha de confianza mediante la protección inteligente y la disponibilidad total de la información. Le puede interesar: Banking Tech Summit Costa Rica 2026: infraestructura financiera sin límite para la bancarización de zonas remotas
- Guatemala se prepara para el Banking Tech Summit 2026: innovación, IA y banca digital en el centro del debate
El próximo 21 de abril, el Hotel Westin Camino Real será sede del encuentro clave para líderes del sector financiero que abordará desde la modernización del core bancario hasta el impacto real de la inteligencia artificial y los nuevos modelos de negocio digitales. El ecosistema financiero de Centroamérica tiene una cita ineludible el próximo 21 de abril en Ciudad de Guatemala. Ese día se desarrollará una nueva edición del Banking Tech Summit, un evento que reúne a ejecutivos, especialistas y proveedores tecnológicos con un objetivo claro: analizar cómo la banca puede evolucionar en un contexto atravesado por la digitalización, la presión competitiva de las fintech y las nuevas demandas de los clientes. La agenda del encuentro confirma ese enfoque estratégico. A lo largo de toda la jornada, se sucederán conferencias, masterclasses y espacios de networking diseñados para ofrecer una visión integral sobre los principales desafíos y oportunidades que enfrenta la industria. Uno de los ejes centrales será la modernización de la arquitectura bancaria. La jornada abrirá con una conferencia orientada a entender cómo transformar el core financiero sin comprometer la operación, abordando estrategias como la modernización progresiva, la coexistencia con sistemas legacy o la sustitución total, un dilema recurrente en las instituciones de la región. En paralelo, el evento pondrá el foco en la optimización de costos y la eficiencia operativa mediante prácticas como FinOps, que propone integrar finanzas, tecnología y operaciones para mejorar la toma de decisiones basada en datos en entornos cloud. La inteligencia artificial tendrá un rol protagónico en múltiples sesiones. Desde una mirada pragmática sobre cómo lograr que la IA genere impacto real en el negocio, hasta debates más avanzados sobre el control del flujo transaccional en la era de agentes inteligentes y protocolos automatizados, el evento buscará ir más allá del discurso teórico para centrarse en casos de uso concretos. Otro de los puntos destacados será la masterclass sobre banca componible y modelos Open Finance, que analizará cómo las instituciones financieras están migrando desde arquitecturas monolíticas hacia ecosistemas abiertos, basados en APIs y orientados a servicios como el embedded banking o el banking as a service. Este enfoque, cada vez más adoptado a nivel global, redefine tanto la arquitectura tecnológica como los modelos de negocio. La evolución de los sistemas core en América Latina también tendrá su espacio, con un análisis sobre el costo de mantener plataformas legacy frente a la necesidad de acelerar la innovación en un entorno donde las fintech marcan el ritmo del mercado. El evento incluirá además un conversatorio sobre el futuro de los servicios financieros, en el que se debatirán temas como la confianza digital, la hiperpersonalización basada en datos y la emergencia de nuevos modelos operativos. La agenda avanza luego hacia cuestiones críticas como la continuidad operativa y la seguridad en infraestructuras distribuidas, el uso seguro de inteligencia artificial, y la creciente importancia de estrategias de inversión tecnológica alineadas con objetivos de negocio. También se abordarán temas como la interoperabilidad en pagos inmediatos, el valor del capital digital como activo estratégico, el futuro de las inversiones en la región y la creciente brecha de talento en ciberseguridad, un problema que amenaza con limitar el crecimiento del sector. El cierre de la jornada estará marcado por una mirada hacia el futuro inmediato de la banca, con foco en la inteligencia artificial generativa y su integración en procesos críticos, no como experimentos aislados, sino como parte del modelo operativo de las organizaciones. Más allá del contenido técnico, el Banking Tech Summit Guatemala se presenta como un espacio de articulación entre actores clave del ecosistema financiero, donde la conversación no solo gira en torno a la tecnología, sino también a la estrategia, la regulación y la evolución del negocio. Para conocer más del evento, acceda al podcast exclusivo con la participación de Pavel Alvarado, speaker del summit y especialista en banca de Centroamérica y el Caribe, junto a Javier Cruz, director de Connecta B2B para el Triángulo Norte, quienes analizan en detalle las claves de esta edición. Puede acceder a la galería de imágenes de la edición 2025 aquí . Para conocer más sobre la agenda completa, los speakers y las opciones de inscripción, se puede visitar el sitio oficial del evento: https://www.bankingtechsummit.net/ . Le puede interesar: Banking Tech Summit Rep. Dominicana 2026: de la IA predictiva a la banca conversacional, el nuevo roadmap financiero
- El liderazgo humano como habilidad fundamental en la era de los agentes de IA
Durante años pensamos en la inteligencia artificial (IA) como algo lejano. Luego irrumpió la IA generativa y la incorporamos como una herramienta: un asistente capaz de escribir, analizar datos o responder preguntas con mayor velocidad. En 2026 se consolida una etapa distinta, la de la IA agéntica. Los agentes ya no solo asisten, sino que ejecutan de manera autónoma tareas y procesos completos. Por Ezequiel Glinsky, director de Tecnología para Microsoft Latinoamérica Lo que parecía ciencia ficción hoy es una realidad para las empresas frontera, aquellas que centran su modelo de negocio en la IA. Según IDC, estas organizaciones no solo adoptan IA más rápido, sino que logran beneficios hasta tres veces mayores que quienes la implementan de forma fragmentada. En la era agéntica, el cambio es tecnológico, pero principalmente organizacional, cultural y de liderazgo. Los agentes no son simplemente “IA más avanzada”, son una nueva forma de trabajo digital que obliga a repensar estructuras, roles y toma de decisiones. Según el Índice de Tendencias Laborales 2025, el 40% de las organizaciones latinoamericanas ya utiliza agentes para automatizar flujos completos, en un contexto donde el 78% de los trabajadores afirma no tener suficiente tiempo o energía para hacer su trabajo. La pregunta clave para los líderes ya no es si van a adoptar agentes, sino si están preparados para dirigirlos. Liderar agentes no significa programarlos, sino saber definir objetivos claros, establecer límites, decidir qué métricas importan y cuándo intervenir. El liderazgo se convierte en la orquestación de inteligencia, de manera que la idea de que las empresas del futuro van a ser lideradas por humanos y operadas por agentes empieza a tomar forma concreta. Por eso, la adopción de agentes no puede ser un proyecto exclusivo del área de tecnología. El impacto real surge cuando el negocio define prioridades y procesos críticos, y la tecnología habilita un marco seguro para ejecutarlos. Emergen así equipos híbridos, donde humanos y agentes trabajan de forma coordinada. Las personas aportan criterio, contexto y responsabilidad; los agentes escala, velocidad y consistencia. Este modelo redefine la responsabilidad. Si los agentes ejecutan trabajo real, alguien debe definir cómo operan y bajo qué criterios se supervisan. La gobernanza, con supervisión humana, trazabilidad y reglas claras, se convierte en parte esencial del liderazgo. La IA responsable no es un concepto abstracto, sino una práctica cotidiana en la toma de decisiones. Los datos confirman que este cambio ya está en marcha. El Índice de Tendencias Laborales 2025 de Microsoft señala que el 42% de los líderes espera que sus equipos aprendan a entrenar agentes, y un 33% anticipa que deberán gestionarlos activamente. Por su parte, IDC proyecta que el número de empresas que utilizan IA agéntica se triplicará en los próximos dos años. La próxima ventaja competitiva no será quién use agentes de IA, sino quién sepa integrarlos al corazón del negocio, con una visión clara de impacto y con personas en el centro de cada decisión. Porque la tecnología puede escalar capacidades, pero el liderazgo seguirá siendo una responsabilidad humana. Le puede interesar: IA empresarial: la integración reemplaza a la obsesión por los modelos
- El poder silencioso de las GPU: cómo el paralelismo masivo transformó la inteligencia artificial
Detrás de cada modelo de inteligencia artificial (IA) que hoy toma decisiones en empresas, hospitales o plataformas digitales hay una pieza de hardware que hizo posible ese salto: la unidad de procesamiento gráfico, conocida como GPU por sus siglas en inglés. Lo que nació como tecnología para renderizar videojuegos se convirtió, en la última década, en la infraestructura que sostiene la revolución del aprendizaje automático y el análisis de datos a gran escala. Por Fabiola Montero, profesora de la Facultad de Informática, Electrónica de la Universidad de Panamá Para entender por qué, conviene conocer la diferencia fundamental entre una CPU —el procesador tradicional de cualquier computadora— y una GPU. La CPU está diseñada para ejecutar pocas tareas complejas de forma secuencial con muy baja latencia: es eficiente, pero procesa una cosa a la vez. La GPU, en cambio, integra cientos o incluso miles de núcleos más simples que trabajan en paralelo de forma simultánea. Esa diferencia es decisiva para la IA, porque los modelos de aprendizaje automático se basan en operaciones matemáticas masivas —multiplicaciones matriciales, convoluciones, álgebra lineal de alta dimensión— que se benefician enormemente del procesamiento paralelo. El impacto se hace especialmente visible en el entrenamiento de modelos profundos. Arquitecturas como los Transformers —la base tecnológica de herramientas como ChatGPT— o las redes convolucionales de última generación tienen millones o incluso miles de millones de parámetros que deben ajustarse durante el entrenamiento. Ejecutar ese proceso únicamente en CPU puede tomar semanas. Con GPU, el mismo proceso se reduce a horas o minutos. Esa aceleración no es solo una mejora de velocidad: cambia por completo la forma en que los equipos de ciencia de datos trabajan, permitiendo experimentar, ajustar y probar múltiples versiones de un modelo de forma iterativa y ágil. Más allá del aprendizaje profundo, las GPU también aceleran otras técnicas analíticas relevantes para las organizaciones: cálculo de similitudes entre grandes volúmenes de datos, descomposiciones matriciales usadas en sistemas de recomendación, métodos de optimización y transformadas matemáticas aplicadas en procesamiento de señales. En todos estos casos, adaptar los algoritmos al procesamiento paralelo amplía significativamente el rango de problemas que pueden resolverse en tiempos razonables. Este salto tecnológico no habría sido posible sin un ecosistema de software que lo acompañara. Herramientas como CUDA y cuDNN de NVIDIA, junto con frameworks ampliamente adoptados como TensorFlow y PyTorch, permiten a los equipos de ciencia de datos aprovechar toda la potencia de las GPU sin necesidad de programar a bajo nivel. Estas plataformas encapsulan la complejidad del hardware mediante bibliotecas optimizadas, lo que ha democratizado el acceso a capacidades de alto rendimiento para una comunidad creciente de desarrolladores e ingenieros en la región. Sin embargo, este poder tiene un costo que las organizaciones no pueden ignorar. Las GPU de gama alta que marcan el estado del arte —como las NVIDIA A100 y H100— consumen entre 400 y 700 vatios cada una, lo que exige infraestructuras especializadas de alimentación y refrigeración, eleva los costos operativos y genera un impacto ambiental considerable. Por eso, métricas como la eficiencia energética por operación se han vuelto tan relevantes como la velocidad o la precisión, obligando a las organizaciones a evaluar cuidadosamente el balance entre rendimiento y sostenibilidad. La decisión de usar GPU no es automática en todos los escenarios. Para el entrenamiento de modelos complejos, la ventaja es clara. Pero para la inferencia o uso real del modelo —es decir, cuando el modelo ya está entrenado y se usa para generar predicciones en producción— la ecuación cambia. Factores como la latencia requerida, el volumen de solicitudes, el costo de propiedad del hardware y la disponibilidad de alternativas como CPU optimizadas, TPUs—unidades de procesamiento tensorial diseñadas específicamente para cargas de trabajo de inteligencia artificial— o arquitecturas híbridas deben evaluarse en conjunto. No siempre más GPU significa mejor resultado para el negocio. A largo plazo, el efecto de las GPU en el ecosistema de IA ha sido profundo y estructural. No son simples aceleradores: han redefinido lo que es computacionalmente posible, ampliando los límites de la inteligencia artificial aplicada. Para los directivos y profesionales de tecnología de la región, entender sus fortalezas, limitaciones y costos operativos es tan importante como conocer los algoritmos que ejecutan. En un entorno donde tiempo, precisión y recursos interactúan de forma constante, el paralelismo masivo se ha consolidado como uno de los pilares sobre los que se construye la IA moderna. Le puede interesar: Gobierno inteligente: cómo la ciencia de datos redefine la gestión pública
- IA empresarial: la integración reemplaza a la obsesión por los modelos
El debate sobre qué modelo es mejor pierde relevancia frente a una realidad más estructural: las empresas empiezan a medir el valor de la inteligencia artificial por su capacidad de integrarse en sistemas, datos y procesos críticos. La conversación dominante sobre inteligencia artificial ha estado marcada por rankings de modelos, benchmarks y comparativas de capacidades. Pero dentro de las empresas, esa discusión empieza a sonar irrelevante. Según el análisis publicado por TechRadar, el verdadero campo de batalla ya no es el modelo, sino la arquitectura. La idea central es contundente: la IA empresarial no será definida por la agregación de modelos, sino por su integración profunda en los sistemas donde ocurre el negocio. En el laboratorio, combinar múltiples modelos puede parecer sofisticado. En producción, esa lógica colapsa. Las organizaciones operan sobre datos privados, sistemas heredados y entornos gobernados por estrictos controles de acceso. En ese contexto, una capa superficial de orquestación no resuelve el problema central: conectar inteligencia con operación. El contraste es claro. La agregación de modelos amplía capacidades, pero la integración habilita decisiones. Las empresas no buscan respuestas elegantes generadas por un modelo. Buscan respuestas que se apoyen en datos reales, CRM, historiales de soporte, registros financieros y políticas de cumplimiento. Y, sobre todo, que puedan ejecutar acciones dentro de esos mismos sistemas sin romper la gobernanza. Ahí aparece la verdadera brecha tecnológica. Un sistema que resume información no necesariamente puede actuar sobre ella. Y en el entorno empresarial, la acción es lo que define el valor. El cambio también redefine el concepto de asistente. La primera ola de IA corporativa se centró en herramientas de productividad individual. Pero las compañías no están optimizando tareas aisladas, sino decisiones a escala. Eso implica conectar múltiples fuentes de datos, comparar contextos y operar dentro de reglas de compliance. La consecuencia es un giro en los criterios de compra. Las preguntas ya no son qué modelo usa una solución, sino dónde vive dentro de la arquitectura de datos, si respeta permisos, si es auditable y si puede ejecutar flujos de trabajo completos. En ese sentido, la IA empieza a comportarse como otras tecnologías maduras. El paralelismo es revelador: el comercio electrónico no escaló por tener mejores interfaces, sino por integrar pagos, identidad y logística. La IA empresarial parece seguir el mismo patrón. Lo que hoy gana titulares es la capacidad de los modelos. Lo que terminará dominando el mercado es su capacidad de desaparecer dentro de los procesos, volviéndose invisible pero indispensable. Puede interesarle: La resaca de la IA: el retorno sobre inversión entra en crisis en las empresas
- Google lleva la IA al flujo de trabajo: Chrome convierte los prompts de Gemini en activos reutilizables
La firma introduce “Skills” en su navegador, una funcionalidad que marca un paso clave hacia la estandarización del trabajo con modelos generativos. La evolución de la inteligencia artificial está dejando atrás la fase de interacción improvisada. En su lugar, emerge una lógica más estructurada: convertir instrucciones en activos reutilizables. Eso es precisamente lo que propone Google con el lanzamiento de “Skills” en Chrome, una nueva funcionalidad que permite guardar y reutilizar prompts de Gemini en múltiples páginas y sesiones. El cambio puede parecer incremental, pero apunta a un problema profundo: la fricción en el uso cotidiano de la IA. Hasta ahora, tareas repetitivas como comparar productos o transformar recetas requerían reescribir o copiar instrucciones una y otra vez. Con “Skills”, esos prompts se convierten en módulos ejecutables. Se pueden guardar desde el historial de conversaciones, activarse con un comando simple y reutilizarse en cualquier pestaña del navegador vinculada a la misma cuenta. La implicación es estratégica. La IA deja de ser una interfaz conversacional y comienza a comportarse como una capa programable dentro del flujo de trabajo. Este enfoque conecta con una tendencia más amplia en la industria: la modularización de capacidades de IA. Frameworks similares, desarrollados por otros actores del ecosistema, buscan empaquetar instrucciones en unidades reutilizables para reducir la dependencia de expertos y acelerar la adopción. También anticipa una nueva forma de productividad. En lugar de interactuar con modelos desde cero, los usuarios construirán bibliotecas personales o corporativas de “habilidades”, estandarizando procesos y reduciendo variabilidad. Por ahora, la funcionalidad está disponible inicialmente en inglés en Estados Unidos, pero su lógica es universal. Si los prompts fueron el lenguaje inicial de la IA generativa, las “Skills” podrían convertirse en su sistema operativo. Puede interesarle: Codex, el agente de OpenAI que transforma prompts en código funciona l
- La infraestructura de IA se desplaza hacia las empresas: el regreso del centro de datos propio
A medida que la inteligencia artificial madura, las organizaciones están dejando atrás la fase experimental para apostar por infraestructuras híbridas y locales. El movimiento redefine el equilibrio de poder frente a los hiperescaladores y abre una nueva oportunidad para proveedores tradicionales. Durante años, la narrativa dominante de la inteligencia artificial estuvo anclada en la nube. Los grandes modelos, el almacenamiento masivo y la potencia de cómputo parecían inseparables de los gigantes del cloud. Sin embargo, ese paradigma comienza a resquebrajarse. Las empresas están empezando a trasladar cargas de trabajo de IA hacia entornos propios, impulsadas por una combinación de soberanía de datos, regulación y control operativo. El cambio no es menor. Según el análisis del mercado, el paso de proyectos piloto a despliegues reales está empujando a las organizaciones a construir infraestructuras híbridas, donde la nube pública convive con centros de datos locales. En este contexto, compañías como Hewlett Packard Enterprise, Cisco, Dell Technologies y NetApp emergen como beneficiarias directas de esta transición. La lógica detrás del movimiento es clara. La IA empresarial no solo requiere capacidad de cómputo, sino también proximidad a los datos, cumplimiento normativo y previsibilidad de costos. En sectores altamente regulados, como finanzas o salud, trasladar datos sensibles a la nube pública no siempre es viable. A esto se suma el aumento de costos asociado al uso intensivo de servicios cloud, que está llevando a muchas empresas a reconsiderar sus estrategias. El resultado es un renacimiento del centro de datos corporativo, ahora reconfigurado para la era de la IA. No se trata de volver al pasado, sino de construir una nueva capa de infraestructura que combine aceleradores de hardware, redes optimizadas y plataformas de gestión de datos capaces de soportar modelos cada vez más complejos. Este giro también refleja una maduración del mercado. La IA ya no es un experimento aislado, sino un componente crítico de la operación empresarial. Y en ese escenario, depender exclusivamente de terceros comienza a percibirse como un riesgo estratégico. La próxima ola de infraestructura no estará dominada únicamente por los hiperescaladores. Será híbrida, distribuida y, sobre todo, más cercana a donde residen los datos. Lea también: La nube no es segura por defecto: el riesgo silencioso en Latinoamérica
- Donde la IA falla: los límites invisibles en tareas financieras que frenan su adopción
Un análisis de Mercor revela que los sistemas de inteligencia artificial aún tropiezan en tareas clave del ámbito financiero, exponiendo fallas estructurales que van más allá de simples errores técnicos. La narrativa dominante sobre la inteligencia artificial en finanzas suele centrarse en eficiencia, automatización y velocidad. Pero un informe de Mercor introduce una visión menos optimista: cuando se enfrenta a tareas complejas del mundo financiero, la IA falla, y lo hace de formas predecibles. El documento identifica patrones claros. Los modelos tienden a equivocarse no por falta de información, sino por limitaciones estructurales en razonamiento, manejo de ambigüedad y consistencia lógica. En tareas como modelado financiero, análisis de estados o interpretación de escenarios, los sistemas pueden producir respuestas plausibles pero incorrectas, un problema particularmente crítico en contextos donde la precisión es obligatoria. Este fenómeno se alinea con una preocupación creciente en la industria. Gartner advierte que los sistemas de IA generan valor inicialmente en dimensiones no financieras, como mejor toma de decisiones o mayor agilidad organizacional, antes de reflejarse en resultados económicos . En finanzas, donde cada error tiene impacto directo en el negocio, ese desfase se vuelve especialmente problemático. Además, el informe de Mercor sugiere que los fallos no son aleatorios. Existen “modos de error” recurrentes, incluyendo: Inferencias incorrectas a partir de datos incompletos. Sobreconfianza en respuestas imprecisas. Incapacidad para manejar múltiples variables interdependientes. Dificultades en cálculos encadenados o lógica secuencial. Estas limitaciones ayudan a explicar por qué muchas empresas siguen estancadas en la fase piloto. A pesar de inversiones crecientes, la IA no logra escalar en funciones críticas. El resultado es una brecha entre expectativas y realidad que ya impacta decisiones estratégicas. El contexto macro refuerza esta lectura. Más del 40% de los proyectos de IA podrían fracasar antes de 2027 debido a costos elevados y falta de valor claro . En áreas como finanzas, donde los estándares de precisión son más altos, esa tasa podría ser incluso mayor. Sin embargo, el informe no sugiere abandonar la tecnología, sino entenderla mejor. La clave está en redefinir dónde y cómo se utiliza. En lugar de reemplazar procesos complejos, la IA puede ofrecer valor como herramienta de apoyo, augmentando el trabajo humano en lugar de sustituirlo. La lección es incómoda pero necesaria. La inteligencia artificial no falla por ser inmadura, sino porque se le exige operar en dominios donde el margen de error es cero. Y en finanzas, ese margen sigue siendo, por ahora, exclusivamente humano. Relacionado con el tema: Open AI propone tres cambios en el esquema laboral para aprovechar la automatización
- Meta crea un clon de IA de Mark Zuckerberg para hablar con sus empleados
La compañía avanza en su apuesta por la “superinteligencia personal” con un avatar hiperrealista del CEO capaz de interactuar con trabajadores, en una señal de cómo la inteligencia artificial empieza a redefinir el liderazgo corporativo. Meta está probando una idea que, hasta hace poco, parecía ciencia ficción corporativa: convertir a su CEO, Mark Zuckerberg, en un sistema de inteligencia artificial capaz de interactuar con empleados en su nombre. Según reportes citados por Ars Technica y el Financial Times, la compañía desarrolla un “personaje” de IA entrenado con la voz, los gestos, el tono y el pensamiento estratégico del fundador. El objetivo es que los trabajadores puedan mantener conversaciones, recibir feedback e incluso acceder a la visión del CEO sin necesidad de interactuar directamente con él. El sistema forma parte de una iniciativa más amplia para crear personajes 3D fotorealistas impulsados por IA, capaces de interactuar en tiempo real. Pero este caso es distinto: no se trata de un chatbot de atención al cliente ni de un avatar para usuarios, sino de una extensión digital del liderazgo ejecutivo. La escala del experimento es significativa. Meta cuenta con unos 79.000 empleados, lo que convierte cualquier intento de “democratizar” el acceso al CEO en un problema logístico. La IA aparece como solución: una capa de comunicación que elimina jerarquías intermedias y amplifica la presencia del liderazgo. Zuckerberg no es un espectador en este proceso. Dedica entre 5 y 10 horas semanales a programar y revisar proyectos de IA, lo que refleja un involucramiento poco habitual para un CEO de su tamaño. El movimiento encaja con una transformación más profunda dentro de Meta. La empresa ha reorganizado equipos, apostado por estructuras más planas y promovido herramientas de IA que ya han incrementado en un 30% la productividad de algunos ingenieros desde 2025. Pero también abre preguntas incómodas. Si un CEO puede ser replicado como sistema, ¿qué parte del liderazgo sigue siendo humana? ¿La toma de decisiones, la cultura o la narrativa estratégica pueden convertirse en software? La historia reciente de Meta añade una capa de escepticismo. Tras invertir decenas de miles de millones en el metaverso con resultados limitados, la compañía vuelve a apostar por una visión transformadora, ahora centrada en la IA. La diferencia es que esta vez la tecnología no solo redefine productos, sino también la estructura interna del poder corporativo. El “Zuckerberg sintético” no es solo una herramienta. Es un experimento sobre el futuro del management. Puede interesarle: Meta, del VR al IA: la transformación silenciosa de Zuckerberg
- IT NOW Review: todo el potencial de Xiaomi Redmi Note 15 puesto a prueba
La familia Redmi Note de Xiaomi creció con la nueva serie 15 y pusimos bajo test su versión más completa. Acá encontrará todas sus características y tecnología que hay detrás de este nuevo smartphone. El Redmi Note 15 Pro+ 5G viene con una potente batería de 6.500 mAh que ofrece hasta 2 días de uso moderado. Cuenta con diferentes certificaciones de resistencia al polvo, agua y golpes. Vea todo sobre este smartphone en nuestro segmento de IT NOW Review: Le puede interesar:












