top of page

Resultados de la búsqueda

Se encontraron 8249 resultados sin ingresar un término de búsqueda

  • Todo lo que pasó en el Banking Tech Summit Guatemala 2026: la banca regional acelera su reinvención

    El evento reunió a ejecutivos, consultores y especialistas del ecosistema financiero para abordar, con un enfoque práctico, los principales desafíos que enfrenta la banca en América Latina: modernización del core, adopción efectiva de inteligencia artificial, ciberseguridad, eficiencia operativa y evolución hacia modelos abiertos y componibles. Lejos de los discursos aspiracionales, el Banking Tech Summit Guatemala 2026 se caracterizó por una fuerte orientación a la ejecución. A lo largo de toda la jornada, cada intervención aportó marcos concretos, experiencias reales y metodologías aplicables para una industria que enfrenta una presión creciente por transformarse sin comprometer estabilidad ni cumplimiento regulatorio. La apertura estuvo a cargo de Henrique Ponte Dávila, Senior Manager en Deloitte, quien abordó uno de los dilemas más críticos de la banca actual: cómo modernizar la arquitectura tecnológica sin afectar la continuidad del negocio. Con más de 25 años de experiencia en banca, consultoría y tecnología, Ponte Dávila estructuró su presentación en torno a tres caminos posibles —modernizar, coexistir o reemplazar— y advirtió que no existe una solución universal, sino decisiones que deben alinearse con la estrategia y el apetito de riesgo de cada institución. A continuación, Jadir Segura, Technical Consultant en ManageEngine, profundizó en la disciplina de FinOps, subrayando su rol como puente entre finanzas, operaciones y tecnología. Con experiencia en operadores móviles de América Latina y en entornos de nube, Segura explicó cómo el monitoreo granular del gasto permite optimizar recursos y mejorar la toma de decisiones en infraestructuras cada vez más distribuidas. El bloque matutino cerró este eje con la intervención de Diego Pinto, Senior Sales Executive en Temenos, quien analizó la evolución de los sistemas core en la banca latinoamericana. Pinto enfatizó el costo oculto de sostener plataformas legacy, no solo en términos financieros, sino también en capacidad de innovación, frente a la presión constante de fintechs y nuevos actores digitales. Inteligencia artificial: de la experimentación a la integración real Uno de los temas más transversales del evento fue la inteligencia artificial, abordada desde múltiples perspectivas. Mario J. Wunderlich, CEO y Chief Data Scientist en LIONMANE Software, planteó que muchas organizaciones fracasan no por falta de tecnología, sino por no integrar la IA en los procesos críticos del negocio. Su enfoque se centró en la necesidad de construir modelos que transformen datos en decisiones operativas concretas. En la misma línea, pero con foco en la arquitectura transaccional, José Juan Mendoza, Gerente de División en Digital Geko, analizó el rol de los agentes y protocolos en la era de la IA. Su tesis fue directa: el control del flujo transaccional define hoy la eficiencia, el costo y la velocidad de las operaciones bancarias. Más adelante, José Iván Anguiano Reyes, Arquitecto Senior LATAM en Cloudflare, introdujo el concepto de seguridad aplicada a entornos de inteligencia artificial, particularmente frente a amenazas emergentes sobre modelos de lenguaje (LLM). Su exposición se centró en cómo acelerar la adopción de IA sin comprometer la propiedad intelectual ni la integridad de los datos. El cierre del evento estuvo en manos de Marcelo Burman, Gerente General de Connecta B2B, quien ofreció una visión estratégica sobre la inteligencia artificial generativa en la banca. Burman sostuvo que la verdadera ventaja competitiva no radica en implementar soluciones aisladas, sino en rediseñar procesos completos, construir capacidades de datos robustas y operar bajo esquemas seguros y regulados. Banca componible y Open Finance: hacia modelos más flexibles Uno de los momentos más extensos y conceptuales fue el masterclass de Francisco Gómez, consultor y especialista en banca de Centroamérica y el Caribe, reconocido internacionalmente por su trabajo en Open Finance y NeoBanking. Gómez desarrolló en profundidad el concepto de banca componible, explicando cómo las instituciones deben evolucionar desde arquitecturas monolíticas hacia modelos basados en APIs, domain-driven design y estándares abiertos como BIAN, ISO y FDX. Su exposición no solo abordó la transformación tecnológica, sino también el cambio en el modelo operativo y de negocio, donde conceptos como Banking as a Service, embedded finance y Open Banking pasan a ser piezas clave en la construcción de ecosistemas financieros más dinámicos. Infraestructura, seguridad y continuidad operativa La resiliencia tecnológica fue otro de los ejes centrales. Esteban Cifuentes, Jefe de Ingeniería Preventa Regional en COMNET, presentó soluciones de conectividad basadas en tecnología satelital, destacando su uso como enlace principal o de respaldo en redes remotas, junto con herramientas de protección de datos en la nube. Por su parte, Oscar Nivia, Senior Sales Engineer en Progress Software, abordó la transferencia segura de archivos como un componente crítico para garantizar cumplimiento, automatización y continuidad operativa, especialmente en entornos regulados. Ecosistemas de pagos, capital digital y economía interconectada La transformación del negocio financiero fue analizada desde la perspectiva de los ecosistemas digitales. Camilo Bernal, Digital Banking Architect en Sofka Technologies, explicó cómo los pagos inmediatos y la interoperabilidad están configurando nuevos modelos de valor, donde la orquestación de servicios resulta clave. En paralelo, Joel Campos, Ingeniero post venta en Giga Uno, introdujo el concepto de capital digital como activo estratégico, señalando que las instituciones que logren convertir datos en decisiones y procesos en experiencias serán las que lideren el mercado. Esta visión fue ampliada por Beatriz Manzano Castillo, Gerente Sr de KIO Guatemala en KIO, quien analizó cómo los ecosistemas digitales están redefiniendo la competencia, impulsando modelos basados en interconectividad, datos e infraestructura de misión crítica. Estrategia, inversión y talento: los desafíos estructurales En el bloque de estrategia, Pavel Alvarado, consultor especializado en banca en Tantum Centroamérica y StrategyMeetUp, sostuvo que la ventaja competitiva en los próximos años dependerá de la capacidad de alinear inversión tecnológica con objetivos de negocio. En este sentido, destacó la importancia de reasignar el gasto operativo hacia iniciativas que generen diferenciación y crecimiento sostenible. El evento también puso foco en una problemática estructural de la región. Pablo Barrera, catedrático universitario en Universidad Galileo, alertó sobre la creciente brecha de talento en ciberseguridad en América Latina, subrayando la urgencia de formar profesionales para sostener la resiliencia digital de las organizaciones. Innovación financiera e inversiones El conversatorio sobre el futuro de los servicios financieros reunió a Eli Faskha, CEO de Soluciones Seguras; Diego Romero Tuccio, Head of Latam en Coinscrap Finance; Francisco Diéguez, CTO en ActiveIT Consulting; y Gerardo Pérez Borja, Director Regional de Ventas en Zscaler, quienes debatieron sobre innovación, confianza y modelos digitales. Entre los temas centrales destacaron la hiperpersonalización, el uso intensivo de datos y el equilibrio entre experiencia de usuario y seguridad. Finalmente, Adolfo Díaz, Chief Financial Officer en TraderPal, abordó el futuro de las inversiones en América Latina, destacando el crecimiento del acceso a mercados internacionales, particularmente acciones y ETFs de Estados Unidos, así como el avance de la tokenización de activos. A lo largo de toda la jornada, el Banking Tech Summit Guatemala 2026 dejó una conclusión clara: la transformación de la banca ya no puede abordarse de forma fragmentada. La integración entre tecnología, negocio, seguridad y talento será determinante para definir qué instituciones logran adaptarse y liderar en un entorno financiero cada vez más dinámico, competitivo y digital. La próxima fecha de la gira 2026 del Summit será el 23 de abril en Panamá. Para más información e inscripciones, visite: https://www.bankingtechsummit.net/. Vea también: Datos, riesgo y experiencia: las claves del Banking Tech Summit Guatemala 2026

  • Estafas por WhatsApp en Panamá: el código que abre la puerta al fraude digital

    Mensajes urgentes, suplantación de identidad y robo de cuentas marcan una tendencia creciente en los ciberdelitos. El crecimiento de las plataformas de mensajería instantánea ha traído consigo nuevas formas de fraude digital que aprovechan la confianza de los usuarios. En Panamá, las estafas a través de WhatsApp se han convertido en uno de los métodos más utilizados por ciberdelincuentes para acceder a cuentas personales y obtener dinero o información sensible. A través de mensajes aparentemente cotidianos o solicitudes urgentes, los atacantes logran manipular a las víctimas. Una de las modalidades más frecuentes consiste en pedir códigos de verificación enviados por SMS, bajo el argumento de que fueron enviados por error o como parte de una supuesta gestión. Compartir este código permite a los delincuentes tomar control de la cuenta en cuestión de minutos. El fenómeno no es aislado. Datos de Meta Platforms reflejan la magnitud del problema: solo en 2025 se eliminaron más de 159 millones de anuncios fraudulentos y se desactivaron 10,9 millones de cuentas en Facebook e Instagram vinculadas a redes de estafa. En el caso de WhatsApp, se eliminaron 6,8 millones de cuentas relacionadas con estos esquemas, además de más de 150.000 cuentas adicionales asociadas a estructuras criminales organizadas. Entre las tácticas más comunes se encuentra la suplantación de identidad. Los delincuentes se hacen pasar por familiares, jefes o instituciones para solicitar transferencias urgentes o información personal. Mensajes como “cambié de número”, “necesito ayuda urgente” o “tienes un paquete retenido” buscan generar una reacción inmediata sin dar espacio a la verificación. Otra modalidad en expansión es el secuestro de cuentas, conocido como “ghost pairing”. Una vez obtenido el código de verificación, los atacantes vinculan la cuenta a otro dispositivo, acceden a conversaciones privadas y utilizan la confianza de los contactos para solicitar dinero o datos, generando un efecto multiplicador del fraude. También se han identificado estafas relacionadas con falsas ofertas de empleo o premios. Estos mensajes prometen beneficios económicos para atraer a las víctimas, pero suelen requerir pagos iniciales o redirigir a plataformas fraudulentas diseñadas para capturar información personal y financiera. Especialistas de Soluciones Seguras advierten que estos fraudes funcionan porque combinan elementos emocionales como la urgencia, el miedo y la familiaridad. Según explicó el CEO de la firma, Eli Faskha, “las estafas por WhatsApp son cada vez más sofisticadas y se aprovechan de la confianza de los usuarios. Hoy en día las personas ya no enfrentan un mensaje aislado, sino experiencias diseñadas para manipular su reacción”. Ante este panorama, la prevención se posiciona como la principal herramienta de defensa. Expertos recomiendan no compartir nunca códigos de verificación, confirmar la identidad de cualquier persona que solicite dinero, evitar hacer clic en enlaces sospechosos y activar la verificación en dos pasos dentro de la aplicación. Asimismo, se sugiere revisar periódicamente los dispositivos vinculados a la cuenta y recordar que WhatsApp no solicita información personal ni códigos a través de mensajes. Estas acciones, aunque simples, pueden marcar la diferencia entre mantener la seguridad o convertirse en víctima de fraude. Las estafas digitales continúan evolucionando junto con los hábitos de los usuarios, incorporando no solo mensajes escritos, sino también llamadas y audios para aumentar su efectividad. En este contexto, la educación digital y la verificación constante se consolidan como elementos clave para reducir riesgos en un entorno cada vez más expuesto. Le puede interesar: Más allá del aprendizaje automático: el valor del razonamiento lógico en la IA

  • Banking Tech Summit Guatemala 2026: la nueva batalla por el control del flujo transaccional

    José Juan Mendoza, de Digital Geko, planteó un escenario inminente para la industria financiera: el paso hacia una economía donde las transacciones ya no serán ejecutadas por humanos, sino por agentes de inteligencia artificial. En su conferencia, titulada “Agentes, protocolos y poder: ¿Quién controla el flujo transaccional en la era de IA?”, José Juan Mendoza, Gerente de División de Digital Geko, abordó una transformación profunda que va más allá del uso cotidiano de herramientas como ChatGPT: el surgimiento del comercio agéntico. Mendoza explicó que la evolución reciente de la inteligencia artificial ha dado paso a agentes autónomos capaces de ejecutar tareas complejas durante largos periodos de tiempo. A diferencia de los asistentes tradicionales, estos agentes no solo responden, sino que actúan: buscan, comparan, deciden y ejecutan. El concepto de comercio agéntico se basa en delegar completamente a una inteligencia artificial la capacidad de tomar decisiones de compra y ejecutar pagos sin intervención humana. Este cambio ya no es teórico. Según Mendoza, grandes actores globales han comenzado a sentar las bases: OpenAI y Stripe desarrollaron el Agentic Commerce Protocol (ACP). Visa y Mastercard avanzan en soluciones para habilitar pagos a través de agentes. Google junto a Shopify impulsan protocolos alternativos. En la región, Banco Santander ya realizó pruebas piloto en varios países de Latinoamérica. Uno de los cambios más relevantes que destacó el ejecutivo es la transformación del punto de contacto con el cliente. Hasta ahora, la experiencia de compra iniciaba en una app o sitio web. En el nuevo escenario, ese primer contacto será un agente de inteligencia artificial. Esto implica que los bancos, procesadores y comercios deberán adaptarse a un entorno donde las decisiones de compra no pasan directamente por interfaces tradicionales, sino por sistemas automatizados que seleccionan, negocian y pagan. El impacto de esta transformación es directo: Bancos: deberán preparar su infraestructura para recibir solicitudes de agentes, con APIs abiertas y sistemas capaces de gestionar este nuevo flujo. Procesadores de pago: enfrentarán una nueva ola de transacciones automatizadas que operan sobre las redes existentes. Comercios: tendrán que integrarse a plataformas de IA si quieren seguir siendo visibles para los consumidores. “El comercio agéntico no reemplaza la infraestructura actual, pero la pone a prueba”, explicó. Como cierre, el ejecutivo dejó una reflexión clave: el control del futuro financiero no estará únicamente en los productos o servicios, sino en los protocolos que gestionen las transacciones entre agentes. “Quien controle estos protocolos, controlará el flujo transaccional”, afirmó. En un entorno donde la inteligencia artificial comienza a tomar decisiones económicas por los usuarios, la competencia ya no será solo por clientes, sino por el control de la infraestructura invisible que mueve el dinero. Lea también: Banking Tech Summit Guatemala 2026: la promesa incumplida de la IA en empresas y la estrategia que podría cambiarlo todo

  • Datos, riesgo y experiencia: las claves del Banking Tech Summit Guatemala 2026

    ¿Está la banca realmente preparada para entender a sus clientes más allá de los números? La conversación ya no gira solo en torno a servicios financieros, sino a experiencias hiperpersonalizadas, seguridad avanzada y decisiones en tiempo real. Líderes del sector coincidieron en que la transformación ya está en marcha, pero aún enfrenta desafíos clave. El panel titulado “El futuro de los servicios financieros: innovación, confianza y nuevos modelos digitales”  reunió a representantes de Coinscrap Finance, Active IT Consulting, Zscaler y Soluciones Seguras, quienes abordaron el papel de los datos, la inteligencia artificial y la ciberseguridad en la evolución de la banca. El consenso fue claro: la industria posee grandes volúmenes de información, pero aún no los aprovecha plenamente para generar valor real. Uno de los puntos centrales fue el uso del dato como motor de innovación. Las entidades financieras apenas utilizan cerca del 10% de la información transaccional disponible , lo que limita su capacidad para conocer a profundidad a sus clientes. Este escenario contrasta con modelos como los de empresas tecnológicas, donde el análisis de datos es el núcleo del negocio . Hoy, la inteligencia artificial permite procesar estos volúmenes masivos y traducirlos en servicios personalizados, desde recomendaciones financieras hasta productos adaptados al comportamiento del usuario. Innovación, personalización y nuevos modelos La evolución hacia una banca más inteligente también implica cambios estructurales. La hiperpersonalización ya no es una ventaja competitiva, sino una expectativa del usuario , quien demanda ofertas alineadas a su realidad financiera. Sin embargo, lograrlo requiere superar barreras como la interconectividad de datos, el cumplimiento regulatorio y la integración de múltiples fuentes de información . En este contexto, surge un dilema estratégico: ¿hasta qué punto los bancos deben desarrollar tecnología internamente o apoyarse en terceros?  La presión por innovar ha llevado a muchas instituciones a intentar convertirse en empresas tecnológicas, lo que puede traducirse en altos costos y retrasos en el time to market . Paralelamente, tendencias como el Open Banking y la migración a la nube  avanzan en la región, aunque aún con menor velocidad frente a mercados como Europa o Brasil. Otro eje relevante es la rentabilidad. La combinación de onboarding digital, CRM integrados y analítica avanzada permite no solo captar clientes, sino también reducir la fuga y mejorar la eficiencia comercial . En este sentido, la tecnología no solo impulsa la innovación, sino que se convierte en un factor directo para mejorar el desempeño financiero de las entidades. Ciberseguridad y confianza en la era digital El avance tecnológico trae consigo nuevos riesgos. La inteligencia artificial no solo fortalece a las instituciones, también potencia las capacidades de los atacantes , lo que obliga a repensar los modelos de seguridad. El enfoque tradicional ya no es suficiente frente a un entorno donde los datos están distribuidos entre nubes, dispositivos y sistemas externos. Ante este panorama, el modelo Zero Trust  se posiciona como una alternativa clave. Este paradigma parte de un principio claro: no confiar en ningún usuario o sistema sin verificación previa , evaluando identidad, contexto y nivel de riesgo en cada interacción. Este enfoque permite equilibrar seguridad y experiencia del usuario, evitando fricciones innecesarias mientras se protegen los activos críticos. La confianza del cliente también emerge como un factor determinante. La disponibilidad del servicio, la protección de los datos y la coherencia en la personalización son elementos esenciales para mantener la credibilidad . Un fallo recurrente en plataformas digitales o una mala gestión de la información puede erosionar rápidamente la relación con el usuario, incluso en instituciones con buena reputación. Finalmente, los expertos coincidieron en que el mayor desafío no es solo tecnológico, sino estratégico. La velocidad del cambio obliga a las organizaciones a adaptarse constantemente , adoptando nuevas herramientas sin comprometer la seguridad ni la experiencia. En un entorno donde la innovación avanza más rápido que la regulación, la capacidad de adaptación será el verdadero diferencial competitivo. Vea también: Banking Tech Summit Guatemala 2026: Observabilidad y FinOps, la estrategia recuperar el control y el gasto

  • Banking Tech Summit Guatemala 2026: Observabilidad y FinOps, la estrategia recuperar el control y el gasto

    El 55% de las decisiones de infraestructura se basan en supuestos y la subutilización de recursos está desperdiciando hasta un 40% de los presupuestos de TI. Jadir Segura, de Manage Engine, presentó en el evento una visión crítica sobre la gestión de la infraestructura tecnológica, instando a las organizaciones bancarias a dejar de reaccionar a las caídas de servicio y, en su lugar, adoptar un modelo de anticipación y control. Jadir Segura, Technical Consultant de Manage Engine, comenzó su intervención planteando dos preguntas fundamentales para la industria financiera: "¿Estamos entendiendo realmente nuestros entornos de TI y estamos pronosticando, estamos anticipándonos a él o solamente estamos reaccionando a alertas?" y "¿Estamos controlando la nube o la nube está controlando nuestro presupuesto?". Según el especialista, aunque las caídas de servicio son el problema más visible y el que impacta directamente en el core del negocio, existen "peligros ocultos" que están limitando los presupuestos de TI. El consultor de Manage Engine detalló cuatro grandes problemáticas que impiden a las áreas de Operaciones (encargadas de infraestructura y servicios) relacionarse eficientemente con Finanzas y Negocio: Subutilización y Desperdicio de Recursos: Se está utilizando infraestructura inactiva y procesos en la nube que consumen recursos sin entregar valor agregado al negocio. Segura afirmó que el 27% del gasto total se está desperdiciando en infraestructura no utilizada o servicios que no aportan valor relevante. Mala Planificación y Sobredimensionamiento: La estimación de recursos a menudo carece de datos y planificación adecuada. El 55% de las decisiones de infraestructura se toman basándose en supuestos, y no en analítica real, lo que lleva a un sobredimensionamiento de las áreas. Procesos Innecesarios y Aplicaciones Fantasma: Este problema afecta especialmente a la infraestructura cloud, abarcando casi un 30% o un 40% de los temas de la nube. Las organizaciones pagan minuto a minuto por servicios cloud y aplicaciones que no se utilizan o procesos relegados que, si bien mantienen el proceso dentro de la infraestructura, ya han perdido su funcionalidad principal, resultando en pérdida de dinero y tiempo. Complejidad y Silos: La proliferación de diferentes tipos de nube, proveedores, fabricantes y la división en áreas (infraestructura, desarrollo, redes) generan silos y fricción, dificultando el control de la sobreestimación y la subutilización. Es necesario que Operaciones se relacione con Finanzas y Negocio para que cualquier elemento técnico tenga una repercusión directa en el negocio. Para solucionar estas problemáticas, Jadir Segura propuso la convergencia de dos conceptos esenciales en una sola herramienta: la observabilidad y FinOps. La observabilidad tiene como propósito "visibilizar" o dar visibilidad completa a todos los elementos de la red, infraestructura y aplicaciones. Se define como la capacidad de identificar el comportamiento de sistemas complejos a través de trazas, logs y diferentes métricas, permitiendo entender cómo un elemento tan básico como un firewall o un switch impacta directamente en los servicios, aplicaciones y la experiencia de usuario. Su objetivo es romper la barrera de los silos al unir las capas de servidores, bases de datos y experiencia de usuario en una única visual. Una herramienta de observabilidad debe contar con características clave para una visual completa: Umbrales Adaptativos: Utiliza Machine Learning e Inteligencia Artificial para estimar y adaptarse al comportamiento de cada equipo, identificando cuándo un comportamiento es anómalo y cuándo el equipo está operando correctamente. Predicción de Tendencias y Capacidad: Provee la capacidad de saber cuántos recursos (memoria, CPU, estados de la aplicación) se consumirán a futuro. Esto permite utilizar los datos exactos generados por los dispositivos para predecir la capacidad, evitando estimaciones basadas en supuestos. Análisis de Causa Raíz y Mapas de Dependencias: Permite visualizar diferentes métricas en una sola interfaz (como tiempos de respuesta y procesos de CPU) para relacionar problemas. Además, los mapas de dependencias indican cómo se relacionan los equipos de red con las aplicaciones y dispositivos, identificando la ruta afectada ante un incidente. Por otro lado, FinOps es la práctica que busca "optimizar" y ayuda a entender cómo los gastos en la nube repercuten en el área de finanzas. FinOps provee la gestión y unificación de costos, ya que el control de gastos en diferentes nubes (AWS, Azure, Google Cloud) requiere saltar entre portales. Para ser funcional, una herramienta de FinOps debe segmentar y controlar el gasto: Soporte a Múltiples Nubes: Debe permitir la identificación de gastos de AWS, Azure y Google Cloud en una sola interfaz, así como el presupuesto en qué servicios se está gastando. Informes y División de Costos: Permite segmentar los gastos por proyectos o áreas (Ingeniería, Marketing, Desarrollo, Infraestructura), lo que da control para saber "quién se está gastando qué, en qué momento, cuándo y cómo". Segura concluyó que la unificación de la observabilidad y FinOps en una sola herramienta permite simplificar el proceso de resolución de incidentes, la planificación y, fundamentalmente, la anticipación de eventos. El mensaje final es que al tener estos dos elementos juntos (observabilidad para visibilizar y FinOps para optimizar), el gasto o la inversión se transforma en un verdadero valor generado, optimizando los limitados presupuestos de TI y permitiendo a las áreas técnicas ir más allá de la simple identificación de problemas. Vea también: Banking Tech Summit Guatemala 2026: la promesa incumplida de la IA en empresas y la estrategia que podría cambiarlo todo

  • Banking Tech Summit Guatemala 2026: la promesa incumplida de la IA en empresas y la estrategia que podría cambiarlo todo

    Solo un 15% de las empresas logra obtener valor real de la inteligencia artificial. El problema no es la tecnología, sino cómo se implementa. Una nueva visión propone tratar los prompts como activos estratégicos para destrabar el verdadero impacto corporativo. La inteligencia artificial está en todas partes, pero su impacto real en las empresas sigue siendo sorprendentemente limitado. A pesar del entusiasmo, las inversiones y la proliferación de herramientas como ChatGPT, Copilot o Gemini, apenas un 15% de las compañías consigue un retorno tangible de su implementación. El dato no solo es revelador, es incómodo: la revolución tecnológica más prometedora de la última década aún no se traduce en productividad masiva. Para Mario J. Wunderlich, de Lionmane Software, el problema no está en la tecnología, sino en la estrategia. O más bien, en la ausencia de ella. “No es un problema de acceso a la IA, es un problema de proceso”, plantea. En otras palabras, las empresas están comprando herramientas sin entender cómo integrarlas realmente en su operación. La escena se repite: organizaciones que adquieren licencias de IA y las distribuyen entre sus equipos sin lineamientos claros. Cada empleado experimenta por su cuenta, escribe prompts improvisados, obtiene resultados inconsistentes y, en muchos casos, abandona el intento. Es una adopción superficial que da la ilusión de transformación, pero sin resultados estructurales. En ese contexto, emerge un concepto que redefine el enfoque: el prompt como activo organizacional. No como una instrucción casual o desechable, sino como una pieza codificada de conocimiento empresarial. Un prompt bien diseñado, explica Wunderlich, encapsula procesos, reglas, restricciones y objetivos. Es, en esencia, una unidad de trabajo replicable. El problema es que hoy esos prompts se pierden. Se diluyen en historiales de chats, no se documentan, no se reutilizan. Cada interacción empieza desde cero. No hay acumulación de conocimiento, ni mejora continua. El resultado es predecible: estancamiento. La alternativa es construir una infraestructura de procesos sobre la IA existente. No se trata de nuevos servidores ni de inversiones millonarias en hardware. Es una transformación más cultural que tecnológica. Implica estandarizar, centralizar y gobernar el uso de la inteligencia artificial dentro de la empresa. En la práctica, esto se traduce en bibliotecas de prompts organizados por funciones, desde créditos hasta servicio al cliente o contabilidad. Prompts diseñados con arquitectura, compartidos entre equipos y sujetos a control y auditoría. Así, la IA deja de ser una herramienta individual y se convierte en un sistema operativo corporativo. El impacto de este enfoque es profundo. Permite consistencia en los resultados, cumplimiento regulatorio, trazabilidad y, sobre todo, escalabilidad. Cualquier miembro del equipo puede ejecutar procesos complejos sin ser experto en IA, simplemente utilizando interfaces estandarizadas. Además, abre la puerta a un siguiente nivel: la automatización mediante agentes. Al estructurar prompts como procesos, estos pueden conectarse entre sí para crear flujos de trabajo más sofisticados. Desde la generación de contenido hasta la toma de decisiones operativas, todo puede integrarse en cadenas automatizadas que replican tareas humanas con precisión. La clave está en la mejora incremental. A diferencia del uso caótico actual, donde cada interacción es aislada, este modelo permite evolucionar los procesos de forma controlada. Los cambios se gestionan, se auditan y se validan antes de implementarse, evitando riesgos y asegurando estabilidad. En sectores altamente regulados, como la banca, este enfoque no es solo conveniente, es necesario. La falta de gobernanza en el uso de IA representa un riesgo directo en términos de cumplimiento y seguridad. Sin trazabilidad ni control, la tecnología se convierte en una amenaza más que en una ventaja. Otro elemento crítico es la observabilidad. Con una estrategia estructurada, las empresas pueden medir cómo se utiliza la IA en cada departamento, controlar costos asociados (como el consumo de tokens) y ajustar su despliegue en función del valor generado. Es la diferencia entre experimentar y gestionar. Quizás lo más disruptivo de esta propuesta es su velocidad de implementación. Mientras cambios en sistemas core pueden tardar entre 6 y 12 meses en estabilizarse, una estrategia basada en procesos y prompts puede desplegarse en menos de un mes. La barrera no es técnica, es humana: capacitación, alineación y cultura organizacional. La inteligencia artificial ya está disponible. El verdadero desafío ahora es domesticarla. No se trata de tener acceso, sino de saber qué hacer con él. Y en ese terreno, las empresas que entiendan que el valor no está en el modelo, sino en cómo lo estructuran, serán las que finalmente conviertan la promesa en resultados. Lea también: Del piloto al impacto real: por qué la gobernanza se convierte en el cuello de botella de la IA empresarial

  • IT NOW Review: Kingston SSD Dual Portable a prueba

    ¡Adiós a los cables! Analizamos la SSD más versátil de Kingston con apariencia de una USB y que destaca por su pequeño tamaño, perfecta para llevarla a cualquier lugar y almacenar archivos de gran tamaño. La nueva Unidad de Estado Sólido Dual Portable de Kingston es una opción de almacenamiento de datos que ofrece 512GB, 1TB y 2TB, con altas velocidades de escritura y lectura. ¡No! No es una USB, es una SSD y su diferencia radica en las velocidades de transferencia de datos, capacidad de almacenamiento y durabilidad. ¿Cuáles son las velocidades reales? Acá se lo contamos: Le puede interesar: IT NOW Review: todo el potencial de Xiaomi Redmi Note 15 puesto a prueba

  • HP apuesta por la IA preventiva para redefinir la experiencia digital en las empresas

    La compañía convierte millones de dispositivos en sensores activos que anticipan fallas, optimizan el rendimiento y reducen la huella de carbono, en una estrategia que va más allá del hardware. La evolución de la computación corporativa ya no pasa únicamente por tener dispositivos más potentes, sino por garantizar que funcionen sin fricción. Bajo esa premisa, HP está transformando su enfoque tradicional hacia una lógica de experiencia total, donde cada computadora se convierte en un nodo inteligente dentro de un sistema mayor. La plataforma WXP, nacida de herramientas internas de monitoreo de hardware, es hoy el resultado de ese giro estratégico. Lo que comenzó como un sistema para vigilar el estado de las PCs escaló hasta convertirse en una infraestructura capaz de analizar en tiempo real el comportamiento completo del entorno digital de trabajo. Esto incluye desde el rendimiento del software hasta la conectividad en salas de reuniones o la eficiencia de impresión dentro de una empresa . El cambio clave está en el enfoque. Ya no se trata de saber si una máquina funciona, sino de entender cómo la experimenta el usuario. En esa transición, HP ha conectado más de 24 millones de PCs a su nube, donde la inteligencia artificial analiza patrones de uso y detecta señales tempranas de fallas . El objetivo es claro: intervenir antes de que el problema ocurra. Ese modelo predictivo permite, por ejemplo, identificar conflictos de drivers o fallas en periféricos antes de que deriven en errores críticos como una pantalla azul. En lugar de reaccionar, el sistema ejecuta acciones automatizadas que corrigen configuraciones o actualizan componentes, eliminando el incidente antes de que afecte al usuario. La ambición, sin embargo, va más allá de los dispositivos propios. En un contexto donde las empresas operan con flotas tecnológicas heterogéneas, HP diseñó la plataforma como un sistema agnóstico, capaz de monitorear equipos de múltiples fabricantes con distintos niveles de profundidad. Esto responde a una demanda directa de los CIOs, que buscan visibilidad integral de sus entornos, independientemente de la marca. En paralelo, la compañía introduce una dimensión que empieza a ganar peso en la industria tecnológica: la sostenibilidad operativa. Con el compromiso de alcanzar la neutralidad de carbono en toda su cadena para 2040, HP ha incorporado eficiencia energética y control de datos como principios de diseño en su plataforma. Esto se traduce en decisiones arquitectónicas concretas. Los datos se comprimen antes de enviarse, se prioriza el análisis local para reducir el uso de la nube y se limita la transmisión a lo estrictamente necesario. Incluso, el sistema puede recomendar a las empresas cuándo postergar la compra de nuevos equipos si los actuales siguen siendo eficientes, reduciendo así el consumo innecesario y la huella ambiental. En ese sentido, la propuesta de HP no es solo tecnológica, sino operativa y cultural. Al desplazar el foco hacia la prevención, la compañía busca eliminar una de las fricciones históricas del trabajo digital: la interrupción constante. La promesa es simple en apariencia, pero compleja en ejecución, que todo funcione todo el tiempo. Lea también: IA empresarial: la integración reemplaza a la obsesión por los modelos

  • Anthropic lanzó Claude Opus 4.7 y redefine el estándar de la IA empresarial

    El nuevo modelo introduce mejoras sustanciales en razonamiento, autonomía y ejecución de tareas complejas, marcando un cambio hacia sistemas más confiables para entornos empresariales. En la carrera por dominar la inteligencia artificial, cada nuevo modelo suele prometer más potencia. Pero el lanzamiento de Claude Opus 4.7 sugiere que la competencia está girando hacia otro eje: la confiabilidad en producción. Anthropic presentó su nuevo modelo como una evolución significativa respecto a versiones anteriores, con mejoras en ingeniería de software, comprensión multimodal y ejecución de tareas complejas de largo plazo. El foco no es trivial. En entornos empresariales, el problema no es que la IA sea capaz de responder, sino que pueda sostener procesos complejos sin degradarse. Claude Opus 4.7 apunta directamente a ese desafío. El modelo muestra mayor consistencia en tareas prolongadas, mejor seguimiento de instrucciones y la capacidad de verificar sus propias respuestas antes de entregarlas. Esto lo acerca a un comportamiento más cercano al de un agente autónomo que al de un chatbot tradicional. Además, incorpora una ventana de contexto de hasta un millón de tokens, lo que permite trabajar con volúmenes masivos de información en una sola interacción, una capacidad clave para casos empresariales como análisis financiero, revisión de código o generación de documentación compleja. Los primeros resultados muestran mejoras de entre 10 % y 15 % en tasas de éxito en tareas exigentes, junto con una reducción de errores en flujos de trabajo automatizados. Sin embargo, el lanzamiento también revela una tensión creciente en la industria. Anthropic reconoce que Opus 4.7 no es su modelo más avanzado. Ese lugar lo ocupa “Mythos”, una versión más potente restringida a entornos controlados por razones de seguridad. Este enfoque refleja una tendencia emergente: el acceso a capacidades avanzadas de IA comienza a ser regulado no solo por el mercado, sino por consideraciones de riesgo. En ese contexto, Opus 4.7 funciona como un puente. Es lo suficientemente potente para transformar flujos de trabajo, pero lo suficientemente controlado para ser desplegado a escala. El mensaje implícito es claro. La próxima fase de la IA no se definirá por quién tiene el modelo más inteligente, sino por quién logra hacerlo confiable, gobernable y útil en el mundo real. Puede interesarle: El poder silencioso de las GPU: cómo el paralelismo masivo transformó la inteligencia artificial

  • La nueva frontera de la IA empresarial: la orquestación define a los ganadores

    Ejecutivos de la industria coinciden en un punto clave: la diferencia entre éxito y fracaso en IA ya no está en la tecnología, sino en la capacidad de orquestar agentes dentro del negocio. Durante años, las empresas han perseguido la promesa de la inteligencia artificial como si se tratara de una pieza tecnológica más. Pero en la era de los agentes autónomos, esa lógica comienza a romperse. El concepto que emerge con fuerza es la “orquestación de IA agéntica”. Y según lo discutido en Qlik Connect 2026, es precisamente este elemento el que está separando a las organizaciones que escalan de aquellas que se quedan atrapadas en pilotos. “El problema no es el financiamiento ni la tecnología, es la orquestación que falta”, explicó Randy Mickey, ejecutivo de Qlik. La afirmación sintetiza un cambio de paradigma. La IA ya no se trata de implementar modelos aislados, sino de integrarlos en flujos de trabajo reales, conectando datos, procesos, KPIs y decisiones. En la práctica, esto implica una complejidad organizacional que muchas empresas han subestimado. Los sistemas agénticos requieren coordinación entre múltiples áreas, alineación con objetivos de negocio y una arquitectura capaz de operar sobre sistemas existentes, no reemplazarlos. De hecho, uno de los mensajes centrales del evento fue que las empresas no necesitan “reiniciar” su infraestructura. La ventaja está en construir sobre lo que ya existe, activando datos, workflows y activos gobernados. Este enfoque contrasta con la primera ola de adopción de IA, marcada por experimentos desconectados del negocio. Hoy, la presión es otra: demostrar impacto tangible. La clave está en traducir capacidades técnicas en resultados medibles. Esto implica definir casos de uso concretos, priorizar según valor y diseñar sistemas donde los agentes ejecuten tareas alineadas con métricas empresariales. El trasfondo es aún más amplio. La industria está transitando de interfaces pasivas a sistemas que actúan. Y en ese tránsito, la orquestación se convierte en la capa invisible que conecta intención con ejecución. Sin ella, la IA sigue siendo una promesa. Con ella, empieza a convertirse en infraestructura operativa. Lea también: IA empresarial: la integración reemplaza a la obsesión por los modelos

  • Anthropic apuesta por el diseño con el lanzamiento de Claude Design

    La compañía busca redefinir la interacción con modelos de IA, posicionando la experiencia de usuario como un factor clave para acelerar la adopción empresarial. Durante la primera ola de inteligencia artificial generativa, el foco estuvo en la capacidad técnica de los modelos. Sin embargo, a medida que la tecnología madura, la competencia empieza a desplazarse hacia un terreno menos evidente: el diseño. Anthropic presentó Claude Design, una iniciativa desde sus laboratorios que pone el énfasis en cómo las personas interactúan con sistemas de IA, no solo en lo que estos sistemas pueden hacer. La propuesta apunta a resolver una fricción persistente. Aunque los modelos son cada vez más potentes, su adopción a escala sigue limitada por interfaces poco intuitivas y flujos de trabajo fragmentados. Claude Design busca cerrar esa brecha mediante experiencias más naturales, integradas y orientadas a tareas reales. El enfoque no es superficial. Implica repensar la IA como una capa integrada en el trabajo cotidiano, donde el usuario no necesita “aprender a usar” el modelo, sino que el modelo se adapta al contexto y a la intención del usuario. Este movimiento refleja una tendencia más amplia en la industria. A medida que la diferenciación técnica se reduce entre proveedores, la experiencia de usuario emerge como un factor decisivo. Empresas que logren integrar la IA de forma invisible en sus procesos tendrán una ventaja clara frente a aquellas que la mantengan como una herramienta aislada. Claude Design también introduce una lógica de iteración continua. En lugar de interfaces estáticas, propone sistemas que evolucionan con el uso, aprendiendo de patrones de interacción y ajustándose a necesidades específicas. El trasfondo es estratégico. La adopción masiva de IA no dependerá únicamente de avances en modelos, sino de la capacidad de traducir esos avances en experiencias utilizables. En ese sentido, el diseño deja de ser una capa estética y se convierte en infraestructura de adopción. Anthropic, al apostar por este enfoque, está señalando un cambio de paradigma: la próxima batalla en IA no se librará solo en benchmarks, sino en la calidad de la interacción. Podría interesarle: La grieta IA: la creciente brecha entre lo que piensan los expertos y la sociedad

  • Tim Cook se retira como CEO de Apple y deja el mando a John Ternus

    Tras 15 años al frente de Apple, Cook anunció que dejará el cargo en septiembre de 2026. Su sucesor será el actual jefe de hardware, en una transición que no solo redefine el liderazgo de la compañía, sino también el tipo de innovación que marcará la próxima era tecnológica. La noticia no es simplemente un cambio de CEO. Es, en términos prácticos, el cierre definitivo de la era post-Steve Jobs. Cuando Tim Cook asumió el liderazgo de Apple en 2011, el escepticismo era estructural: sucedía al fundador más icónico de la industria tecnológica. Quince años después, deja una compañía que no solo sobrevivió a ese vacío, sino que multiplicó su valor de mercado hasta superar los 4 billones de dólares y consolidó un negocio de servicios que hoy genera más de US$100.000 millones anuales. Pero esa misma consistencia operativa (la gran fortaleza de Cook) es también el contexto que explica su salida. Cook no fue un CEO de producto. Fue, sobre todo, un CEO de sistema. Bajo su gestión, Apple perfeccionó una maquinaria de ejecución casi sin fricciones: cadena de suministro optimizada, expansión global, integración vertical y monetización del ecosistema. Productos como Apple Watch o AirPods no redefinieron la industria como lo hizo el iPhone, pero sí consolidaron una lógica: Apple dejó de ser una empresa de “hits” disruptivos para convertirse en una plataforma de ingresos recurrentes y previsibles. Ese cambio no fue menor. Fue una mutación cultural. Cook profesionalizó Apple. La hizo más predecible, más resiliente y más rentable. Pero también, según algunos analistas, menos radical en términos de innovación. Y ahí aparece el verdadero trasfondo del relevo. John Ternus: el regreso del ADN ingenieril El elegido no es un outsider ni un perfil financiero. Es un ingeniero. John Ternus, quien asumirá como CEO el 1 de septiembre de 2026, lleva más de dos décadas dentro de Apple y actualmente se desempeña como Senior Vice President de Hardware Engineering. Ha sido una figura clave en el desarrollo de productos como el iPad y otros dispositivos centrales del portafolio. Su perfil marca un giro sutil pero significativo: Apple vuelve a poner el foco en el producto. No es casual. La compañía enfrenta hoy un escenario distinto al de la década anterior. La presión ya no viene solo de competidores tradicionales, sino de un ecosistema tecnológico que se está redefiniendo alrededor de la inteligencia artificial. Y ahí Apple llega, al menos por ahora, en una posición incómoda. Mientras empresas como OpenAI, Google o Microsoft avanzan agresivamente en modelos de IA generativa, Apple ha mostrado un enfoque más cauteloso, con retrasos visibles en la evolución de Siri y en la integración de capacidades avanzadas en sus productos. La transición hacia Ternus ocurre en ese contexto. No se trata solo de continuidad. Se trata de redefinir el vector de innovación. Cook deja una empresa sólida, pero enfrentando preguntas incómodas: ¿Puede Apple liderar la próxima ola tecnológica como lo hizo con el smartphone? ¿Tiene la velocidad cultural para competir en IA? ¿Debe reinventar su modelo de innovación o reforzar el existente? Ternus no hereda una crisis. Hereda algo más complejo: una compañía en su punto más alto, pero en un momento de inflexión estratégica. A diferencia de otros cambios de liderazgo en la industria, este movimiento no es abrupto. Apple llevaba años preparando la sucesión. Ternus ya había sido identificado como candidato natural desde al menos 2025, en un proceso que refleja la obsesión de la compañía por el control y la continuidad. Cook, por su parte, no se desvincula. Asumirá como chairman ejecutivo, manteniendo influencia directa en la dirección estratégica y en la gobernanza de la empresa. Esto sugiere un modelo híbrido: transición sin ruptura. El cambio de CEO en Apple no es solo una noticia corporativa. Es un indicador de hacia dónde puede moverse toda la industria. Durante la era Cook, la tecnología se volvió más servicio que producto, más plataforma que dispositivo. Ahora, con la irrupción de la IA, el péndulo podría volver a moverse hacia la reinvención. La elección de un líder con ADN ingenieril no parece casual. Es, más bien, una señal. Apple no necesita reinventar su negocio para sobrevivir. Pero sí necesita hacerlo para seguir liderando. Y ese, precisamente, es el desafío que comienza ahora. Le puede interesar: La arquitectura “hub and spoke” se convierte en el modelo operativo de la IA en producción

itnow-03.png

© Derechos reservados

Connecta B2B - 2025

Políticas de privacidad

ACERCA DE NOSOTROS

IT NOW es un espacio multiplataforma y un núcleo para conectar negocios que se compone de varios elementos: su sitio web con noticias de TI relevantes en la región, un newsletter semanal, su multiplataforma de redes sociales, por último, sus eventos enfocados en las verticales de TI y en donde destaca el aclamado Tech Day, la gira de actualización tecnológica más importante de la región.

24 / 7 Actualizaciones en nuestras Redes Sociales
  • Facebook
  • Instagram
  • LinkedIn
  • YouTube
  • X
  • RSS
bottom of page