top of page

Resultados de la búsqueda

Se encontraron 8249 resultados sin ingresar un término de búsqueda

  • Panamá se prepara para el Banking Tech Summit 2026: innovación, IA y transformación digital en el centro del debate financiero

    El próximo 23 de abril, el Hotel Las Américas Golden Tower será sede del encuentro clave para la industria financiera que reunirá a líderes, expertos y proveedores tecnológicos para analizar los desafíos y oportunidades de la banca digital, la inteligencia artificial, la ciberseguridad y los nuevos modelos de negocio. La ciudad de Panamá volverá a posicionarse como un hub regional de innovación financiera con la llegada del Banking Tech Summit 2026 el 23 de abril , un evento que congregará a referentes del sector bancario, fintech y tecnológico en una jornada intensiva de conferencias y networking orientada a la transformación digital de la industria, luego de sus exitosas ediciones en República Dominicana, Costa Rica y Guatemala. La agenda del encuentro ofrece un recorrido completo por los principales ejes que hoy redefinen el negocio financiero: desde la modernización de sistemas core hasta la irrupción de la inteligencia artificial, pasando por ciberseguridad, datos, automatización, pagos digitales y nuevos modelos de banca abierta. La jornada comenzará con la conferencia “¿Cómo modernizar y renovar la arquitectura de su institución financiera?… y no fracasar en el intento” , liderada por especialistas de Deloitte, quienes abordarán estrategias concretas para transformar el core bancario, evaluando alternativas como modernización progresiva, coexistencia o reemplazo total de sistemas legacy. A continuación, se presentará una perspectiva sobre la evolución de los servicios financieros y bancarios , donde se pondrá el foco en la creciente necesidad de ciberresiliencia en un contexto en el que el sector financiero concentra una proporción significativa de los ataques de seguridad. Galería de fotos de la edición 2025 El bloque de la mañana continuará con la charla “De core legacy a una plataforma inteligente” , centrada en cómo las entidades pueden monetizar modelos de banca digital e inteligencia artificial sin interrumpir la operación, seguida por una sesión sobre FinOps y observabilidad , que analizará cómo optimizar costos en la nube mediante decisiones basadas en datos. Uno de los temas críticos será abordado en “Automatización sin gobierno: el caos silencioso de la IA en las organizaciones” , donde se expondrán los riesgos de implementar inteligencia artificial sin una adecuada gobernanza y cómo orquestar estos procesos de manera eficiente. Tras el coffee break, el evento profundizará en la banca componible y los modelos de Open Finance y neobanking , destacando cómo estas arquitecturas flexibles permiten a las instituciones adaptarse con mayor rapidez a las demandas del mercado. La agenda también incluye una sesión sobre estrategias para la transferencia segura de archivos , con foco en cumplimiento regulatorio, automatización y trazabilidad, seguida por la conferencia “El futuro de los servicios financieros: innovación, confianza y nuevos modelos digitales” , que pondrá énfasis en el aprovechamiento del dato como activo estratégico en la banca. En el tramo del mediodía, se abordará la estrategia e inversión tecnológica como motor de la banca digital , así como la evolución de los sistemas core en América Latina , analizando los costos y desafíos asociados a plataformas legacy frente a la presión de las fintech. La protección de la identidad digital y la prevención del fraude también tendrán un espacio destacado, junto con la sesión “Domina tus datos: impulsando la resiliencia y confianza en IA” , centrada en la gestión de datos como pilar de la inteligencia artificial en servicios financieros. Por la tarde, el foco se trasladará hacia la innovación aplicada al negocio, con la charla “Innovación desde el negocio: una metodología para diseñar banca integrada” , seguida por una presentación sobre infraestructura financiera sin límites , que explorará soluciones de conectividad y seguridad en entornos distribuidos. El bloque final del evento incluirá temáticas clave como IA y low-code en la transformación empresarial , ecosistemas digitales , pagos inmediatos e interoperabilidad , y el desafío de cómo la banca tradicional puede competir con la nueva generación de inversionistas digitales . El cierre estará marcado por dos conferencias estratégicas: “El capital digital: el nuevo activo estratégico de la banca” , que analizará el valor de los datos en la toma de decisiones en tiempo real, y “IAG aplicada a la banca” , a cargo de Marcelo Burman, que explorará el impacto de la inteligencia artificial generativa en el sector financiero. Con una agenda robusta y enfocada en los desafíos actuales de la industria, el Banking Tech Summit Panamá 2026 se presenta como una cita ineludible para ejecutivos, CIOs, líderes de innovación y especialistas en tecnología financiera que buscan comprender hacia dónde evoluciona la banca en la región. Para más información e inscripciones, los interesados pueden ingresar a: https://www.bankingtechsummit.net/ Le puede interesar: Banking Tech Summit Costa Rica 2026: la banca regional acelera su reinvención

  • Banking Tech Summit Costa Rica 2026: cómo integrar IA en el corazón del delivery bancario

    En un entorno financiero cada vez más competitivo, los bancos que logren integrar la IA en su ADN operativo no solo serán más eficientes, sino también más adaptables frente a los cambios tecnológicos que están por venir. En el marco del Banking Tech Summit Costa Rica, Santiago Merlo, Director Digital Centers de Babel, planteó una idea contundente: el futuro de la banca no depende de tener proyectos de inteligencia artificial, sino de convertirla en parte esencial del modelo operativo. Su conferencia, titulada “Banca inteligente: del proyecto aislado al modelo operativo impulsado por IA”, abordó uno de los principales desafíos que enfrentan hoy las instituciones financieras: pasar de la experimentación a la transformación real. Merlo compartió un dato revelador: aunque el 80% de las empresas ya utiliza inteligencia artificial generativa en al menos una función, dos tercios no logran escalar más allá de la fase piloto. Es decir, la mayoría se queda en la prueba, sin llegar a generar impacto tangible en el negocio. El problema, explicó, no es tecnológico, sino estructural. Muchas organizaciones caen en lo que denominó “las trampas del piloto”: iniciativas aisladas, falta de responsables claros, acumulación de deuda técnica y métricas mal enfocadas. “Hoy podemos lanzar un chatbot en dos semanas, pero si no reduce significativamente las llamadas al call center, no estamos generando valor”, afirmó. Vea también : Banking Tech Summit Costa Rica 2026: la banca regional acelera su reinvención Uno de los puntos clave de la ponencia fue el cambio de enfoque en la medición del éxito. En lugar de priorizar la velocidad de lanzamiento (time to market), las organizaciones deben enfocarse en el valor generado (time to value). Esto implica medir resultados concretos en negocio: reducción de costos, mejora en la eficiencia operativa o impacto en indicadores clave, más allá del logro técnico. Para Merlo, el error más común es tratar la inteligencia artificial como un proyecto independiente. La propuesta es clara: convertirla en una capacidad transversal dentro del modelo operativo del banco. Esto requiere integrar la IA en el ciclo de delivery, eliminar los silos entre negocio y tecnología, y trabajar con equipos multifuncionales potenciados por estas herramientas. “El cambio hacia una banca impulsada por IA no es tecnológico, es cultural y operativo”, enfatizó. El especialista presentó un modelo basado en cuatro pilares fundamentales: Estrategia IA-first: identificar procesos con mayor fricción y priorizar casos de uso que generen valor real. Equipos aumentados: potenciar el talento humano con herramientas de IA, no reemplazarlo. Plataforma de IA: contar con una infraestructura centralizada que permita escalar, gobernar y operar los modelos. Feedback continuo: medir impacto, iterar y ajustar constantemente en función de resultados. Según explicó, las organizaciones que logran implementar este enfoque pueden alcanzar reducciones de entre 15% y 20% en costos operativos. Y es que más allá de la tecnología, el verdadero desafío está en la transformación cultural. Esto incluye rediseñar procesos antes de automatizarlos, fomentar el aprendizaje continuo y promover el liderazgo desde los niveles directivos. Le puede interesar: Panamá se prepara para el Banking Tech Summit 2026: innovación, IA y transformación digital en el centro del debate financiero

  • Zero Trust tropieza en la capa más crítica: el tráfico de red se convierte en el nuevo punto ciego

    Aunque el modelo se consolida como estándar de seguridad, fallas en la visibilidad y control del tráfico de red están impidiendo que muchas implementaciones cumplan su promesa. Zero Trust se ha convertido en el mantra de la ciberseguridad moderna. “Nunca confiar, siempre verificar” resume una filosofía que promete reducir drásticamente la superficie de ataque. Sin embargo, en la práctica, muchas implementaciones están fallando en un punto clave: la capa de tráfico. El análisis de CSO Online advierte que la mayoría de las arquitecturas Zero Trust no logran controlar adecuadamente cómo fluye el tráfico dentro de la red, lo que genera brechas críticas en visibilidad y enforcement. El problema no es conceptual, sino operativo. Muchas organizaciones han avanzado en identidad, endpoints y autenticación, pero el tráfico lateral, es decir, el movimiento interno dentro de la red, sigue siendo opaco. Esto es especialmente grave en la era de la inteligencia artificial. Los sistemas actuales no solo conectan usuarios, sino también agentes autónomos y procesos automatizados que operan a gran velocidad. Microsoft ya ha advertido que estos agentes pueden convertirse en “dobles agentes” si no están correctamente gobernados, con riesgos como exposición de datos o ejecución de acciones maliciosas. La expansión del tráfico máquina a máquina agrava el problema. La proliferación de identidades no humanas y credenciales sobredimensionadas está creando una superficie de ataque difícil de controlar, especialmente cuando el tráfico no se inspecciona en profundidad. Los datos del sector reflejan esta brecha. Un reporte reciente muestra que, aunque el 56% de las organizaciones ya usa IA para detección de amenazas y el 42% para automatización de políticas, la implementación sigue fragmentada y con una efectividad promedio de apenas 6 sobre 10. La raíz del problema es la complejidad. Zero Trust funciona mejor cuando es un sistema unificado, pero muchas empresas lo implementan como capas desconectadas. El resultado es una arquitectura donde los controles existen, pero no operan de forma coherente. El tráfico de red se convierte así en el eslabón débil. Sin visibilidad completa ni políticas consistentes, los atacantes no necesitan romper todo el sistema, basta con encontrar ese punto ciego. En un entorno donde la IA acelera tanto la innovación como las amenazas, la promesa de Zero Trust depende menos de sus principios y más de su ejecución. Y hoy, esa ejecución sigue teniendo fugas en el lugar más crítico: donde realmente circula la información. Lea también: La nube no es segura por defecto: el riesgo silencioso en Latinoamérica

  • La grieta IA: la creciente brecha entre lo que piensan los expertos y la sociedad

    Mientras los especialistas ven en la inteligencia artificial un motor de progreso, la mayoría de la población teme por su empleo y su impacto económico, evidenciando una desconexión que podría redefinir el futuro del sector. El último informe del Instituto de Inteligencia Artificial Centrada en el Humano de Stanford no se centra en modelos ni benchmarks. Su hallazgo más inquietante es social: quienes construyen la IA y quienes viven con ella están empezando a ver realidades distintas. El estudio, recogido por TechCrunch , documenta una brecha cada vez mayor entre expertos y público general en torno al impacto de la inteligencia artificial. Los datos son elocuentes. Solo el 10% de los estadounidenses dice estar más entusiasmado que preocupado por el uso de IA en la vida cotidiana. En contraste, el 56% de los expertos cree que tendrá un impacto positivo en el país en los próximos 20 años. La divergencia se amplifica en áreas clave. El 84% de los especialistas considera que la IA beneficiará la atención médica, pero apenas el 44% del público coincide. En empleo, el 73% de expertos prevé efectos positivos, frente a solo el 23% de la población. Y hay un dato que resume el clima de ansiedad: el 64% de los estadounidenses cree que la IA reducirá el número de empleos en las próximas dos décadas. La brecha no es solo estadística, es cultural. Mientras la élite tecnológica debate sobre inteligencia artificial general y riesgos existenciales, la ciudadanía se preocupa por cuestiones inmediatas: salarios, costos energéticos y estabilidad laboral. El informe también señala un cambio generacional significativo. Entre jóvenes de 14 a 29 años, el entusiasmo por la IA cayó del 36% al 22% en un año, mientras que el sentimiento de enojo subió del 22% al 31%. Paradójicamente, este es también el grupo que más utiliza la tecnología, con cerca de la mitad empleándola semanal o diariamente. El contexto económico refuerza estas percepciones. La inversión global en IA se ha disparado, con crecimientos de más del 127% en inversión privada y más del 200% en generativa en 2025, mientras las organizaciones anticipan reducciones de plantilla en un tercio de los casos. La conclusión implícita del informe es incómoda: el problema de la IA ya no es técnico, es de legitimidad. Si la industria no logra cerrar esta brecha de percepción, el riesgo no es solo regulatorio o reputacional. Es estructural. La aceptación social podría convertirse en el principal cuello de botella para la próxima fase de la inteligencia artificial. Lea también: El 90% de precisión de Google en IA oculta un problema masivo de escala

  • Banking Tech Summit Costa Rica 2026: la IA redefine el rumbo de la banca en América Latina

    Fernando Moralejo, fundador de Grupo Sega, analizó tendencias y desafíos durante el evento. La transformación digital del sector financiero  avanza con fuerza en la región, impulsada por la adopción de nuevas tecnologías.  Durante el Banking Tech Summit, organizado por Connecta B2B como parte de su gira regional, líderes del sector analizaron el impacto de la inteligencia artificial en la evolución de la banca. Uno de los ejes centrales del encuentro fue la conferencia “La nueva era bancaria: visión y tendencias de IA para líderes de la región” , presentada por Fernando Moralejo, fundador de Grupo Sega. En su intervención, el especialista abordó cómo la inteligencia artificial está redefiniendo los modelos operativos, la relación con los clientes y la toma de decisiones en las instituciones financieras. Moralejo explicó que la banca atraviesa una transición hacia sistemas más inteligentes, donde el uso de datos en tiempo real permite anticipar comportamientos, personalizar servicios y optimizar procesos internos.  En este escenario, la IA deja de ser una herramienta complementaria para convertirse en un componente central de la estrategia empresarial. El experto también destacó que uno de los principales retos para la región es la adopción efectiva de estas tecnologías, especialmente en términos de integración con sistemas existentes y formación del talento humano. A su juicio, la brecha no radica únicamente en la tecnología disponible, sino en la capacidad de las organizaciones para adaptarse  a nuevos modelos de gestión basados en datos. Otro de los puntos abordados fue el papel de la inteligencia artificial en la seguridad financiera.  Moralejo señaló que los sistemas basados en IA permiten detectar patrones de fraude con mayor precisión y rapidez,  lo que fortalece la confianza de los usuarios en los servicios digitales y reduce riesgos operativos. Asimismo, subrayó la importancia de mantener un equilibrio entre innovación y regulación. La implementación de soluciones basadas en inteligencia artificial  requiere marcos normativos claros que garanticen la protección de datos y la transparencia en el uso de algoritmos, sin frenar el desarrollo tecnológico. El Banking Tech Summit forma parte de una serie de encuentros regionales orientados a analizar el futuro del sector financiero en América Latina. En este contexto, la inteligencia artificial se posiciona como uno de los principales motores de cambio , marcando el rumbo hacia una banca más eficiente, personalizada y centrada en el usuario. Le puede interesar: Banking Tech Summit Costa Rica 2026: infraestructura financiera sin límite para la bancarización de zonas remotas

  • Del piloto al impacto real: por qué la gobernanza se convierte en el cuello de botella de la IA empresarial

    A medida que las empresas intentan escalar la inteligencia artificial, el verdadero desafío deja de ser tecnológico y pasa a ser organizacional. La ejecución gobernada emerge como el factor decisivo para salir del limbo de los pilotos. Durante los últimos dos años, las empresas han invertido millones en pruebas de inteligencia artificial. Sin embargo, la mayoría sigue atrapada en lo que la industria ya denomina “pilot purgatory”. Las cifras son contundentes. Solo el 11 % de las organizaciones ha llevado agentes de IA a producción, mientras que el 38 % continúa en fase piloto. Aún más revelador, hasta el 95 % de los proyectos de IA empresarial nunca alcanza producción. El problema no es la tecnología. Es la ejecución. El enfoque emergente, descrito en análisis recientes del sector CIO, apunta a un cambio de paradigma: pasar de experimentación aislada a “ejecución gobernada”. Esto implica integrar la IA dentro de procesos empresariales reales, con controles claros sobre datos, modelos y resultados. La necesidad de gobernanza se vuelve evidente cuando se observa la complejidad del entorno. Las organizaciones deben asegurar IA en múltiples capas (datos, modelos, aplicaciones e infraestructura), mientras enfrentan un incremento en velocidad e impacto de las amenazas, como advierten líderes de ciberseguridad. Al mismo tiempo, los costos y la escala añaden presión. Aunque el costo por token ha caído hasta 280 veces en dos años, algunas empresas reportan facturas mensuales de decenas de millones debido al crecimiento explosivo del uso. El resultado es una paradoja empresarial: la IA es más accesible que nunca, pero también más difícil de controlar. Las organizaciones que logran romper este ciclo comparten patrones comunes. Adoptan arquitecturas híbridas (nube, on-premise y edge), integran la gobernanza desde el diseño y priorizan casos de uso con impacto medible. En paralelo, el rol del CIO está mutando. De gestor de infraestructura a orquestador de sistemas humano-máquina, responsable no solo de implementar tecnología, sino de garantizar que esta genere valor real. El mensaje es claro: la ventaja competitiva ya no está en experimentar con IA, sino en operarla con disciplina. Puede interesarle: Liderar en la era de la IA implica saber decir no

  • La arquitectura “hub and spoke” se convierte en el modelo operativo de la IA en producción

    A medida que las empresas escalan sistemas de inteligencia artificial, el modelo centralizado con nodos distribuidos emerge como el estándar para equilibrar control, eficiencia y despliegue en entornos complejos. En la carrera por industrializar la inteligencia artificial, las empresas están descubriendo que el problema ya no es construir modelos, sino organizarlos. Y ahí es donde la arquitectura “hub and spoke” comienza a consolidarse como patrón dominante. El enfoque, detallado en análisis recientes de implementación de IA en producción, propone un modelo en el que un “hub” central concentra gobernanza, datos, seguridad y capacidades compartidas, mientras múltiples “spokes” operan de forma distribuida en distintas áreas del negocio. No es un concepto nuevo en infraestructura tecnológica, pero su adaptación al contexto de IA responde a un desafío específico: cómo escalar sistemas sin perder control. En este esquema, el hub actúa como cerebro organizacional. Define estándares, gestiona modelos base, asegura cumplimiento normativo y optimiza recursos computacionales. Los spokes, en cambio, permiten que equipos de producto, marketing o operaciones desarrollen aplicaciones específicas adaptadas a sus necesidades. El resultado es una tensión productiva entre centralización y autonomía. Las empresas que adoptan este modelo buscan evitar dos extremos problemáticos. Por un lado, la fragmentación total, donde cada equipo construye soluciones aisladas, duplicando esfuerzos y generando riesgos de seguridad. Por otro, la hipercentralización, que ralentiza la innovación y crea cuellos de botella. La arquitectura hub and spoke aparece como un punto medio operativo. Este cambio no ocurre en el vacío. Según el AI Index 2026 de Stanford, el 88% de las organizaciones ya utiliza IA en al menos una función, y el 70% ha integrado herramientas generativas en sus procesos.  Sin embargo, el uso de agentes autónomos sigue en etapas tempranas, lo que refuerza la necesidad de estructuras que permitan escalar de forma controlada. Además, los beneficios de productividad son claros pero desiguales. Estudios citados en el mismo informe muestran mejoras del 26% en desarrollo de software, 14% a 15% en atención al cliente y hasta 73% en marketing. En este contexto, la arquitectura no es solo una decisión técnica, sino estratégica. El verdadero valor del modelo hub and spoke no radica en la eficiencia operativa, sino en su capacidad para traducir la IA en ventaja competitiva sostenida. Permite experimentar sin perder coherencia, escalar sin colapsar y gobernar sin frenar. En otras palabras, convierte la IA en sistema, no en proyecto. Lea también: Liderar en la era de la IA implica saber decir no

  • Copa Airlines apuesta por internet satelital y será pionera en conectividad aérea en Latinoamérica

    La aerolínea incorporará tecnología Starlink a partir de julio de 2026, mientras acelera su expansión de flota y rutas. En un contexto donde la conectividad se ha convertido en un factor clave para la experiencia de viaje, las aerolíneas de la región comienzan a dar pasos hacia soluciones tecnológicas más avanzadas. La incorporación de internet de alta velocidad a bordo marca una nueva etapa en la industria aérea latinoamericana. En esa línea, Copa Airlines anunció que integrará el servicio de internet satelital de Starlink, impulsado por Elon Musk, convirtiéndose en la primera aerolínea de Latinoamérica en ofrecer esta tecnología de última generación en sus vuelos. La implementación comenzará en julio de 2026 y se realizará de manera progresiva hasta cubrir la totalidad de su flota. Con esta incorporación, la aerolínea panameña busca transformar la experiencia de sus pasajeros mediante una conexión en vuelo con estándares similares a los de tierra. El servicio permitirá alcanzar velocidades de hasta 400 Mb/s, lo que habilitará a los viajeros a realizar actividades que hasta ahora eran limitadas o inestables en el aire, como ver contenido en streaming, jugar en línea, trabajar de forma remota o navegar sin interrupciones. Este movimiento posiciona a Copa por delante de otras aerolíneas de la región como LATAM Airlines, Avianca y Aerolíneas Argentinas, que aún no han anunciado la adopción de este tipo de conectividad en sus operaciones. La apuesta tecnológica se da en paralelo a una estrategia de crecimiento sostenido. Según reportes del sector, la compañía proyecta aumentar en un 14% su capacidad de asientos durante 2026, impulsada por la ampliación de su flota y la apertura de nuevas rutas. En 2025, Copa cerró con 113 aeronaves y estima alcanzar las 121 durante el presente año. Su presidente, Pedro Heilbron, ha señalado que este incremento permitirá fortalecer la conectividad aérea de la región, con más frecuencias y destinos. “En 2026 estamos previendo un crecimiento en asientos de 14%, lo cual está teniendo un impacto en el turismo en Panamá”, indicó Heilbron, quien además destacó que la aerolínea mantiene pendiente la entrega de 43 aviones Boeing 737 MAX hasta 2029. En los últimos 18 meses, la compañía ha iniciado o retomado operaciones hacia 13 ciudades, consolidando un crecimiento acelerado tanto en su red de destinos como en su capacidad operativa, en lo que se perfila como uno de los mayores saltos de expansión en su historia reciente. Puede interesarle: Liberty Networks designó a Danilo Fernandes

  • Tecnología en la sala: cómo las pantallas gigantes redefinen la forma de ver fútbol en Panamá

    El crecimiento de televisores de gran formato en el país responde a nuevas formas de consumo y a la búsqueda de experiencias colectivas desde el hogar. La forma en que las personas consumen eventos deportivos ha cambiado de manera significativa en los últimos años, impulsada por avances tecnológicos y por una mayor preferencia por experiencias compartidas dentro del hogar. En este contexto, los televisores de gran formato han ganado protagonismo como herramienta para recrear la atmósfera de un estadio sin necesidad de salir de casa. Este cambio responde a una evolución en los hábitos de consumo audiovisual en Panamá y el resto del mundo. El hogar ha dejado de ser un espacio de visualización pasiva para convertirse en un entorno donde la calidad de imagen, el sonido y el tamaño de pantalla son factores determinantes. Durante eventos de alta convocatoria, como el Mundial de Fútbol, estas características adquieren mayor relevancia al influir directamente en la intensidad con la que se vive cada partido. La preferencia por pantallas de gran tamaño, especialmente aquellas superiores a las 65 pulgadas, refleja una búsqueda por experiencias más inmersivas. Este tipo de dispositivos permite apreciar con mayor detalle elementos clave del juego, como el movimiento de los jugadores, la trayectoria del balón o la profundidad del campo, aspectos que antes podían pasar desapercibidos en formatos más pequeños. Además del tamaño, la calidad de imagen ha evolucionado hacia estándares más altos, con resoluciones 4K, tecnologías de alto rango dinámico (HDR) y sistemas de procesamiento que optimizan transmisiones en tiempo real. Estas mejoras buscan ofrecer una visualización más nítida y detallada, incluso en condiciones de iluminación variables, como partidos nocturnos o encuentros bajo luz intensa. El sonido también juega un papel relevante en esta transformación. Los sistemas de audio integrados han incorporado funciones que simulan la espacialidad del estadio, permitiendo percibir desde la narración hasta el ambiente de la afición. Esta integración entre imagen y sonido contribuye a una experiencia más envolvente, que acerca al espectador a lo que ocurre en la cancha. Otro elemento que ha influido en esta tendencia es la incorporación de inteligencia artificial en los dispositivos. Funciones como la optimización automática de imagen, la mejora de movimientos en escenas rápidas y la adaptación del brillo según el entorno buscan ajustar la experiencia de forma dinámica. Asimismo, algunas plataformas permiten acceder a estadísticas, información de jugadores o datos históricos en tiempo real, ampliando la interacción del usuario con el contenido. La convergencia de estas tecnologías ha favorecido también la dimensión social del consumo deportivo. Ver partidos en casa ya no es una actividad individual, sino una experiencia colectiva que reúne a familiares y amigos en torno a la pantalla. En este sentido, el tamaño del televisor y la calidad del contenido funcionan como facilitadores de interacción y participación. En un escenario donde la tecnología continúa avanzando y los eventos deportivos mantienen su capacidad de convocatoria global, la tendencia hacia pantallas de gran formato refleja no solo una mejora técnica, sino también un cambio cultural en la manera de vivir el deporte. Le puede interesar: Gobierno inteligente: cómo la ciencia de datos redefine la gestión pública

  • Banking Tech Summit Costa Rica 2026: la banca regional acelera su reinvención

    Desde la modernización de arquitecturas core hasta la irrupción de la inteligencia artificial generativa como motor de productividad, el evento reunió en San José a referentes del sector financiero y tecnológico para trazar el mapa de la banca del futuro. A lo largo de una jornada intensiva, ejecutivos y especialistas abordaron los desafíos estructurales, regulatorios y operativos que enfrenta la industria, con un eje claro: transformar sin comprometer resiliencia ni rentabilidad. El Centro de Convenciones de San José fue el escenario de una nueva edición del Banking Tech Summit Costa Rica, un encuentro que consolidó su perfil como espacio de discusión estratégica para la evolución del sistema financiero en América Central y el Caribe. Con una agenda cargada de conferencias técnicas y de negocio, el evento dejó en evidencia que la banca atraviesa una fase de transformación profunda, donde la tecnología ya no es un habilitador, sino el núcleo del modelo operativo. Modernización sin margen de error La jornada abrió con la intervención de Miguel Caldentey, socio de Deloitte, quien planteó uno de los dilemas centrales del sector: cómo modernizar arquitecturas heredadas sin afectar la continuidad del negocio. Su exposición puso el foco en la necesidad de abordar la transformación como un proceso integral, donde convergen estrategia, cultura organizacional y capacidades tecnológicas. Caldentey advirtió que muchos proyectos fracasan por subestimar la complejidad de los sistemas legacy y por no alinear la modernización con objetivos claros de negocio. En este sentido, destacó la importancia de adoptar enfoques progresivos y arquitecturas desacopladas que permitan evolucionar sin disrupciones abruptas. Infraestructura de pagos y nube bajo presión El bloque siguiente profundizó en la infraestructura transaccional, con Esteban Corrales (CLAI Payments Technologies) y Luis Alvarado (Volcan Group), quienes analizaron el rol crítico de los sistemas de pago en la competitividad bancaria. La conversación giró en torno a la necesidad de plataformas más ágiles, interoperables y preparadas para un ecosistema financiero cada vez más abierto. A continuación, Mateo Riveros, de ManageEngine, introdujo el concepto de FinOps como disciplina clave para controlar el gasto en la nube. Su presentación abordó un problema creciente: el desbalance entre adopción cloud y eficiencia financiera. En un contexto de expansión digital, “domar la nube” se vuelve tan importante como migrar a ella. La banca componible como nuevo paradigma Uno de los momentos más extensos y conceptualmente profundos del evento fue la conferencia de Francisco Gómez, especialista en Open Finance y NeoBanking. Su exposición sobre banca componible planteó un cambio de paradigma: pasar de estructuras monolíticas a ecosistemas modulares, donde productos y servicios se ensamblan dinámicamente. Gómez detalló cómo conceptos como API-first, domain-driven design y arquitecturas desacopladas permiten a las entidades financieras adaptarse a modelos como open banking, banking as a service y embedded finance. La banca, sostuvo, deja de ser un sistema cerrado para convertirse en una plataforma. Datos, resiliencia e infraestructura sin fronteras La gestión de datos emergió como otro eje crítico. Marvin Espinoza, de Veeam LATAM, subrayó que la confianza en la inteligencia artificial depende directamente de la calidad, disponibilidad y protección de la información. Sin una estrategia robusta de datos, advirtió, cualquier iniciativa de IA queda comprometida. En paralelo, Edwin Maldonado, de COMNET, abordó la necesidad de infraestructuras resilientes y sin límites geográficos, destacando el rol de la conectividad satelital y soluciones híbridas para garantizar continuidad operativa en entornos cada vez más distribuidos. Evolución del core y estrategia tecnológica Fernando Batres, de Temenos, centró su presentación en la evolución de los sistemas core bancarios, señalando que el futuro pasa por plataformas escalables, abiertas e integrables. La rigidez de los sistemas tradicionales, explicó, es incompatible con la velocidad que exige el mercado. Esta visión fue complementada por Pavel Alvarado durante el bloque de almuerzo, quien profundizó en la transformación hacia modelos componibles desde una perspectiva estratégica. Su enfoque integró negocio, arquitectura y operación, destacando la necesidad de adoptar estándares como BIAN e ISO para garantizar interoperabilidad. IA: de tendencia a núcleo operativo La inteligencia artificial tuvo un rol protagónico a lo largo del evento. Francisco Moralejo presentó una visión general sobre su impacto en la banca, mientras que Santiago Merlo (Babel) avanzó hacia un enfoque más operativo: integrar la IA en el corazón del delivery bancario. Sin embargo, fue la ponencia de cierre, liderada por Marcelo Burman, la que ofreció el análisis más completo. Bajo el título “IAG aplicada a la banca”, se expuso cómo la inteligencia artificial generativa está pasando de ser un experimento a un componente estructural del negocio. El planteo fue contundente: los bancos más avanzados no implementan proyectos aislados, sino que rediseñan procesos completos. Casos como JPMorgan, Morgan Stanley, Nubank, HSBC o BBVA evidencian mejoras de productividad de entre 20% y 40%, especialmente en áreas como riesgo, compliance, atención al cliente y desarrollo de software. Además, se delineó un modelo de adopción en cuatro fases —descubrimiento, prototipado, industrialización y escalamiento— junto con los requisitos críticos para su implementación: gobernanza de datos, gestión de riesgos, ciberseguridad, arquitectura moderna y cambio cultural. Seguridad, automatización y experiencia del cliente La agenda también incluyó espacios dedicados a ciberseguridad y eficiencia operativa. Moisés Acevedo (Check Point) presentó el enfoque CTEM para gestión de exposición, mientras que Oscar Nivia (Progress Software) abordó la transferencia segura de archivos como componente clave de cumplimiento regulatorio. En paralelo, Luis Fernando Caicedo destacó los beneficios de la hiperautomatización en banca, y Andrés Araoz (Active IT) analizó el impacto combinado de CRM, onboarding digital e inteligencia artificial en el crecimiento y la experiencia del cliente. Finalmente, José Miguel Piñeros introdujo el concepto de “capital digital” como nuevo activo estratégico, reforzando la idea de que los datos, las plataformas y las capacidades tecnológicas son hoy el principal diferenciador competitivo. El Banking Tech Summit Costa Rica 2026 dejó una conclusión clara: la transformación bancaria ya no es una opción ni un proyecto acotado en el tiempo. Es un proceso continuo, multidimensional y profundamente estratégico, donde la tecnología define no solo la eficiencia operativa, sino también la capacidad de competir en un ecosistema financiero cada vez más abierto, dinámico y exigente. La gira 2026 del Banking Tech Summit continuará el 21 de abril en Guatemala y el 23 en Panamá, para luego visitar Honduras el 7 de julio y El Salvador el 8 de septiembre. Para más información e inscripciones, visite: https://www.bankingtechsummit.net/ Le puede interesar: Banking Tech Summit Costa Rica 2026: infraestructura financiera sin límite para la bancarización de zonas remotas

  • Así fue el CyberSec Summit República Dominicana 2026

    Desde la madurez digital del país hasta el impacto de los agentes autónomos de IA, el encuentro reunió a especialistas que delinearon los principales desafíos y transformaciones que enfrentan las organizaciones en un escenario de amenazas cada vez más sofisticadas. El CyberSec Summit República Dominicana 2026, celebrado el 16 de abril en el Hotel Intercontinental de Santo Domingo, se consolidó como un espacio de análisis profundo sobre el presente y futuro de la ciberseguridad en la región. A lo largo de una agenda intensa de conferencias, paneles y espacios de networking, el evento puso en foco no solo el crecimiento de las amenazas, sino también la necesidad de repensar las estrategias de defensa en un contexto atravesado por la transformación digital y la irrupción de la inteligencia artificial. La jornada comenzó con un conversatorio centrado en el panorama de la ciberseguridad en República Dominicana, donde Edder Herrera y David Mella ofrecieron una lectura detallada del estado actual del país en términos de madurez digital. Ambos coincidieron en que las organizaciones dominicanas han avanzado de forma significativa en la adopción de tecnologías, especialmente en sectores como servicios financieros, telecomunicaciones y gobierno. Sin embargo, este progreso no ha sido homogéneo, lo que genera asimetrías importantes en la capacidad de prevención y respuesta frente a incidentes. Uno de los puntos más relevantes del debate fue la creciente exposición al riesgo derivada de la digitalización acelerada. A medida que más procesos críticos migran a entornos digitales, las superficies de ataque se expanden y se vuelven más difíciles de gestionar. En este sentido, los especialistas subrayaron la persistencia de brechas estructurales, particularmente en lo que respecta a la gobernanza de la ciberseguridad, la capacitación del talento humano y la adopción de marcos de referencia internacionales. La protección de datos en la era cloud fue otro de los ejes centrales de la mañana. Jorge Silva profundizó en los desafíos que enfrentan las organizaciones al gestionar información sensible en entornos híbridos y multicloud. En su exposición, destacó la importancia de contar con herramientas que permitan no solo proteger los datos, sino también clasificarlos, monitorearlos y garantizar su cumplimiento normativo en tiempo real. La creciente complejidad regulatoria, sumada a la dispersión de la información, obliga a adoptar enfoques más integrales, donde la seguridad y el cumplimiento dejan de ser funciones separadas para convertirse en un proceso continuo. A continuación, la evolución de la gestión de endpoints hacia modelos centrados en la experiencia digital del empleado (DEX) abrió una nueva dimensión en la conversación. Brayan Steven Rodríguez Peña explicó cómo las organizaciones están dejando atrás los enfoques tradicionales, basados en la reacción ante fallos o incidentes, para avanzar hacia esquemas predictivos que integran analítica avanzada. En este modelo, cada dispositivo se convierte en una fuente de datos que permite anticipar problemas, optimizar el rendimiento y, al mismo tiempo, fortalecer la postura de seguridad. El coffee break dio paso a uno de los temas más técnicos de la jornada: los ataques de denegación de servicio distribuido (DDoS). Wilfredo Dicló abordó este fenómeno desde una perspectiva estratégica, señalando que, a pesar de no ser una amenaza nueva, su impacto se ha intensificado en un entorno donde la disponibilidad de los servicios digitales es crítica para la operación de las organizaciones. Los ataques DDoS, explicó, han evolucionado en volumen y sofisticación, incorporando técnicas que dificultan su detección y mitigación, lo que los convierte en una herramienta efectiva para interrumpir operaciones sin necesidad de comprometer directamente los sistemas. La conversación dio un giro hacia el futuro con la conferencia sobre la redefinición de la ciberdefensa en la era de los agentes de inteligencia artificial. Tobias Santoyo planteó un escenario en el que tanto atacantes como defensores utilizan sistemas autónomos capaces de tomar decisiones en tiempo real. Esta dinámica introduce un nuevo paradigma en la ciberseguridad, donde la velocidad de respuesta y la capacidad de adaptación superan a los enfoques tradicionales basados en reglas estáticas. Según Santoyo, las organizaciones deberán evolucionar hacia arquitecturas de seguridad más dinámicas, capaces de integrar inteligencia artificial no solo como herramienta de análisis, sino como un componente activo en la toma de decisiones. Sin embargo, este avance también plantea desafíos significativos, especialmente en términos de confianza, control y gobernanza de los sistemas automatizados. El punto culminante del evento fue el panel sobre Agentic AI en ciberseguridad, donde Rafael Ovalle y Juan Matus profundizaron en las implicancias de esta tecnología emergente. El debate giró en torno a una pregunta central: ¿hasta qué punto es conveniente delegar funciones críticas de seguridad a sistemas autónomos? Por un lado, se destacó el potencial de la inteligencia artificial para mejorar la eficiencia operativa, reducir los tiempos de respuesta y gestionar volúmenes masivos de información que serían imposibles de analizar manualmente. Por otro, se plantearon interrogantes sobre los riesgos asociados, como la falta de transparencia en la toma de decisiones, la posibilidad de errores a gran escala y la necesidad de mantener siempre un nivel de supervisión humana. Los panelistas coincidieron en que el futuro de la ciberseguridad no estará definido por una sustitución total del factor humano, sino por una colaboración cada vez más estrecha entre personas y sistemas inteligentes. En este contexto, el rol del CISO y de los equipos de seguridad evolucionará hacia funciones más estratégicas, centradas en la orquestación de tecnologías, la gestión del riesgo y la toma de decisiones informadas. A lo largo de toda la jornada, un concepto se repitió de manera transversal: la ciberseguridad ha dejado de ser un problema exclusivamente técnico para convertirse en un elemento central de la estrategia empresarial. La creciente interdependencia entre tecnología y negocio exige un enfoque integrado, donde la seguridad se incorpore desde el diseño y no como una capa adicional. El CyberSec Summit República Dominicana 2026 dejó así una radiografía precisa de un ecosistema en transformación, donde la combinación de digitalización, regulación e inteligencia artificial está redefiniendo las reglas del juego. En este escenario, la capacidad de anticiparse a las amenazas, adaptarse a entornos cambiantes y construir resiliencia será el principal diferencial competitivo para las organizaciones de la región. La gira CyberSec Summit 2026 continuará en Costa Rica, el 10 de septiembre en el Centro de Convenciones, y cerrará en Panamá, el 18 de noviembre en el Hotel Sheraton. Para más información y entradas, visite: https://www.cybersecsummit.com/ Le puede interesar: El Banking Tech Summit 2026 llega a Costa Rica

  • En tecnología sobra información, pero falta humor. Por eso, ¡volvió el Week Report!

    Regresa el podcast que explica lo que pasa en tecnología y negocios sin perder de vista lo más importante: que alguien lo diga con ironía. Nueva temporada, mismas noticias… peor interpretadas por Maximiliano Poter, Editor en Jefe de IT NOW. Maximiliano Poter conduce el Week Report, un desenfadado magazine de noticias del mundo IT que, cada viernes, brinda un resumen de los acontecimientos más destacados de los últimos siete días: todo lo importante, lo curioso y hasta lo más absurdo que ha sucedido en el ámbito de la tecnología y los negocios para que cierre su semana bien informado, con buena onda y una gota de acidez. En esta entrega : Google contrata a un filósofo para entender si su IA piensa… o solo finge mejor que nosotros Cinco gigantes tecnológicos ya controlan dos tercios de la IA global (tranquilos, seguro lo usan con responsabilidad) Filtración en Booking.com expone datos de usuarios (pero tus vacaciones siguen siendo lo único que no está asegurado) Anthropic podría valer 800 mil millones sin salir a bolsa (la fe en la IA ya cotiza más que la lógica) Prueban implantes con neuronas cultivadas: tu cerebro podría ser el próximo gadget actualizable  Y mucho más Le puede interesar: Así fue el CyberSec Summit República Dominicana 2026

itnow-03.png

© Derechos reservados

Connecta B2B - 2025

Políticas de privacidad

ACERCA DE NOSOTROS

IT NOW es un espacio multiplataforma y un núcleo para conectar negocios que se compone de varios elementos: su sitio web con noticias de TI relevantes en la región, un newsletter semanal, su multiplataforma de redes sociales, por último, sus eventos enfocados en las verticales de TI y en donde destaca el aclamado Tech Day, la gira de actualización tecnológica más importante de la región.

24 / 7 Actualizaciones en nuestras Redes Sociales
  • Facebook
  • Instagram
  • LinkedIn
  • YouTube
  • X
  • RSS
bottom of page