Resultados de la búsqueda
Se encontraron 7822 resultados sin ingresar un término de búsqueda
- Jeff Bezos crea una nueva startup de IA y se pone al frente
Project Prometheus desarrolla modelos más allá de los lingüísticos tradicionales, integrando simulación, automatización y aprendizaje físico. El surgimiento de una nueva compañía dedicada a desarrollar inteligencia artificial aplicada a ingeniería y manufactura vuelve a mover el tablero tecnológico global. Según The New York Times , Jeff Bezos decidió involucrarse directamente como co–director ejecutivo de Project Prometheus, una startup que nace con una ambición inusual, construir modelos capaces de aprender no solo de datos digitales, sino también de experimentación en el mundo físico. El proyecto arranca con US$6.2 mil millones en financiación, una cifra que lo coloca entre los emprendimientos de IA temprana mejor capitalizados. La apuesta tecnológica se centra en crear sistemas capaces de acelerar procesos complejos en sectores como computación avanzada, aeroespacial y automotriz. La intención, explican fuentes citadas por el medio, es desarrollar modelos que vayan más allá de los grandes modelos lingüísticos tradicionales, cuyo entrenamiento se basa casi exclusivamente en texto. En cambio, Prometheus busca integrar aprendizaje derivado de experimentos reales, una tendencia emergente en laboratorios enfocados en física, química, robótica o diseño molecular. La empresa se ha mantenido discreta y aún no revela su ubicación ni cronograma de lanzamientos, pero su orientación tecnológica ya empieza a perfilarla dentro de un segmento competitivo. Prometheus estaría explorando sistemas que combinen simulación, automatización científica y análisis de gran escala para impulsar descubrimientos e innovaciones en ingeniería. La premisa es que, si los modelos logran interpretar el comportamiento del mundo físico con la misma eficiencia con la que los LLM procesan lenguaje, podrían transformar procesos industriales enteros. El liderazgo técnico también se refuerza con la llegada de Vik Bajaj como cofundador y co–CEO, un científico con trayectoria en Google X, el laboratorio de “moonshots” que impulsó proyectos como Waymo y Wing, y que luego cofundó Verily y Foresite Labs. Su experiencia en herramientas de IA aplicadas a ciencias de la vida y experimentación automatizada encaja con la apuesta central de la nueva startup. Project Prometheus ya ha reclutado cerca de 100 especialistas provenientes de OpenAI, DeepMind y Meta, un movimiento que evidencia el cambio de ciclo que vive la industria, donde investigadores clave migran desde las grandes tecnológicas hacia nuevas compañías enfocadas en IA para descubrimiento científico, un campo donde también destacan iniciativas como Periodic Labs. En este modelo, robots realizan experimentos a gran velocidad y los sistemas aprenden de esa retroalimentación física para iterar y mejorar. La entrada de Bezos en este espacio no solo marca su retorno operativo tras dejar la dirección de Amazon en 2021; también lo posiciona en una carrera tecnológica donde empresas como Google, Meta, OpenAI y laboratorios independientes compiten por definir cómo será la próxima ola de inteligencia artificial. Project Prometheus se alinea con la visión de una IA menos dependiente del texto y más integrada al funcionamiento real del mundo, donde el avance científico se convierte en el núcleo del desarrollo tecnológico. Le puede interesar: Anthropic toma ventaja: su IA podría ser rentable antes que OpenAI
- Anthropic se dispara tras pactar inversiones y cómputo a escala con Microsoft y Nvidia
El acuerdo incluye compras millonarias de infraestructura y un trabajo conjunto para afinar el rendimiento de Claude. La expansión acelerada de la infraestructura necesaria para entrenar y desplegar modelos avanzados de inteligencia artificial volvió a mover el tablero, ya que Anthropic alcanzó una valoración cercana a los US$350.000 millones tras cerrar nuevos acuerdos estratégicos con Microsoft y Nvidia. El movimiento refuerza la carrera por asegurar capacidad computacional, optimizar arquitecturas y escalar modelos de gran tamaño en un momento en que la demanda global de cómputo especializado se vuelve crítica. Microsoft anunció que invertirá hasta US$5.000 millones en Anthropic, mientras que Nvidia aportará hasta US$10.000 millones, un impulso que viene acompañado de compromisos técnicos sin precedentes. Anthropic acordó adquirir US$30.000 millones en capacidad de cómputo en Azure y reservar hasta 1 gigavatio adicional para futuras necesidades. A esto se suma otra reserva de hasta 1 gigavatio de infraestructura con los sistemas Grace Blackwell y Vera Rubin de Nvidia, tecnologías diseñadas para maximizar eficiencia energética y rendimiento en cargas de IA de gran escala. La alianza marca la primera colaboración profunda entre Nvidia y Anthropic. Según explicó Jensen Huang, CEO de Nvidia, “este es un sueño hecho realidad para nosotros… es la primera vez que vamos a asociarnos profundamente con Anthropic para acelerar Claude”. El objetivo técnico es claro, ajustar los modelos de Anthropic para que extraigan el máximo provecho de las arquitecturas de Nvidia y, al mismo tiempo, adaptar estas arquitecturas a los patrones específicos de entrenamiento y despliegue de Claude. Microsoft, por su parte, busca equilibrar su dependencia tecnológica en un ecosistema que hasta ahora había girado alrededor de OpenAI. La empresa mantiene una participación valorada en US$135.000 millones en OpenAI, pero el respaldo a Anthropic amplía su acceso a modelos, rutas de investigación y cargas de entrenamiento diversificadas en Azure. Satya Nadella, CEO de Microsoft, insistió en dejar atrás narrativas de competencia pura, “como industria, necesitamos superar cualquier visión de suma cero… lo que sigue es construir capacidades amplias y duraderas”. El ascenso de Anthropic se sostiene en avances técnicos continuos. Fundada en 2021 por exdirectivos de investigación de OpenAI, la compañía ha desarrollado Claude, una familia de modelos centrada en seguridad, razonamiento y eficiencia de entrenamiento. Amazon Web Services se mantiene como su principal proveedor de nube y socio de entrenamiento, un rol que conservará pese a las nuevas alianzas anunciadas. El acuerdo no solo fortalece la posición de Anthropic, sino que también redefine el mapa de colaboración entre los tres actores que lideran el suministro de infraestructura para IA avanzada: Microsoft aporta la escala cloud, Nvidia las arquitecturas de cómputo más demandadas para entrenamiento y Amazon mantiene el soporte estructural del que depende buena parte del desarrollo de Claude. En conjunto, estos movimientos anticipan una nueva etapa de la carrera por optimizar modelos, acelerar pipelines de entrenamiento y responder al crecimiento explosivo de la demanda de IA a nivel global. Le puede interesar: Anthropic toma ventaja: su IA podría ser rentable antes que OpenAI
- Cloud-Cybersec Summit 2025: Panamá marca la hoja de ruta regional para la nube, la IA y la resiliencia digital
Con una agenda que combinó presentaciones técnicas, paneles de alto nivel y casos prácticos, el doble evento ofreció un mapa detallado de la agenda tecnológica del país: infraestructura programable, nube abierta, inteligencia artificial aplicada a la seguridad y modelos operativos que priorizan resiliencia sobre coste. La jornada arrancó con una batería de exposiciones centradas en cómo transformar la infraestructura para convertirla en un activo ágil y económico. Carlos Solís Salazar (OZ Digital Consulting) planteó el concepto de “infraestructura que se escribe”: automatización desde la infraestructura hasta las operaciones que reduce OPEX y acelera la recuperación ante fallos. Solís puso énfasis en prácticas IAC (Infrastructure as Code) y en la necesidad de instrumentar la capa infra para obtener telemetría accionable desde el primer despliegue. A continuación, Sebastián Rodrigo Rojas (Canonical) defendió la adopción de plataformas abiertas: su charla sobre “Hacia la infraestructura Open Source moderna” explicó por qué proyectos como Kubernetes, Ceph y OpenStack siguen siendo la base para nubes privadas y entornos edge en Latinoamérica, y cómo esas tecnologías permiten recuperar control operativo sin sacrificar escalabilidad. Las dos presentaciones pusieron en evidencia una idea recurrente del evento: la transformación no es migrar workloads a “la nube” sino re-arquitecturar servicios para operar con agilidad y gobernanza. El bloque sobre seguridad técnica combinó visión práctica y aplicabilidad inmediata. Oscar Gualteros (ManageEngine) ofreció dos intervenciones —“IA vigilante: Revolucionando el control de acceso” y “Monitoreo Darkweb: El viaje del dato robado”— en las que conectó la capacidad analítica de modelos de IA con controles de identidad y detección temprana. Gualteros mostró el valor de integrar señales de autenticación, telemetría de endpoint y análisis de conversaciones para automatizar bloqueos y remediaciones, y explicó cómo la inteligencia sobre el mercado negro (dark web) ayuda a priorizar alertas por riesgo real. Estas sesiones subrayaron la necesidad de unir equipos de seguridad y operaciones (SecOps) con plataformas observables que permitan respuesta automática sin perder supervisión humana. Otro eje central del congreso fue la convergencia entre nube pública y centros de datos locales. Arie Simchis (Radware) explicó “Llevando la nube a tu datacenter”, una práctica que mezcla servicios gestionados y appliances on-prem para garantizar latencias previsibles y continuidad en escenarios críticos. Más tarde, Óscar Luis Rojas (AWS) abordó “La nueva era de la nube segura”, donde delineó cómo servicios gestionados, arquitecturas serverless y capacidades de IA generativa están siendo adoptadas por el sector público y ONG en la región para acelerar proyectos con restricciones presupuestarias y regulatorias. Ambos ponentes coincidieron en que la estrategia híbrida es hoy la opción pragmática para muchas organizaciones que necesitan combinar cumplimiento, rendimiento y coste controlado. En la sesión del mediodía, “Cloud 360: el futuro de la infraestructura empresarial en la era digital”, Víctor Antinori (Banco Nacional de Panamá) trazó una hoja de ruta para instituciones financieras: gobernanza de datos, segmentación de workloads por riesgo y adopción de plataformas observables para medir desempeño y cumplimiento. Antinori defendió una visión integral donde la nube no es un silo sino el eje que conecta datos, seguridad y experiencia del cliente. Seguidamente, Héctor Gutiérrez (Cloudflare) explicó la convergencia entre conectividad y seguridad, destacando cómo las redes modernas deben integrar filtros, optimización de tráfico y controles de acceso distribuido para sostener modelos de trabajo remoto y experiencias digitales críticas. El panel “Cloud y datos como palancas de innovación” puso en la misma mesa a representantes de la industria, la banca y comunidades tecnológicas. Bruno Silva (Wise Tech), Sheyla Leacock (Comunidad Dojo) y Jose Rivera (BAC) discutieron casos concretos de uso: desde la mejora de la experiencia del cliente mediante analítica avanzada hasta la automatización de procesos internos con ML. El debate enfatizó que la ventaja competitiva hoy se construye con datos accesibles, gobernados y convertidos en productos internos que alimenten decisiones operativas, comerciales y regulatorias. Los panelistas también llamaron la atención sobre la brecha de talento y la importancia de programas de upskilling para acompañar la adopción tecnológica. La tarde se centró en ciberseguridad aplicada: Miguel Caldentey (Deloitte) abrió con una exposición sobre “Más allá del firewall”, donde presentó marcos de madurez para programas de seguridad que incorporan IA para priorización de alertas y para la automatización de playbooks de respuesta. Marcel Duarte (Dell Technologies) profundizó en Zero Trust como arquitectura para minimizar el blast radius en incidentes y garantizar continuidad del negocio. Mirielle Medina (Tigo) ofreció una visión práctica sobre los servicios gestionados de ciberseguridad, detallando cinco beneficios clave que permiten a organizaciones con menor madurez acceder rápidamente a capacidades avanzadas sin inversiones CAPEX elevadas. Estas presentaciones dejaron claro que la seguridad gestionada y Zero Trust son ahora componentes habituales de las estrategias de continuidad operativa. En el bloque final, Sebastián Vásquez (Greenfence Security) y el panel “Ciberseguridad en la nueva era” reunieron a líderes regionales como Ericka Valdés (WoSEC Panamá) y Rosabel Henríquez (BICSA) para analizar amenazas emergentes, tendencias regulatorias y la creciente necesidad de ciberresiliencia empresarial. El diálogo abordó la densidad de amenazas en entornos multi-cloud, la importancia de la inteligencia compartida entre empresas y la urgencia de programas de concientización que no solo formen técnicos sino líderes y juntas directivas. En palabras recurrentes de los panelistas: la resiliencia no es un proyecto puntual sino una inversión continua en procesos, personas y plataformas. El Cloud-Cybersec Summit 2025 dejó dos mensajes operativos y uno estratégico para la región. Operativamente: automatizar la infraestructura y convertirla en código es condición necesaria para escalar de forma eficiente; integrar IA en flujos de seguridad y en análisis de datos convierte alertas en decisiones accionables. Estratégicamente: las organizaciones que logren combinar nube abierta, gobernanza de datos y modelos de seguridad basados en Zero Trust tendrán una ventaja significativa en resiliencia y capacidad de innovación. El evento, además, dejó un saldo práctico en contactos, ideas de proyectos y un claro mandato para los líderes: acelerar la formación de talento y pensar la tecnología como palanca de negocio, no solo como un problema de TI. Le puede interesar: Cloud-Cybersec Summit Panamá 2025: la nube y los datos como palancas de innovación
- Cloud Cyber Summit Panamá 2025: el panel de cierre expuso los retos más urgentes
En un país que aspira a jugar en las grandes ligas digitales, la ciberseguridad dejó de ser un tema técnico para convertirse en una conversación estratégica sobre talento, cultura, regulación y resiliencia. Esa fue la tónica del panel de cierre del Cloud Cyber Summit en Panamá, un espacio que reunió a tres voces clave del ecosistema: Ericka Valdés, líder y cofundadora de Women in Security Panamá; Rosabel Henríquez, jefa de Riesgo Integral, Tecnológico, Seguridad de la Información y Fraude en BICSA; y Ricardo Cruz, especialista en ciberseguridad. El panel final del evento puso sobre la mesa los riesgos más urgentes que enfrentan hoy las empresas y las instituciones públicas del país. Los especialistas coincidieron en que las amenazas de Panamá reflejan el panorama global , pero se ven amplificadas por la escasez de talento especializado, la velocidad con la que evoluciona la tecnología y un marco regulatorio que aún no avanza al mismo ritmo. Para Ricardo Cruz , uno de los puntos más críticos es la falta de profesionales en ciberseguridad , un desafío evidente en los procesos de reclutamiento donde los perfiles técnicos suelen llegar con brechas importantes. Tanto Cruz como Valdés insistieron en que, aunque el país cuenta con universidades fortaleciendo programas en seguridad digital, la cultura interna de las organizaciones sigue siendo determinante : la ciberseguridad no puede ser un tema exclusivo del departamento de TI; es un compromiso transversal de todos los colaboradores. Por su parte, Rosabel Henríquez remarcó que el “ factor humano sigue siendo el eslabón más débil ”. Si un ataque compromete la compañía, recordó, todos pierden , desde el área administrativa hasta la alta dirección. La prevención, la educación continua y el pensamiento crítico siguen siendo la primera barrera contra incidentes que pueden comprometer información, operaciones y empleos. Talento, vocación y liderazgo femenino en ciberseguridad La conversación final de la jornada también dejó claro que la ciberseguridad no es solo una carrera técnica: es una vocación . Pese a que la demanda de especialistas aumenta, pocas personas eligen este camino profesional por la exigencia de actualización constante y el ritmo de trabajo. En este aspecto, Ericka Valdés destacó el avance de la participación femenina en el sector. Hoy, las mujeres ocupan aproximadamente el 45 % de puestos estratégicos en grandes compañías panameñas , y su presencia se ha vuelto un motor para transformar la cultura de ciberseguridad, promover nuevas perspectivas y romper la brecha de género en un rubro históricamente masculino. Resiliencia y cadena de suministro: el talón de Aquiles El cierre del evento también subrayó un punto crítico: la cadena de suministro digital . Para Henríquez, los incidentes recientes de proveedores globales demostraron que la resiliencia no se logra solo con buenas políticas internas. Es indispensable probar los planes de continuidad , exigir a terceros los controles adecuados y diversificar servicios para no depender de un único proveedor “todólogo” que, si falla, puede paralizar toda la operación. Tanto Valdés como Cruz insistieron en que sin pruebas reales (simulaciones, ejercicios y validación de procedimientos) no existe resiliencia verdadera . Como cierre conceptual, el panel abordó el papel de la inteligencia artificial, hoy presente en todos los procesos de defensa y ataque. Los expertos destacaron que la IA puede ser la mejor herramienta de una empresa o su peor enemigo , dependiendo de cómo se gestione. Los casos expuestos (desde malware generativo hasta deepfakes de voz capaces de imitar a directivos) demostraron que la IA exige nuevas fronteras de control, reglas claras de uso, políticas de protección de datos y configuraciones estrictas para evitar fugas o accesos indebidos. La conclusión del panel de cierre del Cloud Cyber Summit fue clara: en cinco años, los líderes de ciberseguridad serán tanto tecnólogos como estrategas legales . La combinación de IA, regulación y resiliencia definirá a las empresas que logren adaptarse frente a un panorama de amenazas en constante evolución. Y como subrayó Valdés: la inteligencia artificial no viene a reemplazar a nadie; viene a ser copiloto , siempre que las organizaciones sigan aprendiendo, innovando y evitando quedarse rezagadas. Le puede interesar: Cloud-Cybersec Summit 2025: Panamá marca la hoja de ruta regional para la nube, la IA y la resiliencia digital
- Gemini 3: la apuesta de Google para reducir prompts y aumentar precisión
La actualización optimiza la comprensión de intención del usuario, habilita interfaces generativas y se despliega desde hoy para suscriptores y clientes empresariales. El avance acelerado en modelos de inteligencia artificial vuelve a tensionar la competencia entre los gigantes tecnológicos con el lanzamiento de Gemini 3, el nuevo sistema de Google diseñado para procesar consultas complejas con mayor precisión y menos instrucciones. La compañía presentó el modelo como un salto técnico respecto a las versiones previas y como parte de una estrategia para responder al ritmo marcado por OpenAI y su reciente GPT-5. Sundar Pichai, CEO de Alphabet, explicó en un comunicado que Gemini 3 está “construido para captar profundidad y matices” y que mejora la capacidad del sistema para entender contexto e intención, reduciendo la necesidad de guiar al modelo paso a paso. Google lo integrará directamente en la app Gemini, en los modos de búsqueda impulsados por IA, AI Mode y AI Overviews, y en productos empresariales, con un despliegue inicial para suscriptores antes de una disponibilidad más amplia en las próximas semanas. La compañía subrayó que el modelo opera a la escala completa de su infraestructura, un punto que Pichai reforzó al afirmar que, en apenas dos años, la IA ha pasado de interpretar texto e imágenes a “leer la habitación”, una manera de describir su capacidad para identificar dinámicas complejas en una conversación o tarea. La expansión de uso es significativa: la app Gemini ya suma 650 millones de usuarios activos mensuales y los resúmenes generados por IA Overviews superan los 2.000 millones al mes. Demis Hassabis, CEO de DeepMind, apuntó que el nuevo sistema busca evitar respuestas genéricas o complacientes, apostando por análisis más útiles y menos guiados por la adulación, un señalamiento frecuente de críticos de los modelos conversacionales actuales. A nivel técnico, Google destacó mejoras en generación de contenido visual y en la capacidad del modelo para producir “interfaces generativas”: explicaciones en formato tipo revista digital con imágenes, tablas, gráficos o layouts interactivos adaptados a la consulta. Gemini 3 también llega acompañado de “Google Antigravity”, una plataforma de agentes que permite programar a un nivel orientado a tareas. Josh Woodward, vicepresidente de Google Labs y Gemini, describió el nuevo modelo como el “mejor para vibe coding” que ha producido la compañía, un enfoque que facilita a los desarrolladores generar código mediante instrucciones naturales. En aplicaciones prácticas, el modelo podrá elaborar simulaciones interactivas, calculadoras personalizadas o análisis multimedia más precisos. Para empresas, estará disponible a través del API de Gemini y mediante Vertex AI, permitiendo automatizar procesos como capacitación interna, revisión de imágenes industriales y gestión de compras, además de integrar capacidades avanzadas de análisis en productos corporativos. El anuncio se produce en medio de una carrera de inversión masiva, Alphabet, Meta, Microsoft y Amazon prevén superar los US$380.000 millones en gasto de capital este año para ampliar infraestructura y acelerar el desarrollo de servicios basados en IA. Mientras tanto, OpenAI actualizó GPT-5 la semana pasada con versiones más rápidas y más consistentes en tareas complejas, manteniendo el pulso en un sector que evoluciona a una velocidad sin precedentes. Le puede interesar: Nano Banana Pro llega para renovar la generación visual en las apps de Google
- Cloud-Cybersec Summit Panamá 2025: Air Gap e inmutabilidad como únicas garantías de recuperación
Marcel Duarte, ingeniero especialista en plataformas de seguridad y resiliencia en Dell Technologies, utilizó la analogía de un faro para explicar que, más allá de construir defensas, las organizaciones deben asegurarse de soportar y levantarse tras un ciberataque. "La ciberseguridad está más asociada a esos mecanismos aplicativos y estándares de seguridad para minimizar el impacto. Ahora bien, la ciberresiliencia es el complemento y es la que nos va a permitir entender cuánto realmente estamos dispuestos a soportar un ciberataque ," afirmó Duarte. La pregunta ya no es si van a atacar, sino cuándo . Duarte presentó estadísticas críticas que reflejan la vulnerabilidad actual de las empresas: El tiempo promedio de recuperación tras un ataque es de 24 días . El 79% de los ataques no despliega malware , sino que se basa en el acceso manual por parte de un atacante que ya se encuentra dentro de la organización, vulnerando las estrategias perimetrales. El 94% de los ataques se perpetran directamente contra las infraestructuras de protección de datos , con un 57% de éxito en destruir o corromper el objetivo. Este panorama se agrava con la complejidad de las arquitecturas multinube y la adopción de IA Generativa (GNAI) , que, si bien impulsan la innovación, también elevan la superficie de riesgo al exigir una mayor disponibilidad y vulnerabilidad de la información. Para contrarrestar esta sofisticación de las amenazas, Dell Technologies propone una estrategia de ciber-resiliencia basada en tres pilares interdependientes: Seguridad: Mecanismos de control de acceso y encriptación que buscan minimizar el área de impacto de una amenaza. Detección: Capa que permite identificar inmediatamente la amenaza para evitar que se propague por la infraestructura, tomando acciones en tiempo real. Recuperación: La columna vertebral de la resiliencia, garantizando una recuperación fiel y real del dato original. El aislamiento como garantía: Air Gap e inmutabilidad El componente fundamental para una recuperación exitosa, explicó el especialista, reside en establecer arquitecturas de Air Gap (aislamiento físico y lógico). El Air Gap crea una separación completa entre la infraestructura de datos productivos y un área de bóveda segura donde se clasifica la información crítica. Este aislamiento es esencial para controlar el enlace persistente que normalmente existe en los centros de datos. A este aislamiento se le suman dos principios de arquitectura: Inmutabilidad: Mecanismo que bloquea el acceso a la información en la bóveda, asegurando que el dato no pueda ser alterado ni modificado por un atacante, preservando su integridad original. Analítica con IA/ML: Dentro de la bóveda aislada, se aplica inteligencia artificial y machine learning para escanear y verificar si la información que ingresa ya trae un vector de amenaza. Lo crucial es que esta analítica no depende de una salida a internet o de un enlace persistente, lo que empodera a la infraestructura aislada para actuar de forma privada y única . "Lo importante en esto es el empoderamiento de esa infraestructura aislada que permita tener ese engine único y privado para poder establecer esos mecanismos de verificación", concluyó Marcel Duarte, asegurando que la tecnología definida con Zero Trust debe ser la base para que la información permanezca disponible y segura, sin importar la complejidad del entorno híbrido. Le puede interesar: Cloud-Cybersec Summit Panamá 2025: Cloud 360, la infraestructura empresarial se convierte en un organismo vivo
- Cloud-Cybersec Summit Panamá 2025: Cloud 360, la infraestructura empresarial se convierte en un organismo vivo
Víctor Antinori, CEO en Banco Nacional de Panamá, presentó la visión evolutiva de la infraestructura empresarial. Se centró en cómo la nube está dejando de ser un simple sitio para convertirse en un organismo digital autónomo y consciente, impulsado por una sinfonía de seis macro-factores tecnológicos. Víctor Antinori, CEO en Banco Nacional de Panamá, dejó claro que su enfoque no fue técnico, sino empresarial , buscando mostrar a los líderes de TI cómo la alta gerencia percibe esta transformación. "La nube deja de ser un sitio. Vamos a hablar de un todo, un sistema, se va a convertir en un organismo, en algo mucho más completo", dijo. El ponente desglosó el modelo de infraestructura en áreas clave que, al integrarse, definen la nueva era digital: Nube Pública y Nube Privada (Infraestructura Híbrida): Actualmente, cerca del 75% de las empresas operan bajo un esquema híbrido (nube pública, nube privada y on-premise ). Este modelo, sin embargo, genera retos como la falta de control, soberanía de los datos, regulaciones y la alta demanda energética. Edge Computing: Ante las limitaciones del cloud tradicional (baja conectividad, latencia), surge el Edge Computing o computación en el borde. Este modelo funciona como una "memoria caché" cercana a la fuente de los datos para su procesamiento rápido. Sus beneficios son la menor latencia , la mayor seguridad , la autonomía en periodos críticos y el ahorro energético . Contenedores y Kubernetes: Para manejar la complejidad del entorno híbrido y del Edge, el concepto de Contenedores (paquetes con apps y sus dependencias) garantiza que una aplicación corra en cualquier lugar. Kubernetes actúa como el "timonel" u orquestador, optimizando la gestión de miles de contenedores para reducir tiempos y mejorar respuestas. Inteligencia Artificial Operativa (AIOps): Esta capa funciona como un "sistema nervioso digital" que unifica todos los componentes. Su función es detectar, analizar, predecir y actuar. El objetivo de la AIOps es lograr una infraestructura autónoma , capaz de corregir deficiencias y evolucionar por sí misma, convirtiéndose en un ciclo continuo de aprendizaje. Sostenibilidad y Eficiencia (Cloud Verde): Antinori enfatizó que el Cloud Verde no es un concepto ecológico, sino de negocio rentable . La infraestructura digital se diseña para consumir menos energía y generar menos emisiones (ASG/ESG). Citando a Microsoft como ejemplo, destacó que esta optimización con energías renovables y técnicas como el enfriamiento líquido reduce los OPEX (gastos operativos) e incrementa la resiliencia. La empresa como organismo biológico digital La verdadera revolución, según Antinori, es la integración de estos seis elementos para formar el Cloud 360 . Este no es un modelo tecnológico, sino empresarial , que fusiona nube, Edge, IA y Kubernetes en una sinfonía digital . En este modelo, la empresa opera como un organismo biológico digital : La IA es el cerebro (piensa, predice y corrige). El Edge son los sentidos (sensores de datos cercanos). Las aplicaciones son las manos (acciones y respuestas). El CEO ejemplificó con casos de éxito en la manufactura (como Siemens y Ford Motor ), donde la infraestructura aprende de una planta y aplica automáticamente el conocimiento optimizado a todas las fábricas globales, logrando una "experiencia local con sabiduría global" . En retail , esta convergencia ha reportado un 18% menos de energía y un 58% más de ventas . El futuro del talento TI: de administrador a estratega Antinori concluyó con una reflexión dirigida a los profesionales de tecnología, a la luz de que la infraestructura será autónoma para el 2030 . El desafío no es técnico, sino mental y emocional . El conocimiento técnico tiene fecha de caducidad , la curiosidad no. El rol del departamento de TI evoluciona de ser un sistema de soporte a un ecosistema inteligente corporativo . El especialista en soporte técnico debe transformarse en un Arquitecto de Experiencia ; el administrador de servidores, en un Diseñador de Ecosistemas , y el ejecutivo, en un Estratega que combina datos y negocio. La invitación final fue clara: es el momento de que los técnicos pasen de soportar la operación a liderar la revolución en un contexto donde el Cloud 360 redefine no solo a TI, sino a toda la organización. Le puede interesar: Cloud-Cybersec Summit Panamá 2025: la nube y los datos como palancas de innovación
- Meta redefine el desempeño: la IA será el nuevo estándar
La compañía planea evaluar a su personal por los resultados obtenidos con IA, apoyándose en sistemas como Metamate y un nuevo “AI Performance Assistant”. Meta está dando un giro tecnológico decisivo al integrar la inteligencia artificial como un elemento central en la medición del rendimiento de sus empleados. La compañía comenzará a evaluar a su fuerza laboral a partir de 2026 en función del “impacto impulsado por IA”, un criterio que busca medir cómo cada trabajador aprovecha estas herramientas para lograr mejores resultados y construir soluciones que incrementen la productividad. La información surge de un memorando interno en el que Janelle Gale, vicepresidenta de People en Meta, detalla el alcance de esta transformación. La decisión implica que los logros obtenidos mediante IA serán relevantes desde el próximo ciclo de evaluaciones, aunque en 2025 no se contabilizarán métricas individuales de uso. Aun así, los empleados deberán incluir resultados apoyados en IA en sus autoevaluaciones. Un portavoz de Meta recordó a Business Insider que la adopción de estas tecnologías es una prioridad estratégica para la compañía, reforzando que la IA ya forma parte del trabajo cotidiano. Este movimiento se alinea con una tendencia más amplia en la industria, donde gigantes como Microsoft, Google y Amazon han instruido a sus equipos a integrar la IA como práctica habitual y no opcional. En el caso de Google, su CEO Sundar Pichai señaló en una reunión interna que el uso de estas herramientas es clave para mantener el liderazgo en la carrera tecnológica. Meta lleva meses impulsando esta transición hacia una cultura “AI-native”. Este año modificó sus procesos de reclutamiento para permitir que los candidatos utilicen IA en entrevistas de programación y lanzó “Level Up”, un juego interno para fomentar su adopción. Ahora, Gale confirma que la compañía reconocerá a quienes aceleren esta transformación. “Queremos destacar a las personas que están ayudando a que lleguemos más rápido,” escribió en el memorando. Como parte de los ajustes, Meta también rediseñará la forma en que los empleados redactan sus evaluaciones. A partir del 8 de diciembre se incorporará un “AI Performance Assistant” que utilizará los modelos internos de la compañía, incluido Metamate, y permitirá emplear herramientas externas como Gemini para crear contenido relacionado con desempeño. Esta práctica ya se venía gestando: según reportes previos, los equipos llevan tiempo utilizando los asistentes internos para redactar retroalimentación. Le puede interesar: Adiós al "Me Gusta": Facebook dejará de funcionar en páginas externas
- Nano Banana Pro llega para renovar la generación visual en las apps de Google
Basada en Gemini 3 Pro, la versión incorpora mejoras que buscan responder a las necesidades de creadores y equipos que requieren mayor precisión y consistencia en sus contenidos. Google se prepara para introducir una nueva pieza en su ecosistema de creación asistida por inteligencia artificial, la Nano Banana Pro, una versión potenciada que llegará la próxima semana y que apunta a elevar el estándar de generación de imágenes y contenido visual. Este lanzamiento ocurre en paralelo con la llegada de Gemini 3, lo que refuerza la lectura de que ambos movimientos forman parte de una actualización estratégica más amplia dentro de la hoja de ruta de IA de la compañía. Las primeras pistas sobre esta versión “Pro” surgieron de un material promocional oculto en Google Vids, donde se menciona la capacidad de “generar imágenes y gráficos de alta calidad” directamente desde la herramienta. Esta referencia fue clave para confirmar que la nueva iteración no será simplemente una evolución incremental de Nano Banana, sino una edición equipada con Gemini 3 Pro, distanciándose de las variantes basadas en tecnologías más ligeras, como Flash, utilizadas en su predecesora. La integración con Gemini 3 Pro no solo implica mayor resolución y fidelidad visual, sino una optimización pensada para los flujos de trabajo que ya dependen de la IA generativa dentro del ecosistema de Google. Equipos que utilizan Vids, Slides o las aplicaciones de diseño podrán acceder a un motor capaz de producir contenido visual más consistente, con mejor manejo de detalles y mayor estabilidad entre iteraciones, algo que ha sido una de las prioridades en la evolución de los modelos de la compañía. Este movimiento también encaja con la estrategia que Google aplica en sus actualizaciones de Gemini, con despliegues simultáneos y transversales que empujan mejoras de capacidad en múltiples productos al mismo tiempo. Si las capacidades de alta resolución se confirman, Nano Banana Pro reforzaría la apuesta de la compañía por competir más agresivamente en la generación de contenido para creadores profesionales y entornos empresariales, donde la precisión visual es un requisito clave. En conjunto, el lanzamiento sincronizado con Gemini 3 Pro y la adopción explícita del sello “Pro” muestran la intención de Google de avanzar hacia herramientas generativas más maduras, con estándares de producción que permitan a usuarios individuales y organizaciones adoptar estos modelos como parte central de sus procesos creativos y operativos. Le puede interesar: Compras más inteligentes: la IA de Google se encarga de lo difícil
- Cloud-Cybersec Summit Panamá 2025: la nube y los datos como palancas de innovación
Un panel compuesto por Sheyla Leacock (Comunidad DOJO), Bruno Silva (Wise Tech) y José Rivera (BAC Panamá) dejó al descubierto una verdad compartida por todas las organizaciones: la nube y los datos ya no son solo habilitadores tecnológicos, sino instrumentos centrales de innovación, eficiencia y resiliencia empresarial. A lo largo del diálogo, los especialistas desmenuzaron los beneficios, los desafíos, las buenas prácticas y una visión de futuro donde cloud, IA y ciberseguridad convergen en la próxima década digital. El panel abrió con un consenso inmediato: la nube se convirtió en un componente omnipresente de la operación tecnológica moderna. Según Sheyla Leacock, Especialista en Ciberseguridad de Comunidad DOJO, uno de los mayores aportes es la flexibilidad para desplegar entornos y consumir solo los recursos necesarios, eliminando la rigidez del modelo tradicional “on-premise”. Esto permite acelerar despliegues, optimizar costos y mejorar la resiliencia al contar con infraestructuras redundantes y escalables. José Rivera, Gerente de soluciones Digitales de BAC Panamá, reforzó esta idea al señalar que procesos que antes tomaban semanas —como levantar una infraestructura para pruebas— hoy pueden resolverse en minutos. En un entorno bancario donde la velocidad de lanzamiento es crítica, “el go-to-market se vuelve más rápido, fiable y segmentado” gracias al cloud. Por su parte, Bruno Silva, CEO de Wise Tech, destacó un beneficio clave para compañías en crecimiento: la capacidad de escalar sin fricciones. En un mercado donde los negocios cambian de tamaño y demanda en cuestión de semanas, “crecer rápido, seguro y sin grandes inversiones iniciales” se ha vuelto indispensable. A la pregunta sobre los riesgos y desafíos de migrar hacia la nube, los especialistas coincidieron en que el obstáculo principal no es técnico, sino cultural. Rivera explicó que muchas organizaciones trasladan sus aplicaciones a la nube sin rediseñar su arquitectura ni su forma de trabajo, lo que neutraliza los beneficios. Para aprovechar realmente el cloud, dijo, es necesario cambiar el mindset del equipo y adoptar modelos como el serverless y arquitecturas desacopladas. Silva añadió que esta transición exige entender procesos, integrar áreas de negocio y mapear cómo fluye la información. Muchas empresas, afirmó, “ni siquiera conocen bien cómo están integrados sus propios sistemas”, lo que complica la toma de decisiones. A esto se suman desafíos técnicos —aplicaciones difíciles de migrar— y el dilema financiero: hay organizaciones medianas que, pese a necesitar la nube, no cuentan con equipos capacitados para operarla. El panel dedicó un espacio importante a la integración entre cloud e inteligencia artificial. Rivera detalló que BAC Panamá opera bajo un marco regional de gobernanza para IA centrado en los humanos, con procesos de adopción gradual, formación en ingeniería de prompt y detección de “champions” internos capaces de identificar casos de uso de alto impacto. Actualmente, el banco trabaja en automatización con agentes inteligentes enfocados en extracción y análisis de datos, reducción de tiempos de onboarding y optimización de procesos manuales que aún persisten en el sector financiero. Leacock, especialista en seguridad, subrayó que la nube solo es segura cuando se entiende el modelo de responsabilidad compartida y se involucra a seguridad desde el inicio del proyecto. La realidad, dijo, es que muchas veces los equipos de ciberseguridad llegan cuando el despliegue ya está listo. La experta enfatizó además la importancia de cumplir regulaciones de protección de datos, asegurar las comunicaciones entre nubes e identificar con claridad qué datos se poseen y cómo se manejan. En Panamá, aseguró, hay avances significativos en educación y concienciación, aunque todavía queda un largo camino por recorrer. Al proyectar los próximos cinco años, el panel coincidió en que el crecimiento será impulsado por tres tendencias: 1. Modelos híbridos dominantes. Las empresas mantendrán algunas piezas on-premise, pero la mayoría de cargas se moverán hacia nubes públicas y privadas. 2. Datos como servicio (DaaS) y nuevos modelos de negocio. Silva destacó que pocas organizaciones monetizan sus datos, pero esto cambiará drásticamente. Sectores como retail ya muestran el camino con unidades de retail media que generan ingresos paralelos al negocio principal. 3. Hiperpersonalización y automatización inteligente. Para Leacock, la clave estará en la gobernanza de datos y en la evolución hacia flujos completamente automatizados, orquestados por agentes de IA. Sin esa gobernanza, advirtió, proliferará el Shadow AI : uso no regulado de herramientas de inteligencia artificial dentro de las empresas. El panel dejó claro que Panamá se encuentra en un punto de aceleración: las empresas están abrazando la nube, experimentando con IA y fortaleciendo su cultura de ciberseguridad. La convergencia de estas tecnologías definirá la competitividad regional en los próximos años, siempre y cuando exista una estrategia clara, una gobernanza robusta y un cambio cultural que acompañe la transformación digital. Le puede interesar: Panamá figura entre los países más atacados de la región por ciberdelincuentes
- Panamá figura entre los países más atacados de la región por ciberdelincuentes
Autoridades y especialistas alertan sobre el crecimiento de incidentes cibernéticos y la necesidad de mayor resiliencia digital. La creciente digitalización de los servicios públicos y privados en Panamá ha ampliado tanto las oportunidades económicas como los riesgos asociados a la seguridad informática. En este escenario, los ciberataques han evolucionado hacia tácticas más silenciosas, persistentes y difíciles de detectar. Según datos de FortiGuard Labs, el área de inteligencia de amenazas de Fortinet, Panamá registró 2.4 mil millones de intentos de ciberataques durante el primer semestre de 2025, posicionándose como el tercer país más atacado de la región. En conjunto, América Latina concentró el 25% de todas las detecciones globales en ese periodo, lo que evidencia un ecosistema criminal cada vez más sofisticado. De acuerdo con Arturo Torres, director de inteligencia contra amenazas de FortiGuard Labs para América Latina y el Caribe, el atacante inicia su operación con un reconocimiento profundo del objetivo, identificando servicios expuestos, vulnerabilidades y puntos débiles. Ese primer acercamiento rara vez es agresivo: el phishing sigue siendo la vía preferida para ingresar mediante el engaño humano, mientras que los “Initial Access Brokers” ofrecen credenciales robadas listas para usar. Una vez dentro, comienza lo que Torres denomina “la invasión silenciosa”. El atacante evita instalar programas sospechosos y, en cambio, utiliza herramientas legítimas del sistema para desplazarse sin ser detectado. Su comportamiento se camufla entre el tráfico normal, lo que le permite moverse por la red como si fuera un usuario autorizado y explorar durante semanas sin levantar alertas. El objetivo varía según el tipo de ciberdelincuente: desde la búsqueda de credenciales y datos personales para fraudes, hasta la extracción de información crítica o la preparación de ataques de ransomware. En los casos más sofisticados, los metadatos internos representan un mapa que permite planificar ofensivas más profundas y disruptivas. La exfiltración de información suele hacerse en fragmentos y a través de canales cifrados para evitar ser detectada. Aunque estos ataques están diseñados para pasar inadvertidos, existen señales tempranas: escaneos internos inusuales, accesos en horarios atípicos, creación de nuevas cuentas, lentitud del sistema o archivos que desaparecen. Los empleados suelen ser los primeros en notar comportamientos anómalos, por lo que la concientización es clave. Frente a una intrusión, el protocolo debe ser inmediato y estructurado, iniciando con la detección, seguido por la contención, la erradicación de la amenaza y una recuperación segura. Una preparación robusta —con políticas claras, roles definidos y simulacros— aumenta significativamente la capacidad de respuesta. Torres enfatiza que la estrategia más efectiva hoy consiste en integrar soluciones de seguridad que operen como un ecosistema unificado. Construir esta arquitectura requiere experiencia especializada y un enfoque proactivo. Por ello, recomienda recurrir a proveedores expertos como Fortinet para diseñar plataformas capaces no solo de responder a los ataques, sino de anticiparse a ellos. Le puede interesar: Senacyt lanza nuevas plataformas digitales para modernizar el ecosistema de ciencia y tecnología en Panamá
- El Marketing Tech Summit aterriza en El Salvador para impulsar la transformación digital
El próximo 25 de noviembre llega al país el evento organizado por Connecta B2B junto a IT NOW y Mercados & Tendencias que reunirá a líderes, especialistas y tomadores de decisiones para explorar las nuevas fronteras del marketing digital. En una era en la que la digitalización avanza a ritmos nunca vistos, este summit se posiciona como el epicentro donde convergen organización, estrategia y tecnología . A través de ponencias, talleres interactivos y paneles con expertos de la región, los asistentes podrán descubrir cómo convertir la IA, el big data y la automatización en ventajas competitivas reales para sus marcas. El día comenzará a las 08:00 a. m. (GMT-6) con una sesión plenaria que dará paso a dos bloques temáticos centrados en: “IA en tus manos: Domina las herramientas que están cambiando el marketing”: Liderado por Christian Corredoira, este taller práctico se enfocará en la comparación de modelos de IA, creación de contenido automatizado y optimización de procesos. “IA y neurociencia para un marketing que conquista”: Facilitado por Sergio Bravo y Leonardo Correa, esta masterclass profundizará en la intersección entre tecnología, emociones y comportamiento del consumidor. Ambos bloques están diseñados para empresas de todos los tamaños que buscan llevar su estrategia de marketing al siguiente nivel . Además, habrá espacios de networking, mesas redondas y casos de éxito regionales para aprender de forma directa y aplicada. Este evento es ideal para directores de marketing, gerentes de producto, jefes de e-commerce, responsables de innovación digital y consultores que buscan estado del arte tecnológico en marketing y transformación digital. También es una oportunidad inigualable para conectar con empresas proveedoras de soluciones, socios estratégicos y actores clave del ecosistema centroamericano. Las plazas son limitadas y se recomienda registrarse anticipadamente. Visite el sitio oficial del evento para asegurar su participación y conocer los paquetes disponibles, incluidas entradas estándar, acceso prioritario y opciones premium. Más información en https://www.marketingtechsummit.net/ Le puede interesar: El Tech Week 2025 concluyó su exitosa gira regional en República Dominicana












