top of page

Resultados de la búsqueda

Se encontraron 7822 resultados sin ingresar un término de búsqueda

  • Otro apagón global: Cloudflare colapsa y su escudo de seguridad también

    Un pico de tráfico anómalo paralizó parte de la web y desató fallas en el sistema de validación challenges.cloudflare.com. Una nueva disrupción en la infraestructura de Cloudflare volvió a dejar fuera de línea a múltiples plataformas en todo el mundo, un episodio que reabre el debate sobre la resiliencia de la red y la dependencia global de los servicios de mitigación de tráfico. La compañía confirmó a las 11:48 UTC del 18 de noviembre que su red estaba experimentando fallas que afectaban a “múltiples clientes”, en un escenario que recuerda al apagón masivo de junio de 2025. En esta ocasión, los reportes de Downdetector citados por el medio indican afectaciones en servicios de alto tráfico como X, OpenAI, Canva, Spotify, AWS, YouTube, Facebook, Uber, ChatGPT, Claude y League of Legends. Cloudflare explicó por correo al medio que detectó “un pico de tráfico inusual” desde las 11:20 UTC, lo que provocó errores en parte del flujo que atravesaba su red. La compañía señaló que aún desconoce el origen de ese aumento repentino y que sus equipos están concentrados en restablecer el servicio antes de profundizar en el análisis técnico. El incidente volvió a poner en evidencia la fragilidad de los grandes nodos de distribución de contenido cuando enfrentan patrones anómalos de tráfico. Al mismo tiempo, otro componente técnico quedó en el centro de la discusión: el dominio challenges.cloudflare.com. Esta web es la base del sistema de validación que Cloudflare utiliza para distinguir entre tráfico humano y automatización maliciosa. Allí se ejecuta el mecanismo de desafío, la prueba que se activa cuando los sistemas detectan comportamiento sospechoso y que, una vez superada, otorga una cookie temporal de verificación (cf_clearance). En escenarios de alta presión, este sistema puede transformarse en un obstáculo adicional, generando falsos positivos y bloqueos para usuarios legítimos. Esto ocurre con mayor frecuencia cuando intervienen factores como el uso de VPNs, salidas corporativas masivas o configuraciones del navegador que impiden la ejecución de los scripts de verificación basados en JavaScript. Estas fallas provocan efectos colaterales que agravan la percepción de caída total, ya que sin completar la verificación aumentan los rechazos de acceso incluso cuando el servicio principal sigue funcionando. Para mitigar estos problemas, Clarín señala soluciones técnicas como habilitar JavaScript, desactivar temporalmente bloqueadores de scripts como NoScript o uMatrix y cambiar los servidores DNS del dispositivo o router por opciones públicas de mayor reputación, como Google DNS (8.8.8.8) o Cloudflare DNS (1.1.1.1), recomendación útil cuando la IP del usuario ha sido puntuada negativamente por actividad previa desde la misma red. De cara al futuro, Cloudflare apuesta por Turnstile, una tecnología de verificación no interactiva que reemplaza los CAPTCHA visuales mediante análisis heurístico y pruebas de trabajo silenciosas. Según el medio, su adopción debería reducir la frecuencia de interrupciones provocadas por desafíos tradicionales y minimizar el impacto del sistema actual en episodios de estrés operativo. Si estas capas de validación se consolidan, el próximo gran apagón de Internet podría limitarse al incidente técnico y no convertirse además en una barrera para usuarios legítimos que solo intentan acceder a sus servicios habituales. Le puede interesar: Nueva alerta en la nube: el apagón global de Microsoft Azure

  • Rediseñando los empleos en ciberseguridad en la era de la IA: un llamado a CTOs y CISOs

    En un escenario en el que la automatización avanza y los atacantes adoptan IA generativa, la verdadera ventaja competitiva estará en cómo las organizaciones transformen su fuerza laboral de seguridad y adopten modelos operativos potenciados por IA. Por Gonzalo García, vicepresidente de Ventas de Fortinet para Sudamérica La inteligencia artificial (IA) ya no es una idea emergente en el horizonte; está incrustada en la manera en que operan tanto atacantes como defensores. Desde campañas de phishing automatizadas hasta detección de amenazas impulsada por IA, el campo de batalla de la ciberseguridad ha cambiado. Para los Chief Technology Officers (CTOs) y los Chief Information Security Officers (CISOs), la pregunta ya no es si la IA transformará a sus organizaciones, sino cómo rediseñar los stacks tecnológicos y las funciones laborales para que humanos y máquinas trabajen juntos de manera efectiva. Por qué la ciberseguridad no puede darse el lujo de esperar La IA generativa ha abierto una nueva era de oportunidades y riesgos. Los atacantes ya tienen acceso a herramientas que pueden generar malware polimórfico, crear correos de spear-phishing realistas y abrumar a los defensores con volumen y velocidad. Al mismo tiempo, los defensores pueden aprovechar la IA para la detección de anomalías, la respuesta automatizada a incidentes y el análisis predictivo. Goldman Sachs Research estima que dos tercios de los empleos actuales están expuestos a algún nivel de automatización por IA, con tareas administrativas (46%) y legales (44%) especialmente vulnerables. La ciberseguridad no es la excepción. La monitorización rutinaria, el análisis de logs y la generación de reportes—que antes eran el pan de cada día de los centros de operaciones de seguridad (SOC)—ahora son manejados con mayor eficiencia por algoritmos capaces de procesar terabytes de datos en segundos.Para muchos CTOs y CISOs, esto plantea un dilema. ¿Permitir que la IA desplace roles existentes o rediseñar los empleos y stacks tecnológicos de modo que el talento humano se eleve en lugar de ser relegado? El caso del rediseño de empleos en ciberseguridad La respuesta está en el rediseño, no en la eliminación. Una investigación de Accenture muestra que casi la mitad de las horas laborales podrían verse afectadas por la IA generativa, pero la mayoría a través de aumentación, no sustitución. En ciberseguridad, esto implica replantear funciones clave en SOCs, inteligencia de amenazas y gobernanza. . De lectores de logs a tomadores de decisiones: los analistas que antes dedicaban horas a revisar alertas deberán pasar a un rol de decisión, evaluando el contexto y el impacto de negocio de las amenazas detectadas por la IA. . De manejadores de tickets a orquestadores: en lugar de responder manualmente a cada incidente, los ingenieros de seguridad diseñarán y supervisarán playbooks automatizados que ejecuten respuestas a través del stack. . De operadores de herramientas a estrategas: en vez de lidiar con la complejidad de decenas de soluciones aisladas, los CISOs deben rediseñar el stack en torno a plataformas potenciadas por IA que ofrezcan visibilidad unificada y respuesta más rápida. Rediseñando el stack de ciberseguridad Un stack moderno de ciberseguridad no puede ser estático; debe ser nativo en IA. Esto requiere que CTOs y CISOs tomen decisiones deliberadas sobre qué capas automatizar y cuáles dejar en manos humanas. 1. IA en el núcleo de detección y respuesta: los sistemas SIEM y EDR deben evolucionar hacia plataformas mejoradas con IA. 2. Automatización de lo rutinario: parches, reportes de cumplimiento y logs deben ser gestionados por IA. 3. Supervisión humana en escenarios críticos: ética, regulación y atribución deben seguir bajo control humano. 4. Cambio hacia plataformas, no soluciones puntuales: el futuro del stack debe ser un ecosistema integrado potenciado por IA, no un mosaico de herramientas aisladas. El rediseño en ciberseguridad no trata solo de reasignar tareas; es una redefinición del liderazgo. CISOs y CTOs deben pasar de ser compradores de herramientas a orquestadores de la colaboración humano–IA. Sus responsabilidades se expanden en tres direcciones: -Estrategia de fuerza laboral: redefinir roles, trayectorias y capacitación. -Gestión del cambio: construir confianza, ser transparentes y apoyar nuevas capacidades.-Gobernanza: establecer límites éticos y de cumplimiento para la IA. Superando el miedo a la disrupción CTOs y CISOs comparten el temor de muchos ejecutivos en otros sectores: ser los agentes de disrupción dentro de su propia organización. Pero la parálisis no es opción. Los atacantes no esperan a que la gobernanza interna madure; ya están usando la IA en nuestra contra. La solución está en replantear la conversación. Goldman Sachs señala que solo un 7% de los empleos podría ser totalmente automatizado, mientras que la gran mayoría es complementada. Accenture enfatiza que las organizaciones que adoptan una estrategia centrada en las personas desbloquean más valor que aquellas enfocadas solo en recortar costos. El mensaje es claro: el rediseño no solo es ético, también es rentable. La fuerza laboral en ciberseguridad del futuro se verá distinta. Los analistas serán como controladores aéreos guiando sistemas impulsados por IA. Los ingenieros diseñarán arquitecturas resilientes en lugar de aplicar parches interminables. Los CISOs asesorarán a las juntas directivas con estrategias de riesgo informadas por IA. Este futuro no es ciencia ficción; ya está ocurriendo. El reto es rediseñar stacks y roles con suficiente rapidez para mantenerse a la par de atacantes y competidores. Un llamado a la acción Para CTOs y CISOs, la era de la IA es amenaza y oportunidad. La amenaza está en ignorarla; la oportunidad está en un rediseño audaz de empleos y stacks. La historia demuestra que las tecnologías transformadoras crean nuevas industrias para quienes se adaptan. La IA generativa no será diferente. La pregunta no es si la IA transformará la ciberseguridad, sino si los líderes tendrán el coraje de rediseñar tanto el stack como los empleos que lo sustentan. Las organizaciones que lo logren no solo se defenderán mejor, sino que marcarán el estándar de liderazgo en seguridad potenciada por IA. Le puede interesar: Dos eventos claves en un mismo encuentro: Cloud y CyberSec Summit llegan a Panamá

  • Panamá y Guatemala avanzan en integración tecnológica para gestión ambiental y reducción de desastres

    Los países centroamericanos refuerzan su cooperación en tecnologías de observación terrestre y gestión de riesgos. En un contexto regional marcado por la necesidad de fortalecer la gestión ambiental y las capacidades tecnológicas, Panamá y Guatemala avanzan en nuevos mecanismos de colaboración para mejorar el uso de datos abiertos y herramientas digitales. Estas iniciativas buscan impulsar la innovación y apoyar la toma de decisiones frente al cambio climático y los desastres naturales. El subadministrador de la Autoridad Nacional para la Innovación Gubernamental (AIG), Francisco Guinard, encabezó la reunión técnica bilateral enfocada en la cooperación en materia de innovación y tecnología, en el marco del Proyecto Copernicus LAC-Panamá, una iniciativa respaldada por la Unión Europea. El encuentro contó con el acompañamiento del Ministerio de Relaciones Exteriores y la Secretaría Nacional de Ciencia, Tecnología e Innovación (SENACYT), y tuvo la participación de la vicepresidenta de Guatemala, Karin Herrera Aguilar, quien realizó una visita oficial a Panamá. Durante la sesión, se presentaron los avances y el impacto del Centro Regional Copernicus LAC-Panamá, que promueve el uso de datos de observación de la Tierra para la gestión ambiental y la reducción del riesgo de desastres. Guinard destacó que la cooperación representa un paso clave para fortalecer las capacidades tecnológicas y científicas en la región, reiterando el compromiso de Panamá con la innovación, la sostenibilidad y la cooperación digital entre países aliados. La vicepresidenta Herrera Aguilar manifestó el interés de Guatemala en emplear las herramientas de Copernicus para mejorar la gestión de riesgos como incendios e inundaciones, así como para fortalecer la seguridad alimentaria y la resiliencia climática a través del intercambio de datos y conocimientos especializados. El viceministro de Asuntos Multilaterales y Cooperación, Carlos Guevara Mann, reafirmó la disposición de Panamá de seguir promoviendo la integración regional e invitó a las autoridades guatemaltecas a sumarse a la conmemoración del Bicentenario del Congreso Anfictiónico de Panamá. Por parte de la Unión Europea, Javier Arregui reiteró el compromiso del bloque de seguir apoyando el programa, destacando el rol de Panamá como país líder en el desarrollo de servicios de observación de la Tierra para la reducción del riesgo de desastres y la gestión territorial. La delegación panameña coincidió en la importancia de la cooperación internacional y del uso de servicios abiertos de Copernicus, en línea con los objetivos del Marco de Sendai para la reducción del riesgo de desastres y el desarrollo sostenible. Le puede interesar: Panamá fortalece su liderazgo científico en la cooperación internacional

  • La era post-Cook se acerca y Apple reorganiza sus áreas clave

    El directivo podría dejar su puesto antes de lo previsto, en un momento en que la compañía redefine su estructura técnica y refuerza ingeniería, operaciones y finanzas para asegurar una transición estable. La posible salida de Tim Cook como director ejecutivo de Apple ha vuelto a tomar fuerza, con nuevos indicios de que el relevo podría materializarse tan pronto como el próximo año. Según 9to5Mac, que compartió información publicada por The Financial Times, la compañía habría intensificado su planificación interna para asegurar una transición ordenada en su liderazgo, un movimiento que pone el foco en la estructura tecnológica que sostiene a Apple y en cómo se prepara para la próxima etapa de desarrollo de sus productos y plataformas. De acuerdo con el informe citado, el consejo de administración y los altos ejecutivos están revisando con mayor detalle los escenarios para el traspaso del rol, mientras la ingeniería de hardware cobra un protagonismo notable dentro del proceso. John Ternus, actual vicepresidente sénior de Ingeniería de Hardware, aparece como el perfil con mayor posibilidad de asumir la posición, aunque las fuentes del medio británico aclaran que no existe una decisión definitiva. Su rol ha sido clave en la evolución de los chips Apple Silicon y en el rediseño de la línea Mac, áreas consideradas estratégicas para mantener el ritmo de innovación de la compañía. La presión temporal, sin embargo, no estaría relacionada con el desempeño financiero reciente. The Financial Times cita a personas cercanas a Apple que subrayan que la transición responde a una planificación de largo plazo, en un momento en que la compañía se prepara para una temporada de ventas navideñas que se anticipa especialmente fuerte para el iPhone. Apple, además, no anunciaría ningún movimiento antes de su próximo reporte de resultados previsto para finales de enero, el cual abarca el periodo comercial más crítico del año. El contexto también incluye ajustes recientes en puestos estratégicos vinculados a las operaciones y las finanzas, elementos que afectan directamente el desarrollo tecnológico de Apple. La salida definitiva del ex director de operaciones Jeff Williams, quien cerró su ciclo en la compañía tras haber delegado sus responsabilidades en Sabih Khan meses atrás, forma parte de ese reacomodo interno. A ello se suma el relevo en la dirección financiera, con la llegada de Kevan Parekh al puesto que durante años ocupó Luca Maestri, un cambio que ajusta la conducción de la planificación financiera en plena expansión de proyectos de hardware y servicios. Si bien las fuentes citadas advierten que los tiempos podrían modificarse, la intensificación de los preparativos apunta a que Apple busca afianzar su base tecnológica antes de comunicar cualquier nuevo liderazgo. En un ecosistema donde el hardware, el silicio y los servicios avanzados dependen de una visión ejecutiva cohesiva, la compañía parece determinada a asegurar que el próximo paso se dé con la maquinaria técnica perfectamente alineada. Le puede interesar: El iPhone Air no despega: ventas pobres obligan a Apple a replantear su camino

  • Ads y Analytics Advisor: la IA de Google que aprende y actúa

    Los nuevos asistentes inteligentes interpretan el contexto del negocio, sugieren mejoras y aplican cambios en tiempo real dentro de Google Ads y Analytics, reduciendo la brecha entre el insight y la acción. La inteligencia artificial empieza a asumir un nuevo rol dentro de las plataformas digitales: el de asesor autónomo. Según Google, sus nuevos Ads Advisor y Analytics Advisor representan una evolución hacia herramientas capaces de anticipar necesidades, ofrecer recomendaciones precisas y ejecutar acciones concretas dentro de las cuentas de marketing y analítica, todo impulsado por los modelos Gemini. Ambos asesores funcionan como agentes conversacionales que aprenden del contexto del negocio. En el caso de Ads Advisor, el sistema puede analizar el rendimiento de campañas, detectar oportunidades y sugerir ajustes, desde nuevas palabras clave hasta activos creativos. Incluso, el usuario puede aprobar que el asistente implemente directamente las mejoras dentro de la plataforma de Google Ads, reduciendo el tiempo entre el diagnóstico y la acción. Por su parte, Analytics Advisor lleva la interacción con los datos a un nuevo nivel. Permite formular preguntas en lenguaje natural, por ejemplo, “¿Por qué aumentaron mis usuarios activos en septiembre?”, y obtener respuestas visuales e interpretadas. El asistente analiza los factores que explican esos cambios y sugiere pasos concretos para aprovechar las oportunidades detectadas, todo dentro del entorno de Google Analytics. A nivel tecnológico, la apuesta de Google combina modelos de lenguaje de gran escala con capacidades de análisis contextual y aprendizaje continuo. El resultado son sistemas que no solo procesan datos, sino que entienden patrones, reconocen intenciones y pueden adaptarse al estilo operativo de cada negocio. Con estos asesores, la compañía busca reducir la complejidad de la gestión publicitaria y analítica, trasladando parte del trabajo rutinario a la IA. La supervisión humana sigue siendo clave, pero la interacción se vuelve más estratégica, el usuario valida, guía y toma decisiones apoyado por un sistema que evoluciona con su propio flujo de trabajo. Le puede interesar: Google Maps incorpora navegación conversacional impulsada por Gemini

  • Compras más inteligentes: la IA de Google se encarga de lo difícil

    Google integró inteligencia artificial conversacional, agentes automáticos y su Shopping Graph para generar comparaciones, confirmar disponibilidad en tiendas y ejecutar pagos bajo supervisión del usuario. Las compras de fin de año suelen volverse una tarea repetitiva, buscar entre miles de opciones, revisar precios, comparar especificaciones y hallar disponibilidad. Este año, ese proceso empieza a transformarse gracias a nuevas capacidades de inteligencia artificial que automatizan desde la búsqueda hasta la verificación de inventarios. Según Google, la temporada navideña llega con un conjunto de funciones impulsadas por modelos avanzados y tecnologías agenticas que asumen las partes más complejas del proceso. La primera novedad es una evolución del modo de compras con IA en Search, que permite describir un producto como si se hablara con un amigo y recibir una respuesta estructurada, respaldada por datos actualizados. La herramienta genera visuales, comparaciones y detalles clave, como precios, reseñas e inventario, ajustados a la intención concreta del usuario. Google sostiene que esta precisión proviene de su Shopping Graph, una base de información con más de 50.000 millones de listados que procesa actualizaciones constantes para ofrecer resultados frescos. El ecosistema también se expande al entorno conversacional de Gemini. Ahora, el modelo integra funciones de compra directamente en la app, donde es posible solicitar ideas, filtrar opciones o comparar productos sin salir del chat. Esta experiencia utiliza la misma infraestructura del Shopping Graph para mostrar listados, tablas comparativas y opciones de compra, creando un flujo continuo entre la planificación y la toma de decisión. La compañía confirma que esta capacidad ya está disponible para usuarios en Estados Unidos. Otro avance tecnológico clave es la automatización de consultas a tiendas físicas mediante IA agentica. Cuando se busca un producto “near me”, aparece la opción “Let Google Call”, que activa un proceso donde la plataforma realiza llamadas para verificar existencia, precios y promociones. Google explica que este sistema está construido sobre su tecnología Duplex y potenciado por una actualización del modelo Gemini, capaz de seleccionar los comercios adecuados, definir las preguntas más relevantes y resumir la información obtenida para enviarla al usuario por correo o mensaje. Finalmente, la automatización también llega al momento del pago. El llamado agentic checkout permite que Google supervise precios y realice la compra cuando un artículo alcance el rango definido por el usuario, previa confirmación final. La empresa detalla que esta función utiliza su infraestructura de pagos y el Shopping Graph para garantizar datos precisos y seguridad transaccional. El despliegue inicial incluye comercios como Wayfair, Chewy, Quince y tiendas seleccionadas de Shopify en Estados Unidos. En conjunto, estas herramientas muestran cómo la IA está empezando a asumir tareas operativas del proceso de compra: interpretar necesidades, sintetizar información, verificar disponibilidad y ejecutar acciones bajo supervisión del usuario. En una temporada en la que el tiempo suele escasear, la tecnología apunta a resolver la parte pesada del recorrido, dejando la decisión final en manos de las personas. Le puede interesar: ChatGPT se convierte en asistente de compras

  • IA en sistemas embebidos: el corazón inteligente de la mecatrónica moderna

    Gracias a microcontroladores cada vez más potentes y eficientes, la IA puede procesar datos, aprender del entorno y tomar decisiones en tiempo real desde el propio dispositivo. Esta revolución marca un antes y un después en la ingeniería mecatrónica, impulsando máquinas autónomas, sostenibles y adaptativas que redefinen los límites de la Industria 4.0 y el Edge Computing. Por Carlos Ávila Murillo, profesor de la Facultad de Informática, Electrónica y Comunicación Universidad de Panamá La Inteligencia Artificial (IA)  ha dejado de ser una tecnología exclusiva de los centros de datos y ahora forma parte de los sistemas embebidos , transformando radicalmente la ingeniería mecatrónica. Esta integración permite que los dispositivos realicen inferencias, predicciones y decisiones en tiempo real, sin depender completamente de servicios en la nube. El resultado es una nueva generación de máquinas autónomas, eficientes y adaptativas , capaces de aprender del entorno. Desde robots industriales hasta sensores inteligentes en entornos IoT, la IA embebida representa un paso clave hacia sistemas más robustos, autónomos y energéticamente eficientes , alineados con las exigencias de la Industria 4.0  y el Edge Computing . Conceptos fundamentales Un sistema embebido  es un conjunto de hardware y software especializado  diseñado para realizar funciones específicas dentro de un sistema mayor. Tradicionalmente, estos sistemas se enfocaban en el control y la adquisición de datos. Sin embargo, con la incorporación de algoritmos de aprendizaje automático (Machine Learning, ML)  y redes neuronales , los sistemas embebidos ahora pueden procesar información localmente y tomar decisiones inteligentes. Esta tendencia se conoce como Edge AI  o Inteligencia Artificial en el borde , donde la inferencia de modelos se ejecuta directamente en el dispositivo (por ejemplo, un microcontrolador ARM Cortex-M o un SoC basado en ESP32), reduciendo la dependencia de la nube y mejorando la latencia, privacidad y eficiencia energética . Arquitectura de un sistema embebido con IA La arquitectura de un sistema embebido con IA combina tres niveles principales: Capa de sensores:  encargada de capturar datos físicos (temperatura, vibración, sonido, imagen). Capa de procesamiento local:  donde reside el microcontrolador o microprocesador con capacidad de ejecutar inferencias. Capa de comunicación y actuación:  transmite resultados a la nube o ejecuta acciones locales (motores, actuadores, alarmas). Un ejemplo típico es un sistema de detección de fallos en motores eléctricos , donde un microcontrolador STM32 analiza las vibraciones mediante un modelo de IA preentrenado. Si detecta una anomalía, envía una alerta o detiene el motor sin intervención humana. Hardware para IA embebida El avance de los microcontroladores de alto rendimiento  y los aceleradores de hardware  ha permitido ejecutar IA en dispositivos de bajo consumo. Algunos ejemplos relevantes son: ARM Cortex-M4 / M7:  muy usados en aplicaciones industriales y educativas. Soportan librerías como TensorFlow Lite for Microcontrollers (TFLM) . ESP32:  combina conectividad Wi-Fi/Bluetooth con procesamiento local básico de IA. NVIDIA Jetson Nano / Xavier:  potentes módulos para visión artificial y robótica avanzada. Google Coral / Edge TPU:  aceleradores especializados para redes neuronales convolucionales (CNN). Estos dispositivos posibilitan la ejecución de modelos de IA previamente entrenados en la nube y convertidos a versiones optimizadas para el entorno embebido. Software y herramientas El ecosistema de desarrollo de IA embebida ha crecido de forma notable. Algunas herramientas y librerías ampliamente usadas incluyen: TensorFlow Lite for Microcontrollers:  permite ejecutar modelos optimizados en microcontroladores con menos de 256 KB de memoria. Edge Impulse:  plataforma que facilita el entrenamiento y despliegue de modelos IA directamente en hardware embebido. PyTorch Mobile y ONNX Runtime:  orientadas a dispositivos más potentes como Jetson o Raspberry Pi. CMSIS-NN (ARM):  librería que acelera redes neuronales en microcontroladores Cortex-M. Estas herramientas simplifican la implementación de IA en entornos con recursos limitados, permitiendo la creación de prototipos rápidos y funcionales. Aplicaciones en mecatrónica La combinación de IA y sistemas embebidos  abre un amplio abanico de aplicaciones en la ingeniería mecatrónica: Robótica autónoma:  robots móviles que reconocen objetos o rutas mediante visión artificial. Mantenimiento predictivo:  sensores inteligentes que analizan patrones de vibración o temperatura para anticipar fallas. Control adaptativo:  sistemas que ajustan parámetros en tiempo real según las condiciones de operación. Vehículos autónomos:  procesadores embebidos que interpretan datos de cámaras y sensores LIDAR. Agricultura de precisión:  nodos IoT que detectan humedad, plagas o calidad del aire para optimizar recursos. Estos sistemas representan la transición hacia una mecatrónica cognitiva , donde la máquina no solo actúa, sino que razona y aprende . Desafíos técnicos Aunque prometedora, la IA embebida enfrenta varios retos: Limitaciones de memoria y procesamiento:  los microcontroladores tienen recursos reducidos. Entrenamiento vs. inferencia:  el entrenamiento se realiza en la nube, y solo la inferencia ocurre en el dispositivo. Seguridad y privacidad:  los modelos deben proteger los datos locales y evitar accesos no autorizados. Optimización de energía:  los algoritmos deben equilibrar precisión y consumo energético. Los ingenieros mecatrónicos deben considerar estos factores al diseñar hardware y software integrados para IA. La Inteligencia Artificial en sistemas embebidos  constituye una evolución natural de la mecatrónica, fusionando control, sensado y toma de decisiones inteligentes en un mismo núcleo. Su aplicación transforma los sistemas tradicionales en entidades autónomas y autoajustables , capaces de aprender de su entorno y mejorar su desempeño. A medida que los microcontroladores se vuelven más potentes y eficientes, la IA embebida seguirá expandiéndose en campos como la robótica, la automatización industrial y las ciudades inteligentes. En definitiva, estamos frente a la era de las máquinas inteligentes distribuidas , donde cada nodo embebido actúa como una célula con capacidad de percepción, razonamiento y acción. Le puede interesar: LoRaWAN y su integración con microcontroladores: conectividad de largo alcance para el IoT

  • Humanos + IA elevan la productividad: hasta 70% más tareas completadas

    Upwork presentó los primeros resultados de su Índice de Productividad Humano+Agente, que mide cómo la intervención experta mejora el rendimiento de los agentes de IA en proyectos reales. El trabajo conjunto entre profesionales y agentes de IA está mostrando mejoras sustanciales en eficiencia y calidad, según nuevos datos que analizan cómo se comporta la tecnología en escenarios reales. De acuerdo con Upwork, su Índice de Productividad Humano+Agente (HAPI) revela que la colaboración entre ambos puede elevar la finalización de tareas hasta en un 70 %, en comparación con el desempeño de los agentes actuando solos. El índice se basa en más de 300 proyectos reales desarrollados dentro de la plataforma, todos seleccionados por su baja complejidad y estructura clara, lo que en teoría debería representar condiciones favorables para que los agentes de IA trabajen de manera autónoma. Sin embargo, los resultados muestran que, incluso en estos escenarios, los agentes enfrentan limitaciones al operar sin supervisión humana, lo que recalca el papel decisivo que tiene la intervención experta para guiar, corregir y complementar el trabajo automatizado. A diferencia de otras evaluaciones que dependen de datasets sintéticos o pruebas en entornos controlados, HAPI se construyó a partir de proyectos reales de clientes, lo que permite observar cómo la creatividad, el criterio y la intuición humana potencian la ejecución técnica de los agentes. Este enfoque pone en evidencia que la eficiencia no depende únicamente de la capacidad del modelo, sino también de su interacción con profesionales capaces de interpretar contextos, resolver ambigüedades y ajustar direcciones de trabajo que la IA, por sí sola, no logra detectar. “En nuestro Human+Agent Productivity Index, los agentes tienen dificultades para completar proyectos reales de baja complejidad por sí solos”, explicó Andrew Rabinovich, director de tecnología y líder de IA y machine learning en Upwork. “Cuando se combinan con profesionales humanos, las tasas de finalización mejoran de forma drástica, lo que respalda nuestra convicción de que el futuro del trabajo estará definido por la colaboración entre ambos, con la intuición y el conocimiento experto como piezas clave”. La compañía presentará los resultados completos de HAPI durante un taller en NeurIPS este año, donde profundizará en la metodología usada y en los escenarios analizados para medir el impacto del modelo humano-en-el-bucle (HITL) en el rendimiento de los agentes. El índice se posiciona como una referencia temprana para comprender cómo evolucionará el trabajo asistido por IA en procesos reales, lejos de las simulaciones y más cerca de la dinámica cotidiana de los equipos híbridos. Le puede interesar: El 68% de las empresas ya usan IA, pero la diferencia radica en cómo la emplean

  • Cómo Anthropic documentó una campaña de espionaje ejecutada casi por completo por IA

    La operación demostró que modelos avanzados pueden analizar sistemas, producir código malicioso y sostener intrusiones complejas con apenas 4 a 6 decisiones humanas en todo el proceso. La ciberseguridad enfrenta un punto de inflexión, por primera vez se documenta una campaña de espionaje ejecutada casi por completo por sistemas de inteligencia artificial operando de forma autónoma. Según Anthropic, la operación expuso cómo los modelos actuales han alcanzado niveles de capacidad, velocidad y autonomía que permiten llevar a cabo ataques complejos con mínima intervención humana. La investigación comenzó tras detectar actividad anómala a mediados de septiembre de 2025. El análisis posterior reveló que un grupo estatal chino, evaluado con alta confianza por la compañía, logró manipular la herramienta Claude Code para infiltrarse en cerca de treinta objetivos globales. Entre ellos figuraban grandes tecnológicas, instituciones financieras, empresas químicas y agencias gubernamentales. El elemento disruptivo no solo fue el tipo de blanco elegido, sino el grado de “agencia” de la IA, capaz de ejecutar por sí misma la mayor parte de la operación. Anthropic explicó que los atacantes construyeron un marco diseñado para comprometer sistemas de manera autónoma, apoyándose en un proceso de “jailbreak” que engañó a Claude para que creyera que trabajaba en pruebas defensivas legítimas. Con esa fachada, los operadores desglosaron el ataque en tareas pequeñas y aparentemente inocuas, evitando activar los mecanismos de seguridad del modelo. A partir de ahí, la IA avanzó a una velocidad imposible para cualquier equipo humano: inspeccionó infraestructuras, identificó bases de datos críticas y resumió hallazgos en minutos. La fase más delicada ocurrió cuando Claude comenzó a investigar vulnerabilidades, escribir su propio código de explotación y ejecutar herramientas como escáneres de red y mecanismos de robo de credenciales. Con esos accesos, extrajo volúmenes significativos de información privada y los clasificó según su valor estratégico. También creó puertas traseras y preparó documentación detallada del ataque, incluyendo listas de credenciales y análisis de sistemas, destinadas a facilitar futuras operaciones del mismo actor. De acuerdo con Anthropic, la IA llevó a cabo entre el 80% y el 90% del trabajo, mientras que la intervención humana se limitó a decisiones críticas muy puntuales. El modelo llegó a generar miles de solicitudes por segundo, una cadencia que ningún equipo humano podría replicar. Aunque Claude cometió errores, como generar credenciales inexistentes o confundir datos públicos con información sensible, la campaña confirma que los sistemas actuales ya pueden sostener ataques de gran escala sin supervisión continua. La compañía advierte que las capacidades de los modelos han evolucionado tan rápido que herramientas pensadas para asistencia y productividad pueden convertirse en plataformas de ataque altamente efectivas. Su inteligencia general, la posibilidad de operar en ciclos autónomos y el acceso a herramientas externas a través de estándares como el Model Context Protocol reducen drásticamente las barreras para ejecutar intrusiones sofisticadas. Frente a este escenario, Anthropic señala que ha reforzado sus sistemas de detección y desarrollado clasificadores mejorados para identificar actividad maliciosa, además de investigar métodos para rastrear ataques distribuidos de gran escala. La empresa sostiene que las mismas capacidades que hoy permiten abusos serán críticas en la defensa: durante esta investigación, su propio equipo de Threat Intelligence utilizó Claude para procesar y analizar enormes volúmenes de datos a una velocidad clave para contener la amenaza. Para la industria, el caso marca un antes y un después. La recomendación es incorporar IA en operaciones de seguridad, automatización de SOC, evaluación de vulnerabilidades y respuesta a incidentes, además de reforzar salvaguardas que dificulten el uso adversarial de modelos avanzados. Anthropic advierte que las técnicas empleadas en esta campaña se replicarán y evolucionarán, lo que hace más urgente el intercambio de inteligencia, los sistemas de alerta temprana y el desarrollo continuo de controles de seguridad preparados para esta nueva generación de agentes autónomos. Le puede interesar: El navegador, la nueva puerta de entrada del ciberdelito en la región

  • Cloud Summit Costa Rica 2025 : claves para la digitalización del sector público

    Para dirigirse hacia un país digitalizado se debe dejar de trabajar de forma individualista e institucional y adoptar una mirada de ecosistema, donde el gobierno, la academia, la empresa privada trabajen en conjunto. El panel de clausura del Cloud Summit Costa Rica 2025, titulado "Gobierno y nube: digitalización del sector público en Costa Rica", contó con la participación de Erickson Álvarez, Gerente de la Agencia Nacional de Gobierno Digital de Micitt, Jorge Mora Flores, Consultor Internacional / LATAM Account Manager de Deepseas y Paula Brenes, Presidenta de Fundación YOD. La discusión se centró en los retos estructurales, los beneficios de la migración a la nube, los casos de éxito del país y la hoja de ruta hacia el 2030. Los panelistas coincidieron en que los principales obstáculos para la adopción de la nube y la transformación digital en Costa Rica son de carácter estructural y no técnicos: 1. Desarrollo de capacidades y salarios: Existe una preocupación por el desarrollo de capacidades técnicas en el sector público. El congelamiento salarial (más de 4 años, con 3 años más previstos) provoca que el personal técnico capacitado migre al sector privado, afectando el liderazgo de los procesos de transformación del Estado. Además, los funcionarios a menudo no pueden asistir a eventos externos para conocer nuevas tendencias tecnológicas. 2. Cultura y falsa seguridad: Hay una reticencia cultural a dejar las infraestructuras físicas por aferrarse a lo tangible. A menudo existe una falsa sensación de seguridad al mantener data centers propios, cuando en realidad pueden ser vulnerables (como el ejemplo de un servidor con una cubeta de agua encima debido a una gotera). 3. Marco Jurídico y Legislación: Se señaló la falta de claridad jurídica en temas de nube. Esto genera dudas sobre qué se puede o no migrar, lo que a menudo requiere criterios legales que pueden diferir y retrasar los proyectos. 4. Decisión Política: El avance requiere una decisión clara por parte del gobierno, siendo este un cuarto reto crucial junto con la capacitación, cultura y legislación. Para avanzar, los panelistas delinearon varios aspectos cruciales: • Poner al Ciudadano en el Centro: La hoja de ruta debe priorizar la construcción de servicios digitales que acerquen el Estado a las personas. • Interoperabilidad: Es fundamental la evolución hacia una política nacional de interoperabilidad. La Agencia Nacional de Gobierno Digital tiene el mandato de desarrollar los aspectos técnicos de la interoperabilidad. Se debe definir que la persona es la dueña del dato, y el objetivo es lograr que la información resida en una única fuente, evitando duplicidades desactualizadas en diferentes instituciones. • Identidad digital: Se necesita abordar el tema de la identidad digital, la cual no es lo mismo que la firma digital, para saber "quién soy yo" como dueño del dato. • Cambio educativo: Es crucial una reforma estructural en el Ministerio de Educación Pública para capacitar a los ciudadanos digitales desde edades tempranas. • Ecosistema colaborativo: El avance hacia una Costa Rica digitalizada al 2030 depende de las decisiones que se tomen hoy. El país debe dejar de trabajar de forma individualista e institucional y adoptar una mirada de ecosistema, donde el gobierno, la academia, la empresa privada y los gobiernos locales trabajen en conjunto para avanzar con mayor velocidad. Álvarez imagina la Costa Rica del 2030 como una ciudadanía conectada, donde se puedan gestionar servicios de manera similar a modelos avanzados como Corea o Estonia. No obstante, Paula Brenes enfatizó que lograr este futuro depende de tomar decisiones hoy, incluyendo la mejora de la remuneración de los funcionarios públicos y la presión de la sociedad civil y la academia para generar políticas públicas necesarias. Vea también: Cloud Summit Costa Rica 2025 : 6 principios de Microsoft que garantizan una IA responsable y privada en la nube

  • Dos eventos claves en un mismo encuentro: Cloud y CyberSec Summit llegan a Panamá

    El próximo 19 de noviembre, el país recibirá los dos encuentros más importantes relacionados con la ciberseguridad y la computación en la nube en un formato unificado. En un formato de "doble programa", el próximo 19 de noviembre en el Hotel Sheraton Grand Panamá se van a desarrollar los dos eventos más destacados de la región en todo lo relacionado a la ciberseguridad y el cloud computing: los CyberSec y Cloud Summits. Las amenazas digitales siguen evolucionando, los delincuentes emplean tácticas cada vez más avanzadas para explotar vulnerabilidades en sistemas y redes. Amenazas como el phishing y el ransomware persisten, pero también han surgido nuevos desafíos como los ataques a la infraestructura crítica, la explotación de debilidades en dispositivos móviles y el creciente riesgo de peligros impulsados por inteligencia artificial. De todo esto, y de mucho más, vamos a estar hablando en el CyberSec Summit, que ofrecerá conferencias, charlas y paneles a cargo de expertos y ejecutivos de empresas y entidades como Cloudflare, ManageEngine, Dell, Deloitte, Wise Tech, BAC Panamá, Veeam, Tigo, Radware y Amazon Web Services, entre otras, quienes compartirán sus visiones, sus experiencias, vamos a conocer nuevos productos y soluciones para atender a este tema tan acuciante en estos tiempos como lo es la ciberseguridad. Por otra parte, en ese mismo día y lugar, se desarrollará el Cloud Summit 2024, el evento especializado en todo lo que tiene que ver con el desarrollo de la nube: esa infraestructura invisible que sostiene casi toda la economía digital actual. El Cloud Summit es el evento para estar a la vanguardia en todo lo que tiene que ver con la nube y de la mano de decenas de expertos que nos levarán por temas como s eguridad en la nube,  infraestructura, analítica de datos y, por supuesto, las últimas tendencias. Toda la información, inscripciones y agenda sobre este "Cyber-Cloud Summit" está en https://www.cloud-summit.live/ o https://www.cloud-summit.live/ Le puede interesar: Cloud Summit Costa Rica 2025: infraestructura, seguridad y IA responsable en el centro del debate

  • El futuro del diagnóstico pulmonar llega al Hospital Oncológico con robots y visión 3D

    Las nuevas tecnologías del centro combinan inteligencia mecánica, imagenología avanzada y técnicas mínimamente invasivas para mejorar la detección del cáncer de pulmón y reducir los riesgos para el paciente. En Puerto Rico, el Hospital Oncológico da un paso decisivo en la modernización del diagnóstico y tratamiento del cáncer de pulmón. La tecnología se convierte en una aliada esencial para detectar la enfermedad en etapas tempranas, realizar procedimientos menos invasivos y aumentar la precisión en los resultados, según información de Medicina y Salud Pública. El doctor Luis Gerena, neumólogo y broncoscopista del centro, explica que las nuevas herramientas están transformando el abordaje clínico de las lesiones pulmonares. “Gran parte del retraso en los diagnósticos se debía a la falta de equipos como los que ahora tenemos para biopsiar y detectar cáncer de pulmón”, señala. Entre los avances más significativos destaca la broncospia robótica con el sistema ION, que funciona como un GPS dentro de las vías respiratorias. Este robot guía una herramienta de biopsia directamente hacia el nódulo pulmonar a través de la boca, lo que reduce la necesidad de procedimientos invasivos y mejora la seguridad del paciente. “El robot traza el camino y me lleva exactamente hasta el nódulo; el paciente está bajo anestesia y no siente molestias”, comenta Gerena. La precisión del procedimiento se eleva con el sistema CEO Spin de Siemens, un escáner CT portátil que genera imágenes tridimensionales en tiempo real. Gracias a esta integración, los médicos pueden confirmar que la muestra se obtiene en el lugar exacto. “Si no tuviéramos este C-arm, la certeza sería de un 80%, pero con esta tecnología podemos superar el 93%”, indica el especialista. Otro de los avances que redefine la práctica médica es la endosonografía bronquial (EBUS), que permite realizar en un solo procedimiento la biopsia del pulmón y el estudio de los ganglios linfáticos del mediastino. Esta técnica facilita la estadificación precisa del cáncer y evita múltiples intervenciones. “Este método tiene la mayor sensibilidad y especificidad para lograr un staging mediastinal invasivo”, puntualiza Gerena. El hospital incorpora además tecnologías complementarias como la criobiopsia, que permite extraer muestras más amplias y preservar mejor el tejido, y la coagulación por plasma de argón (APC), usada para controlar sangrados sin contacto directo. “Si hay una masa obstruyendo la vía aérea, podemos congelarla y retirarla, permitiendo que el paciente respire con normalidad”, detalla el médico. Aun con estos avances, la prevención sigue siendo el pilar más importante. El doctor Gerena recomienda estudios de detección temprana, como el CT scan anual para personas de alto riesgo, junto con la eliminación del hábito de fumar. “Mientras más temprano logremos diagnosticar, más probabilidad hay de que la condición sea curable y el paciente pueda vivir una vida completamente normal”, afirma. Con esta combinación de innovación tecnológica y enfoque preventivo, el Hospital Oncológico de Puerto Rico consolida su liderazgo regional en medicina pulmonar de precisión, ofreciendo una nueva esperanza para enfrentar el cáncer de pulmón con más eficacia y humanidad. Le puede interesar: Panamá y Brasil impulsarán innovación en vacunas y biofármacos

itnow-03.png

© Derechos reservados

Connecta B2B - 2025

Políticas de privacidad

ACERCA DE NOSOTROS

IT NOW es un espacio multiplataforma y un núcleo para conectar negocios que se compone de varios elementos: su sitio web con noticias de TI relevantes en la región, un newsletter semanal, su multiplataforma de redes sociales, por último, sus eventos enfocados en las verticales de TI y en donde destaca el aclamado Tech Day, la gira de actualización tecnológica más importante de la región.

24 / 7 Actualizaciones en nuestras Redes Sociales
  • Facebook
  • Instagram
  • LinkedIn
  • YouTube
  • X
  • RSS
bottom of page