Resultados de la búsqueda
Se encontraron 7820 resultados sin ingresar un término de búsqueda
- Compras navideñas bajo amenaza: alertan sobre el aumento de fraudes digitales en Panamá
Estafas, sitios web falsos y phishing impulsado por inteligencia artificial marcan la temporada de fin de año, según advierte Soluciones Seguras. Mientras millones de personas se preparan para las celebraciones de fin de año y aprovechan las ofertas en línea, los ciberdelincuentes intensifican sus ataques para explotar el alto volumen de compras digitales. En este contexto, la empresa Soluciones Seguras alertó sobre un incremento significativo de fraudes digitales dirigidos tanto a consumidores como a empresas durante la temporada navideña. De acuerdo con datos de Check Point, socio estratégico de Soluciones Seguras, en las semanas previas al Black Friday se registró un aumento del 89 % en la creación de sitios web maliciosos relacionados con esta fecha, en comparación con el mismo período de 2024. Este crecimiento refleja cómo los criminales digitales aprovechan eventos comerciales masivos para engañar a los usuarios. Una de las tácticas más recurrentes sigue siendo la suplantación de marcas reconocidas. El informe revela que 1 de cada 11 nuevos dominios registrados con temática de Black Friday fue clasificado como malicioso. Además, 1 de cada 25 dominios asociados a plataformas de comercio electrónico de alto perfil como Amazon, AliExpress y Alibaba presenta comportamientos fraudulentos. Estos sitios suelen replicar logotipos, nombres y diseños oficiales para aparentar legitimidad y engañar a los compradores. El phishing también ha evolucionado en complejidad. Con el uso de inteligencia artificial generativa, los atacantes crean correos electrónicos cada vez más creíbles que prometen descuentos exclusivos o acceso anticipado a productos. A esto se suma una modalidad emergente: el phishing mediante códigos QR , enviados por mensajes o correos electrónicos, diseñados para evadir los filtros de seguridad tradicionales y redirigir a páginas fraudulentas. “Un solo clic descuidado puede ser suficiente. Una vez que los ciberdelincuentes obtienen los datos del usuario, pueden utilizarlos para ataques mucho más peligrosos, como el ransomware”, advirtió Eli Faskha, CEO de Soluciones Seguras. Ante este panorama, la compañía compartió una serie de recomendaciones para reducir los riesgos durante las compras navideñas, entre ellas verificar siempre la URL de los sitios web, evitar enlaces sospechosos, utilizar métodos de pago seguros, mantener los dispositivos actualizados, activar la autenticación multifactor y desconfiar de ofertas excesivamente atractivas. Los expertos coinciden en que la prevención y la educación digital son claves en una temporada marcada por el alto tráfico en línea. “Nuestro compromiso es mantener a los usuarios informados y protegidos, incluso en medio del entusiasmo de las compras navideñas”, concluyó Faskha, subrayando que adoptar hábitos seguros puede marcar la diferencia entre una compra exitosa y un fraude. Le puede interesar: "AIG impulsa el uso de datos abiertos y tecnología para fortalecer la transparencia en Panamá"
- Médico panameño lidera avance que reduce la mortalidad por vasoespasmo cerebral
Una técnica innovadora aplicada en Israel logra una eficacia del 92,7% en una de las complicaciones más letales tras la ruptura de un aneurisma. Un avance clínico de alto impacto en la neurología vascular intervencionista está siendo liderado por el médico panameño José Domingo De Obaldía, desde el Hospital Rabin Medical Center - Beilinson, en Israel. Junto a un equipo internacional, el especialista ha redefinido el uso del dispositivo Comaneci, logrando revertir con una eficacia del 92.7% el vasoespasmo cerebral distal, una complicación potencialmente mortal que aparece tras la ruptura de un aneurisma. El aporte del especialista chiricano tiene un impacto clínico inmediato: salvar la vida de pacientes que sufren Hemorragia Subaracnoidea (HSA), una condición en la que, tras el sangrado, las arterias del cerebro tienden a cerrarse de forma progresiva. Este fenómeno, conocido como vasoespasmo, suele provocar infartos cerebrales masivos o la muerte si no se revierte a tiempo. Hasta ahora, el tratamiento estándar —la angioplastia con balón— implicaba riesgos elevados, especialmente en los segmentos más distales y frágiles del cerebro, donde la posibilidad de ruptura arterial es considerable. Esta limitación dejaba a muchos pacientes sin una opción terapéutica segura cuando el tratamiento médico no era suficiente. El dispositivo Comaneci fue diseñado originalmente para asistir en el tratamiento de aneurismas de cuello ancho. Sin embargo, la visión clínica del equipo intervencionista permitió identificar su potencial para tratar el vasoespasmo cerebral tardío, una complicación que afecta hasta al 70% de los pacientes con HSA aneurismática. Según explicó De Obaldía, la clave estuvo en aprovechar la estructura expandible y controlable del dispositivo, que permite dilatar los vasos sin bloquear completamente el flujo sanguíneo. A diferencia del balón tradicional, el Comaneci se expande de forma progresiva mientras se administran medicamentos vasodilatadores directamente en la zona afectada. El estudio retrospectivo se realizó en 94 vasos sanguíneos de 14 pacientes críticos, todos con vasoespasmo sintomático refractario al tratamiento médico óptimo. Los resultados demostraron que la técnica es factible, segura y altamente efectiva, sin registrar perforaciones ni complicaciones permanentes. A pesar del pronóstico adverso asociado a estos casos, más de la mitad de los pacientes (51.5%) alcanzó un resultado funcional favorable a los seis meses de seguimiento. Este dato refuerza el valor clínico de la técnica no solo en términos de supervivencia, sino también de calidad de vida posterior. El especialista subrayó la importancia de los protocolos de seguridad, incluyendo una anticoagulación estricta y monitoreo constante durante el procedimiento. Para De Obaldía, el dispositivo no reemplaza completamente la angioplastia con balón, sino que la complementa, especialmente en territorios vasculares distales. El estudio concluye que esta tecnología tiene un alto potencial de adopción y podría implementarse en Panamá, fortaleciendo la capacidad del sistema de salud para manejar emergencias neurológicas complejas. El avance demuestra que desde el talento panameño se pueden generar soluciones médicas con impacto global. Le puede interesar: Panamá aceptará el uso de criptomonedas para pagos municipales
- Panamá y OEA refuerzan cooperación regional en ciberseguridad a través de la Red CSIRT Américas
El encuentro permitió actualizar capacidades, buenas prácticas y mecanismos de colaboración para mejorar la prevención y respuesta ante incidentes cibernéticos en Panamá. La cooperación internacional en materia de ciberseguridad vuelve a tomar protagonismo en Panamá, en un contexto marcado por el aumento de las amenazas digitales y la necesidad de respuestas coordinadas entre los países de la región. En este escenario, el fortalecimiento de capacidades técnicas y el intercambio de información se consolidan como ejes clave para la protección de los sistemas del Estado. La Autoridad Nacional para la Innovación Gubernamental recibió a representantes de la Organización de los Estados Americanos en una reunión de seguimiento y actualización sobre los servicios y herramientas que ofrece la Red CSIRT Américas, con el objetivo de fortalecer la cooperación regional en prevención y respuesta ante incidentes cibernéticos. Durante el encuentro participaron Jaime López González y Alejandro Sabolansky, representantes de la OEA, quienes compartieron información sobre las capacidades técnicas, buenas prácticas y mecanismos de colaboración que impulsa esta red regional para enfrentar amenazas digitales de manera más eficiente y articulada. La jornada contó además con la participación del equipo de CSIRT Panamá, encabezado por el Ing. Adolfo Pons, director nacional de Ciberseguridad, y la Ing. Silvia Batista, jefa de CSIRT Panamá. Ambos resaltaron la importancia de estos espacios de intercambio para robustecer las capacidades nacionales y promover una respuesta coordinada frente a un entorno de riesgos cada vez más complejo. Según destacaron los participantes, la Red CSIRT Américas se ha convertido en una plataforma estratégica para compartir alertas tempranas, experiencias y metodologías que permiten mejorar la resiliencia digital de los Estados miembros, especialmente ante ataques que trascienden fronteras. Este acercamiento reafirma el compromiso de la AIG de fortalecer la ciberseguridad del Estado panameño mediante alianzas estratégicas, cooperación internacional y la adopción de estándares reconocidos a nivel global, con el fin de consolidar un entorno digital más seguro, confiable y preparado para los desafíos actuales. Le puede interesar: La irrupción china que presiona a Silicon Valley: DeepSeek libera modelos que igualan a GPT-5
- Los bots de IA ganan terreno en la seguridad ofensiva
El experimento de Stanford evidenció que herramientas como Artemis no solo aceleran la detección de fallas, sino que también pueden superar a casi todos los humanos en pruebas reales. La capacidad de los modelos de inteligencia artificial para ejecutar ataques y detectar vulnerabilidades está avanzando a una velocidad que comienza a superar a los especialistas humanos en pruebas de penetración. Ese es el escenario que reveló un experimento reciente, según informó The Wall Street Journal , en el que un bot de IA no solo logró identificar fallas reales en una red universitaria, sino que además venció a casi todos los profesionales que intentaron hacer lo mismo. El proyecto estuvo liderado por Justin Lin, investigador de ciberseguridad de Stanford, quien puso a prueba a Artemis, un sistema diseñado para escanear redes, detectar fallos y explotarlos de forma autónoma. Inspirado en los métodos usados por grupos chinos que, según reportes previos, habían empleado modelos generativos para penetrar infraestructuras críticas, Artemis fue diseñado para replicar ese tipo de análisis automatizado, pero en un entorno controlado. La sorpresa para el equipo llegó cuando el sistema, que inicialmente esperaban que tuviera un desempeño limitado, comenzó a operar con una precisión comparable a la de un experto experimentado. Al enfrentarlo contra diez profesionales de pruebas de penetración contratados para evaluar la red de la Escuela de Ingeniería de Stanford, Artemis superó a nueve de ellos. En cuestión de minutos identificó fallas, propuso rutas de explotación y generó reportes técnicos capaces de guiar una corrección. Lin reconoció que el equipo asumió que el modelo sería “inferior al promedio”, pero terminó impresionado por su capacidad de análisis y ejecución. Rob Ragan, investigador de Bishop Fox, explicó que esta generación de modelos está alcanzando un nivel que permite automatizar tareas tradicionalmente costosas y lentas. Su equipo ha usado LLMs para construir herramientas que evaluan software a una escala que sería inviable para una firma tradicional de pruebas. Ejecutar Artemis costaba menos de US$60 la hora, un contraste drástico frente a los honorarios diarios de un especialista humano. Aun así, el bot no fue infalible, cerca del 18% de sus hallazgos fueron falsos positivos y, en al menos un caso, ignoró una vulnerabilidad evidente que todos los humanos detectaron. Pero también exhibió capacidades que ningún analista replicó. Al revisar una página obsoleta que los navegadores modernos ya no procesaban, Artemis optó por una herramienta distinta para acceder al contenido y descubrió una falla que había pasado desapercibida incluso para quienes mantienen el software involucrado. Ese programa era Curl, un componente ampliamente usado en redes y servicios digitales. Para Alex Keller, responsable de seguridad de redes en la Escuela de Ingeniería de Stanford, el experimento representó más beneficio que riesgo. La prueba no solo permitió reducir vulnerabilidades históricas de la red, sino que demostró cómo un sistema de IA, con los controles apropiados, incluido un interruptor de apagado total, puede convertirse en una herramienta defensiva de gran valor. Pero el avance también genera alertas. Dan Boneh, profesor de Ciencias de la Computación en Stanford y asesor del proyecto, advirtió que existe una gran cantidad de software en circulación que nunca fue evaluado con modelos de lenguaje capaces de identificar fallas con tanta profundidad. Eso deja abierta la posibilidad de que actores maliciosos utilicen modelos similares para encontrar y explotar vulnerabilidades inéditas. Jacob Klein, jefe de inteligencia de amenazas en Anthropic, coincide en la advertencia, la capacidad de “incrementar la productividad para encontrar fallas a una escala extrema” está ahora al alcance de múltiples actores. La evidencia no solo proviene de ataques. Daniel Stenberg, responsable de Curl, confirmó que mientras el año pasado recibían reportes automáticos plagados de errores, en los últimos meses comenzaron a llegar hallazgos de alta calidad respaldados por herramientas de análisis generativo más precisas. En total ha recibido más de 400 reportes, algunos de ellos detectando fallas que ningún humano había identificado. El experimento de Stanford plantea un cambio de era: los modelos de IA ya no solo participan del proceso de hacking, sino que comienzan a dominarlo. Aunque aún presentan fallas y requieren supervisión, su velocidad, costo reducido y capacidad para analizar código a una escala inédita los posicionan como un nuevo actor en el equilibrio de poder digital. El desafío ahora será reforzar infraestructuras y estándares de seguridad antes de que estas mismas capacidades sean aprovechadas con otros fines. Le puede interesar: El navegador que piensa por por uno… y por los hackers también
- Los jóvenes no solo navegan: ahora conversan con IA todos los días
ChatGPT lidera la adopción con 59% de uso entre adolescentes, mientras plataformas como TikTok e Instagram mantienen niveles diarios de uso superiores al 50%. La vida digital de los adolescentes en 2025 se encuentra en un punto donde las plataformas sociales y los asistentes basados en inteligencia artificial convergen en una misma rutina de uso casi permanente. Según datos del Pew Research Center, esta generación combina hábitos consolidados, como la preferencia por YouTube, TikTok e Instagram, con una rápida adopción de chatbots que empiezan a competir en atención con las redes tradicionales. El ecosistema sigue dominado por YouTube, que mantiene un alcance prácticamente universal entre los jóvenes. Su presencia diaria es tan amplia que tres cuartas partes de los adolescentes la visitan todos los días y uno de cada cinco afirma usarla “casi constantemente”. TikTok e Instagram también sostienen altos niveles de uso, con más de la mitad de los adolescentes que acceden de forma diaria y cerca de un quinto que los mantiene abiertos durante gran parte del día. La estabilidad de estas plataformas contrasta con la caída persistente de Facebook y X, cuya relevancia entre los jóvenes continúa en descenso respecto a los niveles de la década pasada. Sin embargo, lo verdaderamente disruptivo en 2025 es el rol de los chatbots de IA. Herramientas como ChatGPT, que es usada por el 59% de los adolescentes consultados, se han convertido en un complemento tecnológico clave en la vida diaria, desplazando a otras soluciones y posicionándose por encima de alternativas como Gemini o Meta AI. Según Pew, dos tercios de los jóvenes ya interactúan con asistentes conversacionales y alrededor de tres de cada diez lo hacen todos los días, incluyendo un 16% que los utiliza varias veces al día o de forma casi constante. La adopción crece especialmente entre los adolescentes mayores, quienes integran estos sistemas para resolver tareas, explorar contenidos y automatizar búsquedas que antes dependían exclusivamente de redes sociales. Las diferencias demográficas también moldean este nuevo escenario. Pew indica que los adolescentes negros e hispanos presentan los mayores niveles de uso intensivo de plataformas y chatbots, con tasas más altas de conexión casi permanente y mayor preferencia por herramientas como Gemini y Meta AI. En contraste, los jóvenes blancos muestran un uso más moderado y dependen más de plataformas tradicionales. La brecha por edad también es marcada, los usuarios de 15 a 17 años superan ampliamente a los de 13 y 14 años en la utilización de casi todas las plataformas y servicios de IA, con excepción de YouTube, que mantiene un uso uniforme independientemente de la edad. El acceso constante a internet amplifica estas dinámicas. Prácticamente todos los adolescentes se conectan cada día y cuatro de cada diez aseguran estar online casi todo el tiempo. El dato revela que el contexto digital ya no se limita a momentos de consumo, sino que forma parte de un flujo continuo donde redes sociales y chatbots funcionan como puertas de entrada a la información, la comunicación y el entretenimiento. En este entorno, los chatbots emergen como una nueva capa tecnológica que redefine la interacción digital juvenil, no sustituyen a las redes sociales, pero empiezan a competir por los mismos espacios de atención, ofreciendo respuestas más rápidas, contenido personalizado y una sensación de acompañamiento constante que hasta hace poco solo existía en aplicaciones sociales. Según Pew Research Center, este cambio no es marginal; es un síntoma de cómo la inteligencia artificial está remodelando la manera en que los adolescentes navegan, consumen información y definen su vínculo con la tecnología. Le puede interesar: El ecosistema de redes sociales estadounidense en 2025: plataformas consolidadas y nuevas oportunidades
- Investigación expone cómo la IA convirtió a TikTok en un canal para contenido infantil sintético
Las herramientas de generación y animación permitieron crear clips hiperrealistas que circularon sin bloqueo y escalaron a millones de interacciones antes de ser revisados. Los sistemas automáticos de moderación de TikTok están siendo cuestionados tras revelarse que videos generados por inteligencia artificial que muestran a niñas en situaciones sexualmente sugerentes lograron acumular millones de “me gusta” antes de ser detectados. Según CNN, una investigación de la organización española Maldita.es demostró que la plataforma permitió que estas publicaciones circularan y se viralizaran pese a que su propia política prohíbe expresamente contenido sexualizado, incluso cuando es creado mediante IA, que represente a menores. El hallazgo se produjo a través de cuentas de prueba que Maldita.es utiliza para monitorear comportamientos de riesgo en redes sociales. Carlos Hernández-Echevarría, director adjunto y responsable de políticas públicas de la organización, explicó que su equipo detectó una tendencia creciente de videos que mostraban “niñas creadas con IA, muy jóvenes, vestidas como adultas”, y que al revisar los comentarios aparecían indicios de un sistema paralelo de comercialización mediante enlaces externos. “Nadie que sea una persona real ve esto y no entiende lo que está pasando”, comentó. La investigación identificó el uso de dos tipos de tecnologías, herramientas de generación externa que producían imágenes sexualizadas desde cero, y la función interna “AI Alive” de TikTok, que permite animar imágenes estáticas para convertirlas en videos. Ambas se usaban para crear clips repetitivos, diseñados para evadir filtros, atraer seguidores y dirigir a usuarios hacia chats de Telegram donde se ofrecía material explícito generado por IA. De acuerdo con el reporte, algunos administradores incluso respondían mensajes directos enviando enlaces a sitios externos que vendían videos entre US$60 y US$180. TikTok sostiene que aplica modelos de visión, audio y análisis de texto junto con equipos humanos para detectar abusos y eliminar proactivamente contenido que involucre a menores, incluidos materiales sintéticos. Según cifras de la plataforma, entre abril y junio de 2025 eliminó más de 189 millones de videos y bloqueó más de 108 millones de cuentas, y afirma haber retirado de manera proactiva el 97% del contenido que violaba su política sobre material generado por IA. Sin embargo, cuando Maldita.es reportó 15 cuentas y 60 videos el 2 de diciembre, la plataforma concluyó que 14 de esas cuentas no violaban sus reglas y mantuvo en línea la mayoría de los videos. Los investigadores apelaron, pero TikTok reafirmó su decisión minutos después en todos los casos. La respuesta contrasta con la gravedad tecnológica del fenómeno, modelos generativos que permiten crear menores ficticios con apariencia hiperrealista, sistemas internos que pueden animar y amplificar ese contenido, y algoritmos de recomendación capaces de escalarlo rápidamente a audiencias masivas sin disparar las alertas adecuadas. En algunos perfiles, los videos superaban cientos de miles de seguidores y miles de publicaciones acumulaban más de dos millones de interacciones. Tras la difusión del informe, algunos videos que inicialmente habían sido validados como permitidos ya no estaban disponibles, aunque Hernández-Echevarría señaló que se desconoce por qué no fueron retirados al momento del reporte. En paralelo, Telegram indicó, a través de su portavoz Remi Vaughn, que mantiene una política de “cero tolerancia” para material de abuso sexual infantil y que escanea automáticamente todo contenido difundido en canales públicos contra bases de datos de material prohibido, además de recibir reportes de organizaciones especializadas. El caso se suma a investigaciones previas, como la realizada por Global Witness en Reino Unido, que encontró que TikTok sugería términos sexualizados a usuarios que declaraban tener 13 años incluso en modo restringido. Aunque la empresa afirma haber ajustado sus herramientas de recomendación, el nuevo informe vuelve a poner en evidencia la brecha entre la capacidad de las plataformas para innovar en funciones basadas en IA y su habilidad para detectar usos abusivos derivados de las mismas tecnologías. Le puede interesar: Los juguetes con IA ya hablan con los niños… y a veces dicen demasiado
- Week Report #79: escucha el último programa del año
Llegó la última edición de este 2025 del magazine de IT NOW con las noticias tecnológicas más importantes de los últimos siete días, para mantenerte informado con buena onda. ¡Nos reencontramos en 2026! ¡Muchas felicidades! Maximiliano Poter y Malka Mekler hacen el Week Report, un desenfadado magazine de noticias del mundo IT que, cada viernes, brinda un resumen de los acontecimientos más destacados de los últimos siete días: todo lo importante, lo curioso y hasta lo más divertido que ha sucedido en el ámbito de la tecnología y los negocios para que cierres tu semana bien informado, siempre con buena onda. En esta entrega : Otro apagón global: Cloudflare colapsa y su escudo de seguridad también La era post-Cook se acerca y Apple reorganiza sus áreas clave Jeff Bezos crea una nueva startup de IA y se pone al frente Meta redefine el desempeño: la IA será el nuevo estándar Por la IA, dos tercios de las empresas globales esperan disminuir la contratación de personal "entry-level" Nano Banana Pro llega para renovar la generación visual en las apps de Google El Marketing Tech Summit aterriza en El Salvador Y mucho más Le puede interesar: Week Report #78: escucha las noticias tech de esta semana
- IT NOW Review: conozca todo el potencial de la nueva HP OminiBook X Flip
Se trata de un equipo versátil que, con su desempeño, se adapta a escenarios de trabajo multitareas y es ideal para ejecutar procesos avanzados de inteligencia artificial. El nuevo equipo portátil de HP está enfocado en atender las necesidades de los profesionales de hoy en día, con funciones avanzadas de IA y una versatilidad que se adapta a cualquier necesidad. Es una laptop que se convierte en tablet en cualquier momento y con su lápiz se convierte en un dispositivo para hacer anotaciones, dibujar y otras tareas. Su alto rendimiento la hacen adecuada para trabajo multitarea y es bastante compacta para llevarla a cualquier lugar. A continuación el review completo: Le puede interesar: IT NOW Review: Conozca la nueva HP ProBook
- Automatización total y decisiones en tiempo real: así será el 2026 según GBM y sus aliados tecnológicos
La IA deja de ser promesa y se convierte en la nueva infraestructura crítica para las empresas. Seguridad autónoma, agentes inteligentes y eficiencia energética: las fuerzas que redefinirán la operación empresarial. GBM y sus socios estratégicos presentan las grandes fuerzas tecnológicas que marcarán la productividad, la seguridad y la innovación empresarial en 2026, con un énfasis claro: la inteligencia artificial deja de ser experimental y se convierte en esencial. Durante la serie “Tech Trends 2026”, expertos de IBM, Red Hat, Microsoft, SAP, Lenovo y Cisco analizaron las transformaciones que ya están experimentando las empresas en América Latina y cómo prepararse para un año de aceleración sin precedentes. IBM: 2026 será el año de la orquestación de agentes IBM proyecta cinco grandes tendencias para 2026, lideradas por la orquestación de agentes de inteligencia artificial. Ya existen más de 150 agentes preconfigurados y herramientas low-code para desarrollarlos en minutos, pero la próxima frontera es coordinarlos entre sí, gobernar su comportamiento y combinarlos con procesos humanos. IBM destaca que los managers deberán liderar equipos mixtos: personas + agentes. Red Hat: Automatización total y arquitecturas “AI-driven” Red Hat anticipa que las empresas deben prepararse para arquitecturas operadas por IA. La base será automatizar todo lo rutinario, liberar tiempo para innovación y acelerar la adopción de entornos cloud-native, seguridad postcuántica y modelos generativos. La compañía también impulsa una visión híbrida abierta donde Linux empresarial, Ansible, OpenShift y OpenShift AI permitan ejecutar modelos generativos en cualquier entorno. Microsoft: La IA como la herramienta difundida más rápido en la historia Microsoft subrayó que la inteligencia artificial generativa es la invención de más rápida difusión jamás vista, con más de 1.2 billones de usuarios activos en tres años. La adopción se acelera en países con alfabetización digital previa, lo que marca brechas regionales. Para 2026, la compañía ve un salto en IA democratizada en todas las funciones, copilotos especializados para tareas empresariales, mayor productividad basada en automatización profunda, y seguridad impulsada por IA para detener amenazas cada vez más sofisticadas. SAP: IA embebida y Business Suite como plataforma unificada SAP destacó que las empresas ya no pueden competir con datos del pasado. Su propuesta para 2026 se basa en: IA embebida en todas las aplicaciones, datos armonizados y trazables en tiempo real, y la aceleración de los viajes hacia el cloud ERP (nube pública y privada). SAP busca que los usuarios accedan a la información crítica mediante copilotos como Joule, sin exponer datos sensibles en modelos externos. Además, resaltó que la Business Technology Platform será el núcleo para integrar SAP y no SAP, extender funcionalidades y desarrollar casos de uso de IA propios de cada empresa. Lenovo: IA en todas partes y urgencia por eficiencia energética Lenovo enfatizó que la adopción de inteligencia artificial en dispositivos, centros de datos y entornos industriales crecerá exponencialmente, pero junto con ello viene un gran reto: la crisis energética. Los centros de datos ya consumen el 4% de la energía mundial y podrían llegar al 8% en 2030, lo que obliga a desarrollar hardware más eficiente, con diseños optimizados y computación cuántica emergente. Cisco: Seguridad autónoma y gemelos digitales para anticipar ataques Cisco señaló que la seguridad entra en una cuarta etapa, impulsada por la inteligencia artificial generativa aplicada tanto por defensores como por atacantes. Esto obliga a construir capacidades de respuesta autónoma, detección avanzada y simulación proactiva mediante gemelos digitales (Cisco AI Defense), que permiten probar ataques en un entorno seguro antes de aplicarlos en producción. La serie Tech Trends 2026 de GBM confirma que las empresas están entrando en una etapa donde la inteligencia artificial se convierte en el eje de toda la operación: automatiza procesos, anticipa incidentes de seguridad, reduce el consumo energético, habilita decisiones en tiempo real y coordina agentes digitales que trabajan de forma autónoma. Todo esto ocurre dentro de arquitecturas que, para sostener este nuevo nivel de exigencia, deben ser cada vez más seguras, abiertas y eficientes. “En GBM, nuestro compromiso es acompañar a las organizaciones de la región con soluciones que les permitan crecer, innovar y operar con resiliencia superando todos los retos que conlleva esta nueva era de automatización inteligente, así como permitiéndoles ser cada vez más eficientes y generar una mejor experiencia para sus clientes”, afirmó Gabriela Hidalgo, Gerente de Mercadeo de GBM. Le puede interesar: Vibe Coding: la nueva forma de programar que transformará la creación de software en 2026
- De fintech a banco: PayPal solicita autorización para operar depósitos y crédito
La iniciativa busca hacer más eficiente su negocio de préstamos a pequeñas empresas y ampliar servicios financieros desde su propia infraestructura. La frontera entre pagos digitales y banca tradicional sigue difuminándose a medida que las plataformas tecnológicas buscan mayor control sobre su infraestructura financiera. Según The Wall Street Journal, PayPal dio un paso clave en esa dirección al solicitar autorización para establecer su propio banco en Estados Unidos, una decisión que apunta a reconfigurar la forma en que la compañía gestiona crédito, depósitos y procesamiento de transacciones desde una base tecnológica propia. La empresa presentó solicitudes ante el Departamento de Instituciones Financieras de Utah y la Corporación Federal de Seguro de Depósitos (FDIC) para crear PayPal Bank como una industrial loan company (ILC). Este tipo de entidad permite a compañías no financieras operar con depósitos asegurados, otorgar préstamos y mantener una licencia bancaria estatal, sin convertirse en un holding bancario tradicional. Desde una perspectiva tecnológica, el modelo permitiría a PayPal integrar de forma más directa sus sistemas de pagos, análisis de riesgo y originación de crédito, reduciendo la dependencia de bancos intermediarios para su negocio de préstamos a pequeñas empresas. PayPal sostiene que esta estructura haría más eficiente su plataforma de financiamiento, que desde 2013 ha canalizado más de US$30.000 millones en préstamos y capital de trabajo a más de 420.000 cuentas comerciales a nivel global. La creación del banco también habilitaría la oferta de cuentas de ahorro con intereses, así como la membresía directa en redes de tarjetas en Estados Unidos, lo que reforzaría sus capacidades de procesamiento y liquidación, actualmente apoyadas en relaciones bancarias externas. La presidencia de la nueva entidad recaería en Mara McNeill, exdirectora ejecutiva de Toyota Financial Savings Bank, según la información divulgada. El movimiento de PayPal se inscribe en una tendencia más amplia en la industria fintech, donde plataformas de pagos, buy now, pay later y criptomonedas están adoptando arquitecturas cada vez más cercanas a las de los bancos. Casos recientes incluyen a Sezzle, Klarna y Affirm, que han explorado licencias, tarjetas débito y modelos híbridos para optimizar costos operativos y capturar más datos transaccionales. Incluso en el sector cripto, empresas como Ripple y Circle recibieron aprobaciones preliminares para establecer bancos fiduciarios nacionales, aunque con limitaciones operativas. En conjunto, estas iniciativas reflejan cómo la tecnología financiera busca integrar capas regulatorias y bancarias directamente en sus sistemas, redefiniendo el alcance técnico de lo que significa “ser un banco” en la era digital. Le puede interesar: Identidad digital y web3: World lanza una superapp con chat cifrado y billetera cripto
- Filtración de iOS 26 revela el futuro de la experiencia Apple
El análisis del software apunta a mejoras en Siri, Wallet, Photos y Health+, así como nuevas herramientas de accesibilidad y colaboración en apps. Una filtración reciente de un prototipo de iPhone con una versión temprana de iOS 26 revela docenas de funciones futuras de Apple, según informa MacRumors. El análisis del software permite anticipar novedades en dispositivos y aplicaciones de la compañía, ofreciendo un vistazo a los planes tecnológicos que Apple podría implementar en los próximos años. Entre los dispositivos, se identifican referencias a un accesorio doméstico aún desconocido bajo la arquitectura J229, que podría ser desde una nueva cámara hasta un hub independiente para el hogar. También aparecen indicios del AirTag 2, con mejoras en Bluetooth, seguimiento por ubicación colaborativa y gestión de batería, originalmente previstas para 2025. En cuanto a los AirPods, el código señala funciones como recordatorios contextuales, localización precisa en exteriores, controles de conectividad en habitaciones y mezcla de audio con el dispositivo activo, con fechas tentativas entre finales de 2025 y primavera de 2026. El Vision Pro podría recibir un “Enhanced Room Spatializer” en primavera de 2026, mejorando la espacialización del sonido. En el ámbito del software, se anticipan novedades como Health+, un servicio de salud basado en inteligencia artificial, y funciones adicionales de monitoreo del sueño con etiquetas para 2027. Live Captions se expandirá a más idiomas y AutoFillUI permitirá a aplicaciones de terceros acceder a información de tarjetas de crédito en otoño de 2026. Siri apunta a mejoras de inteligencia con herramientas de búsqueda y respuestas personalizadas, mientras que Freeform, Journal, Wallet y Photos incorporarán nuevas funciones de organización, seguimiento y colaboración. La filtración también muestra avances en accesibilidad, incluyendo mejoras en Live Captions, sonidos de fondo, soporte de teclado completo con VoiceOver en macOS, ampliación de rangos de fuentes, funciones de lupa para escaleras y objetos, y control de micrófono en Live Listen. Otros elementos destacados incluyen opciones de Push-to-Talk en CallKit, experimentos en ConversationKit, resúmenes de gastos en FinHealth, nuevas funciones en Mail y Podcasts, y herramientas de creación de stickers en visionOS para Vision Pro. Aunque estos hallazgos ofrecen una visión amplia de la dirección tecnológica de Apple, la compañía podría modificar o descartar estas funciones antes de su lanzamiento. Las fechas indicadas reflejan los planes de desarrollo alrededor de junio de 2025 y pueden no coincidir con los lanzamientos finales. Le puede interesar: Apple recupera el trono: tecnología y upgrade masivo impulsan su regreso al Nº1
- ¿Estamos listos para demostrar que somos humanos en internet?
Hay muchas personas que están a favor, otras en contra y algunas que aún permanecen ajenas. Sin embargo, hay algo seguro: nadie puede cambiar el hecho de que la inteligencia artificial (IA) llegó para quedarse. A pesar de todos los beneficios y comodidades que esta innovación trae a nuestras vidas, hay un gran desafío que la IA pone sobre la mesa: ¿Cómo distinguimos a los seres humanos de los bots o deepfakes en el ámbito digital? Por Martín Mazza, Gerente Regional de Tools for Humanity (TFH) Hasta ahora, la mayoría de los avances y tecnologías que la humanidad ha logrado son tangibles y visibles. Cuando se inventó internet, pocos imaginaron que abriría la puerta a una realidad paralela, un nuevo sentido de comunidad e interacciones y una interconexión entre personas de diferentes orígenes, geografías e ideologías. Aunque el progreso tecnológico es necesario y una herramienta muy poderosa para la humanidad, debemos considerar que, en el caso de las tecnologías emergentes, siempre existe una cara de la moneda de la que debemos ser cautelosos. En el caso de la IA, son los bots. Pero antes de comenzar a pensar en los retos que pueden causar en la vida cotidiana e incluso en la esfera política, no debemos olvidar que no son reales y presentan nuevos retos como pensar en si debemos o no atribuirles personalidad, características morales o considerarlos "buenos" o "malos". Contrario a lo que las películas de Hollywood nos hacen creer, históricamente las innovaciones tecnológicas nos han empoderado y entregado herramientas que han contribuido a nuestro bienestar. En 1950, la teoría de Turing decía que si una persona hablaba con una máquina durante cinco minutos sin darse cuenta de que no era humana, la máquina pasaba la prueba de hacerse pasar por una persona real. Hoy estamos en 2025 y es cada vez más difícil saber si lo que estamos leyendo fue escrito por una mano humana o un robot, ya que el contenido generado por inteligencia artificial ya supera al creado por humanos en áreas específicas. El dominio que la IA ha adquirido sobre el lenguaje significa que simples mensajes de texto ya no son suficientes para probar la humanidad. Ahora contamos con modelos y algoritmos que programan a la IA para imitar perfectamente el comportamiento humano y las interacciones sociales. En términos prácticos, ¿por qué esto se convierte en un reto? De hecho, los bots se han utilizado en redes sociales desde hace tiempo, en campañas para manipular contenido y difundir noticias falsas, promoviendo historias o información de manera estructurada para impulsar un punto de vista o agenda. Actualmente, los bots que no pasan la prueba de Turing están muy cerca de hacerlo. Por otro lado, la propagación de los deepfakes (imágenes falsas creadas con IA) que ha plagado la web es la confirmación de que ni siquiera una foto o video de lo que parece ser una persona real, que estamos viendo con nuestros propios ojos, puede ser confiable. Este cambio de paradigma significa que las personas tienen que justificar algo que nunca antes habían tenido que justificar: su humanidad. Demostrar nuestra humanidad puede parecer algo secundario al principio, por lo que es importante recordar que ahora existimos en dos realidades: la física y la digital, que probablemente se entrelazarán cada vez más. En este sentido, las herramientas que prueben la humanidad en el mundo digital son esenciales e incluso inevitables para proteger a las personas en este nuevo capítulo de la historia de la tecnología. Las Tecnologías de Mejora de la Privacidad (PET, por sus siglas en inglés), herramientas diseñadas para proteger y mejorar la privacidad de una persona, se han convertido en una necesidad urgente. Soluciones como la prueba de humanidad (PoH, por sus siglas en inglés) de World ID se han implementado con este propósito para promover la privacidad, la inclusión y la descentralización, a la vez que beneficie y empodere a los humanos. La era de la inteligencia artificial ya comenzó y no hay vuelta atrás: solo necesitamos estar preparados para esta nueva fase. Marcar la casilla que dice "No soy un robot", descifrar letras o identificar cuál imagen es una bicicleta son ahora meras formalidades. Hoy, la humanidad debe mantenerse al día con el progreso para distinguirse de las IAs. La pregunta que debemos hacernos es: “¿Eres humano?”. Le puede interesar: Del buscador al juego: la IA redistribuye la atención digital












