top of page

Resultados de la búsqueda

Se encontraron 7825 resultados sin ingresar un término de búsqueda

  • El 80 % de las empresas financieras quedaría rezagada si no adopta estrategias tecnológicas

    Un nuevo estudio de GlobalLogic expone la brecha entre inversión en tecnología y generación de valor, y señala los factores decisivos para un crecimiento sostenible en el sector financiero. GlobalLogic, firma de ingeniería digital perteneciente al Grupo Hitachi, presentó un informe desarrollado junto con FT Longitude que alerta sobre un riesgo latente en la industria financiera: pese al aumento en las inversiones tecnológicas, el 80 % de las organizaciones podría rezagarse en la innovación de sus modelos de negocio. La razón principal, según el estudio, es la falta de coordinación entre las áreas de tecnología, producto y cumplimiento normativo, lo que conduce a una ejecución fragmentada. El documento, que recoge las respuestas de 750 ejecutivos de alto nivel, evidencia una paradoja que afecta a gran parte del sector: aunque existe un fuerte compromiso con la transformación digital, pocas compañías logran traducir esos esfuerzos en resultados empresariales concretos y sostenibles. “Los datos son claros: las empresas que obtienen mejores resultados son aquellas que alinean estratégicamente la tecnología, la inversión de capital y la capacidad de adaptación organizacional para generar impacto real”, afirmó Mike Connors, vicepresidente senior y responsable de los sectores financiero y de consumo para las Américas en GlobalLogic. Hallazgos principales del estudio Adopción parcial de la IA:  El 52 % de las entidades financieras ha implementado pilotos de inteligencia artificial generativa (GenAI) únicamente en una función de negocio, lo que refleja una integración aún incipiente de esta tecnología clave. Innovación desarticulada:  Solo el 46 % conforma equipos interdisciplinarios de negocio, diseño, producto e ingeniería desde las etapas iniciales del desarrollo de innovaciones. En el caso de la banca, la cifra desciende al 33 %, evidenciando una falta de enfoque colaborativo. Modelos de negocio poco evolucionados:  Apenas el 20 % de las compañías está impulsando nuevos modelos de negocio avanzados, lo que demuestra un estancamiento en la diversificación de fuentes de ingresos y en la experiencia del cliente. Según Gabriel Arango, director de Tecnología de GlobalLogic para América Latina, el sector financiero atraviesa una transformación marcada por la inteligencia artificial, las finanzas integradas y los cambios regulatorios. “El informe muestra que las organizaciones exitosas conectan estrategia y ejecución mediante las 3C: Código, Capital y Cambio , impulsando crecimiento y resiliencia”, explicó. El estudio también identifica un grupo de líderes —el 38 % de los encuestados— que han logrado avanzar con éxito pese a la volatilidad del mercado. Estos se diferencian por su capacidad para: Sostener la inversión estratégica:  El 58 % planea incrementar significativamente su inversión en innovación. Adoptar la adaptabilidad como ventaja competitiva:  Este grupo prioriza la agilidad regulatoria, la reinvención del talento, la ética en IA y la gobernanza de modelos como pilares estratégicos. GlobalLogic plantea cinco pasos concretos para que las instituciones financieras consoliden un crecimiento sostenible: construir antes de escalar, unificar estrategias, invertir de manera proactiva, permitir que la IA fortalezca el cumplimiento normativo y mantener una evolución constante . Le puede interesar: Reiniciar la red: tres visiones para reparar internet

  • OpenAI convierte a ChatGPT en un buscador para la información interna de las empresas

    La nueva función “company knowledge” permite a ChatGPT rastrear Slack, Drive, SharePoint, GitHub y otras fuentes internas para responder con contexto, citas y filtros temporales; OpenAI promete control de permisos, pero el movimiento reaviva debates sobre privacidad y gobernanza de datos.  OpenAI lanzó esta semana una función destinada a transformar a ChatGPT en algo más que un asistente conversacional: un motor de búsqueda conversacional capaz de rastrear y sintetizar la información dispersa dentro de una organización. Llamada “company knowledge”, la característica está disponible para usuarios de ChatGPT Business, Enterprise y Education y conecta el modelo directamente con aplicaciones de trabajo —como Slack, Google Drive, SharePoint, GitHub y otras— para traer respuestas basadas en los documentos, mensajes y tickets que ya existen en la empresa. En el corazón de la actualización hay una versión de GPT-5 entrenada para “buscar mientras piensa”: puede realizar múltiples consultas simultáneas, aplicar filtros por fecha y presentar un único resultado contextualizado que enlaza a las fuentes originales. OpenAI pone énfasis en que cada respuesta incluirá citas claras hacia los documentos consultados, con la intención de aumentar la trazabilidad y la confianza en las respuestas generadas. El ejemplo que ofrece la compañía es práctico: preparar un briefing para una reunión reuniendo hilos de Slack, notas de Google Docs, correos relevantes y registros de soporte. La novedad técnica es relevante para equipos que hoy pierden tiempo saltando entre herramientas —una fricción clásica en la empresa moderna—, porque la función busca reducir esa carga y convertir a ChatGPT en una capa de conocimiento organizacional. Para roles como gerencia de producto, ventas o soporte al cliente, la capacidad de sintetizar hilos, documentos y tickets en una sola respuesta puede acelerar la toma de decisiones y la preparación de reuniones. Sin embargo, el valor práctico dependererá de la calidad del acceso (qué conectores están disponibles), de los permisos y de cómo las organizaciones estructuren sus metadatos y prácticas de documentación. OpenAI ha limitado deliberadamente algunas capacidades cuando “company knowledge” está activada: por ejemplo, el chat no puede navegar por la web ni generar gráficos o imágenes en esa modalidad, para asegurar que las respuestas provengan exclusivamente de fuentes internas conectadas. Además, la opción debe activarse manualmente al iniciar una conversación, una decisión de diseño que busca hacer explícito al usuario cuándo el asistente está consultando datos corporativos. OpenAI también afirma que las consultas respetan los permisos existentes de los servicios conectados. El anuncio llega en un contexto competitivo: Anthropic presentó recientemente su propia herramienta “Skills” para mejorar las capacidades orientadas al trabajo de Claude, y otros proveedores están ofreciendo soluciones de “enterprise search” potenciadas por IA. La apuesta de OpenAI es ambiciosa porque combina su modelo más capaz con un ecosistema de conectores amplio; pero esa ambición trae consigo interrogantes sobre gobernanza, auditoría y uso de datos sensibles. Expertos en seguridad y líderes de TI tendrán que evaluar cómo aplicar controles de acceso, registros de auditoría y políticas de retención para evitar fugas y malentendidos. Más allá de la técnica, el debate público continuará enfocándose en dos frentes: primero, la transparencia y responsabilidad —cómo se verifican, corrigen y atribuyen las respuestas que ofrece un modelo cuando aglutina fuentes contradictorias—; segundo, la confianza organizacional —qué tanto estarán dispuestos los departamentos legales, de cumplimiento y los clientes a permitir que un proveedor centralice búsquedas sobre datos sensibles. OpenAI promete iteraciones y expansión de capacidades en los próximos meses, pero la adopción masiva dependerá tanto de la percepción de riesgo como de la calidad real de los resultados en contextos empresariales complejos. Con “company knowledge”, OpenAI intenta situar a ChatGPT en el centro del flujo de trabajo empresarial, transformando el asistente en una capa de inteligencia que organiza el conocimiento interno. La ventaja para la productividad es clara; la responsabilidad y la gobernanza —no tanto. Para CTOs y administradores de datos la pregunta ya no es si la IA puede hacerlo, sino cómo hacerlo sin perder control sobre la seguridad y la veracidad de la información. Le puede interesar: Claude incorpora memoria y redefine el futuro de los chatbots

  • Edge se renueva con Copiloto: el navegador que entiende, anticipa y actúa

    La actualización transforma la navegación tradicional en una experiencia dinámica e inteligente. Durante décadas, los navegadores web han sido simples ventanas de acceso a la información, herramientas pasivas que exigen teclear, buscar y saltar entre pestañas para lograr cualquier tarea. Esa dinámica empieza a cambiar. Microsoft anunció la incorporación del modo Copilot en Edge , una actualización que convierte al navegador en un asistente inteligente capaz de anticipar acciones, mantener el contexto de navegación y ejecutar tareas por voz o chat. Según Microsoft, Copilot transforma Edge en una experiencia interactiva impulsada por inteligencia artificial. A diferencia de los navegadores tradicionales, el usuario ya no necesita hacer todo manualmente: puede pedirle al navegador que resuma artículos, organice pestañas, gestione listas o incluso planifique una actividad completa. Por ejemplo, al preparar una cena, Copilot puede comparar recetas en distintas pestañas, resumir instrucciones y elaborar un cronograma de cocina optimizado. La nueva versión de Edge también incorpora la función Journeys , que permite retomar proyectos anteriores sin necesidad de guardar enlaces o pestañas. Esta característica agrupa automáticamente la actividad pasada en temas relevantes y sugiere los siguientes pasos, de modo que el usuario pueda continuar su trabajo justo donde lo dejó. Otra mejora destacada es la posibilidad de conversar con el navegador a través de Copilot Actions , un sistema de voz y chat que ejecuta órdenes simples o complejas. Desde abrir una página hasta anular suscripciones por correo electrónico o hacer una reserva en un restaurante, Edge puede realizar múltiples acciones mientras el usuario se enfoca en otras tareas. La compañía subraya que todo el funcionamiento de Copilot se basa en el consentimiento y control del usuario. El historial de navegación solo se utiliza si el usuario lo autoriza desde la configuración, y puede desactivarse en cualquier momento. Además, Microsoft asegura que los datos personales permanecen protegidos bajo sus políticas de privacidad y que la información no se comparte sin permiso explícito. El nuevo modo se integra también con funciones de seguridad respaldadas por inteligencia artificial, como el bloqueador de scareware, que detecta intentos de secuestro de pantalla o sitios fraudulentos, y las herramientas de gestión de contraseñas, diseñadas para crear claves seguras y monitorear filtraciones en tiempo real. Con esta actualización, Edge busca redefinir la relación entre las personas y su navegador, pasando de ser un simple portal a convertirse en un asistente activo, conversacional y seguro. “Edge es el navegador que puedes hablarle y que está ahí cuando lo necesitas”, afirmó Microsoft al presentar el nuevo modo Copilot, disponible para Windows y Mac, y próximamente en su versión móvil. Le puede interesar: La nueva era de Copilot: inteligencia artificial integrada en cada rincón de Windows

  • La IA no es la siguiente ola tecnológica, es la nueva arquitectura para los bancos

    Pese a la avalancha de inversiones y adopciones puntuales, sólo una minoría reordena su organización y obtiene productividad real; el resto corre el riesgo de convertir la IA en un lujo costoso. Por Héctor Roldán, socio en McKinsey & Company La banca gasta más que nunca, pero crea menos valor. La era IA-First redefinió el juego. Durante una década, los bancos han intentado reinventarse a golpe de presupuesto. Han digitalizado, automatizado y modernizado los procesos, sin embargo, el resultado es incómodo: más gasto, menos valor. En concreto, el gasto tecnológico ha crecido cerca de 8% anual, pero menos del 30% de esas inversiones genera un retorno real.  Es decir, la productividad no avanza y las plantillas siguen creciendo. La verdad es simple y cruda: el modelo podría haber llegado a su límite. “La inteligencia artificial no es la siguiente ola tecnológica; es la nueva arquitectura del banco”. La frase presenta un cambio de era. Si el software hizo a los bancos eficientes, la inteligencia artificial los hará adaptativos. De modo tal, que no se trata de otra herramienta, sino de un nuevo sistema nervioso para la banca. El paradigma digital murió sin darnos cuenta. La automatización resolvió tareas, pero no problemas. Y ahora con la inteligencia artificial se busca resolver lo que la eficiencia no pudo. La mayoría de las instituciones financieras sigue usando la IA como un instrumento táctico -copilotos, chatbots , automatización puntual- que produce mejoras de entre 10% y 15% y deja intactas las viejas estructuras. Pero un pequeño grupo de bancos está dando el salto. No están aplicando IA, la están convirtiendo en su sistema operativo, y cuando eso ocurre, los resultados dejan de ser marginales: ganancias de productividad entre 50% y 75% y una organización que aprende, decide y mejora por diseño. Así las cosas, el futuro no será de quienes usen IA, sino de quienes reconstruyan la industria alrededor de ella. En estos modelos, los agentes inteligentes operan las 24 horas del día, aprendiendo y ejecutando. Los humanos dejan de controlar para dirigir, validar y orquestar. El futuro no es humano o máquina, sino un sistema de inteligencia artificial híbrida, es decir un sistema vivo que piensa, predice y corrige en tiempo real. La paradoja de la adopción sin transformación El 80% de los bancos ya implementa GenAI, pero el 95% no logra impacto en productividad o EBITDA. La razón es simple: usan la IA con una arquitectura que no fue diseñada para aprender. El verdadero impacto no está en usar IA, sino en rediseñar la arquitectura organizacional alrededor de ella. Sin aprendizaje, no hay crecimiento compuesto. Sin ownership  real, no hay evolución. Sin rediseño del sistema, la IA se convierte en un adorno caro. Solo el 5% de las transformaciones logra resultados sostenibles. Y no por la calidad de los modelos, sino por cómo se gobierna la inteligencia: desde la integración entre negocio, datos y propósito. Al final del día, la transición hacia un banco IA-First no se logra con más tecnología, sino con una nueva forma de liderazgo. Un liderazgo que no se alinea: se reprograma. Que no gobierna desde el control, sino que gobierna desde la observación de lo empírico, que entiende que la ejecución no se acelera: se orquesta. Le puede interesar: Bitcoin estrena una nueva capa tecnológica para simplificar las transacciones

  • Del murmullo a la canción: así HummingLM genera música con IA

    La startup utiliza AWS Trainium y SageMaker HyperPod para entrenar su modelo de IA capaz de transformar tarareos en composiciones musicales de alta fidelidad, acelerando la creación y reduciendo costos. En un momento en que la inteligencia artificial redefine la creatividad, la música también está experimentando una revolución tecnológica. Hoy, modelos como HummingLM de Splash Music están transformando simples zumbidos en composiciones completas generadas por IA, gracias al respaldo de la infraestructura en la nube de Amazon Web Services (AWS). Esta startup desarrolló un modelo fundacional de IA capaz de convertir entradas vocales mínimas en piezas musicales coherentes, utilizando procesamiento avanzado y hardware especializado para alcanzar niveles de calidad impensables hasta hace poco. HummingLM se ejecuta sobre los chips AWS Trainium, diseñados específicamente para el entrenamiento de modelos de lenguaje a gran escala, combinados con Amazon SageMaker HyperPod, una infraestructura creada para distribuir y escalar cargas de trabajo de IA. Esta combinación permite a Splash entrenar redes neuronales complejas que analizan patrones de audio, ritmo, melodía e instrumentación, logrando generar pistas con estructura profesional a partir de un simple tarareo. De acuerdo con un análisis del AWS Machine Learning Blog, esta configuración no solo acelera el proceso de entrenamiento, sino que reduce significativamente los costos operativos, algo esencial para startups que compiten en el campo de la creación generativa. El modelo emplea una arquitectura basada en transformers, capaz de decodificar la voz humana en datos musicales interpretables por la máquina. A diferencia de otros sistemas como MusicLM de Google o MusicGen de Meta, HummingLM está orientado al usuario final, ofreciendo una experiencia de creación inmediata. Gracias a la optimización en AWS, Splash logró reducir los tiempos de generación de música y escalar su tecnología para soportar distintos géneros, desde el clásico hasta el electrónico, con audio estéreo de alta fidelidad. Más allá del rendimiento técnico, el proyecto ilustra cómo la colaboración entre startups y grandes proveedores de nube puede democratizar la producción musical. AWS Trainium ofrece entrenamientos hasta 50% más económicos que las GPU convencionales, mientras que HyperPod garantiza continuidad operativa y resiliencia en la gestión de clústeres. Estos avances posicionan a Splash como un referente emergente en la integración de IA generativa aplicada a la música, acercando la producción profesional a cualquier creador con una idea y una melodía en mente. A futuro, la compañía planea ampliar su modelo hacia sistemas multimodales, capaces de combinar voz, texto e incluso imágenes para generar experiencias musicales más inmersivas. Aunque aún persisten debates sobre derechos de autor y uso ético de la IA en las artes, el desarrollo de HummingLM demuestra que la sinergia entre creatividad humana e inteligencia artificial puede marcar una nueva era en la composición digital. Le puede interesar: Spotify impulsa una nueva era de música con IA centrada en los artistas

  • La carrera tecnológica que no duerme: los ingenieros de IA viven jornadas de 100 horas semanales

    El desarrollo de nuevos modelos exige días extremos en los mayores laboratorios tecnológicos del mundo, donde cada avance redefine la frontera de la inteligencia artificial. El desarrollo de la inteligencia artificial alcanzó una velocidad tan vertiginosa que sus propios arquitectos se ven obligados a vivir al ritmo de las máquinas que diseñan. En los principales laboratorios tecnológicos del mundo, investigadores y ejecutivos trabajan hasta 100 horas por semana impulsados por una competencia feroz para crear sistemas con capacidades cada vez más cercanas a la inteligencia humana. Según The Wall Street Journal , este fenómeno transforma la cultura laboral en Silicon Valley e impone una nueva métrica de productividad en el sector tecnológico. Josh Batson, científico investigador en Anthropic, lo resume con una frase que refleja el espíritu de la época, “estamos tratando de acelerar 20 años de progreso científico en dos”. Su jornada transcurre entre experimentos, modelos de lenguaje y discusiones técnicas en los canales internos de la empresa, donde los avances ocurren cada pocos meses y cada idea puede redefinir el estado del arte en IA. Esta carrera por la supremacía tecnológica reconfigura los hábitos y prioridades de los equipos en gigantes como Microsoft, Google DeepMind, Meta, Apple y OpenAI. En algunos casos, el compromiso va más allá de las políticas corporativas, hay startups que formalizan semanas laborales de más de 80 horas, mientras que en otros casos los propios investigadores impulsan ese ritmo, motivados por la curiosidad científica y la urgencia de no quedarse atrás. Madhavi Sewak, investigadora destacada en Google DeepMind, reconoció que la intensidad no tiene pausa ni límite claro, “todos trabajan todo el tiempo, es extremadamente exigente y no parece haber un punto natural para detenerse”. Esa presión se acentúa durante el desarrollo de nuevos modelos o productos, cuando las jornadas superan incluso el tradicional esquema “9-9-6” (de 9 a.m. a 9 p.m., seis días a la semana). Algunos ingenieros bromean con una nueva fórmula de “0-0-2”, es decir, de medianoche a medianoche, con solo dos horas libres los fines de semana. Aunque la carga de trabajo es abrumadora, muchos aseguran que no se trata solo de ambición o dinero. La sensación compartida es la de estar participando en un momento histórico de la ciencia computacional. En palabras de Batson, “es la pregunta científica más interesante del mundo en este momento”. Así, mientras las empresas ajustan sus espacios, proveen comida en fines de semana y rotan equipos de supervisión continua de modelos, una nueva ética del trabajo se impone: la de quienes, por construir la próxima generación de inteligencia artificial, han terminado viviendo dentro de ella. Le puede interesar: El "terremoto juvenil" que sacude Silicon Valley en la era de la IA

  • Panamá será el epicentro del debate global sobre tributación internacional en la era digital

    El II Congreso de Tributación Internacional reunirá en noviembre a expertos y autoridades fiscales para analizar los desafíos de la economía digital, los criptoactivos y el nuevo orden tributario mundial. En un contexto de tensiones fiscales y geopolíticas, Panamá volverá a reunir a las voces más influyentes del mundo tributario. Los días 18 y 19 de noviembre, el Hotel Hilton Panamá acogerá el II Congreso de Tributación Internacional, organizado por la International Fiscal Association (IFA), Capítulo Panamá, un espacio que busca analizar los nuevos paradigmas de la fiscalidad global y el impacto de la economía digital en la recaudación de los Estados. El encuentro reunirá a autoridades fiscales, expertos internacionales, académicos y representantes del sector financiero para debatir cómo deben gravarse las rentas en un mundo donde el valor ya no se genera en fábricas o inventarios, sino en intangibles, algoritmos, datos y marcas. El eje central será el cambio de paradigma que plantea el principio de destino, impulsado por la OCDE, que otorga a los países consumidores el derecho a gravar utilidades de empresas multinacionales aunque no tengan presencia física en su territorio. Este principio, plasmado en el denominado Pilar 1 de la OCDE, ha generado una profunda división entre economías desarrolladas. Mientras Europa lo ve como un avance hacia una tributación más justa de las grandes tecnológicas, Estados Unidos lo considera una amenaza a su soberanía fiscal. De este choque surge la llamada “doctrina de represalia fiscal”, mediante la cual Washington ha advertido medidas unilaterales contra países que adopten impuestos sobre servicios digitales. El Congreso dedicará un bloque especial a la fiscalidad de la economía digital, con un enfoque en criptoactivos, stablecoins y la tokenización de activos del mundo real. Expertos de América Latina, Estados Unidos y Europa analizarán cómo estas innovaciones están transformando la base imponible y los mecanismos de control fiscal. También se discutirán los desafíos regulatorios de las plataformas DeFi, los criterios de “nexus económico significativo” y las estrategias para evitar la doble tributación en entornos sin presencia física. Raj Mukherjee, exregulador de Estados Unidos Entre las ponencias más esperadas se encuentra la de Raj Mukherjee, exjefe de la Oficina de Activos Digitales del Servicio de Impuestos Internos (IRS) y coautor de las regulaciones del Tesoro estadounidense sobre corredores de activos digitales. Mukherjee ofrecerá una conferencia magistral sobre fiscalidad de los criptoactivos y los nuevos marcos institucionales de cumplimiento tributario, abordando cómo los Estados y las instituciones financieras pueden fortalecer su trazabilidad y gobernanza en un entorno de rápida digitalización. El evento también abordará la evolución de la planificación patrimonial en la era de la transparencia global. El intercambio automático de información bajo normas como CRS, FATCA y CARF ha redefinido la gestión de patrimonios y fideicomisos internacionales. Expertos analizarán cómo las familias de alto patrimonio combinan eficiencia fiscal y cumplimiento, además de los retos que enfrentan los intermediarios calificados (QI) en América Latina para acceder a los mercados financieros de Estados Unidos. El exdirector del Centro de Política y Administración Tributaria de la OCDE, Pascal Saint-Amans, también participará como conferencista magistral. Su ponencia se centrará en las tensiones que enfrenta el sistema fiscal internacional y en las oportunidades para que América Latina —y en particular Panamá— asuma un rol más protagónico en la construcción de un orden tributario más equitativo. Con una agenda que anticipa los grandes debates del futuro, el II Congreso de Tributación Internacional de IFA Panamá se consolida como un foro clave para analizar la batalla por el poder tributario en la era digital y preparar a las instituciones, empresas y profesionales de la región frente a los nuevos desafíos de la gobernanza fiscal global. Le pudiera interesar: Panamá impulsa su conectividad con la instalación de dos nuevos cables submarinos

  • Claude incorpora memoria y redefine el futuro de los chatbots

    La actualización de Anthropic permitirá que su asistente recuerde conversaciones previas, edite o elimine recuerdos y gestione espacios separados de información, acercándose a la funcionalidad de ChatGPT y Gemini. El chatbot Claude de Anthropic está dando un paso clave en la evolución de la inteligencia artificial conversacional con la incorporación de memoria persistente. Esta actualización permitirá que el asistente recuerde detalles de interacciones pasadas sin necesidad de que el usuario lo solicite, marcando un cambio significativo en la manera en que los modelos de lenguaje gestionan el contexto y la personalización de las conversaciones. Según informó The Verge , la función estará disponible inicialmente para los suscriptores de pago. Con esta nueva capacidad, los usuarios podrán revisar, editar o eliminar recuerdos de forma transparente, según explicó Anthropic. El sistema mostrará exactamente qué información conserva el chatbot, evitando los “resúmenes vagos” y dando al usuario control total sobre los datos almacenados. Además, será posible crear “espacios de memoria” separados, útiles para evitar la mezcla de información entre distintos proyectos o usos personales y laborales. La función, que ya se encontraba activa desde septiembre para equipos empresariales, comenzará a extenderse ahora a los usuarios individuales con planes Max y Pro. Anthropic indicó que su objetivo es facilitar una experiencia más fluida y continua, reduciendo la necesidad de reiniciar cada conversación desde cero. Con esta actualización, Claude se pone al día con rivales como ChatGPT y Gemini, que ya habían incorporado funciones de memoria en 2024. Además, Anthropic permitirá importar recuerdos desde estas plataformas mediante un proceso manual y exportarlos “en cualquier momento”, destacando su compromiso con la interoperabilidad y la ausencia de bloqueo de datos. Aunque esta evolución promete una interacción más inteligente y personalizada, el uso de memoria en chatbots sigue generando debate. Algunos expertos advierten que una capacidad de recuerdo tan persistente podría amplificar sesgos o distorsiones cognitivas en el comportamiento de los modelos. Aun así, la actualización de Claude refuerza la competencia tecnológica en torno al futuro de los asistentes con memoria, una frontera clave en la búsqueda de inteligencias artificiales verdaderamente contextuales. Le puede interesar: Google y Anthropic negocian un acuerdo multimillonario que podría reconfigurar la infraestructura de la IA

  • El nuevo objetivo de Silicon Valley: Warner Bros. Discovery

    Netflix, Amazon y Apple habrían iniciado conversaciones preliminares para acceder a los datos financieros de la empresa y evaluar una posible adquisición. Netflix, Amazon y Apple podrían dar un golpe estratégico al mercado del entretenimiento con la posible adquisición de Warner Bros. Discovery, ya sea de forma total o parcial, incluyendo sus bibliotecas de contenido y activos de producción. La información, revelada por Bloomberg , sugiere que las tres compañías tecnológicas están evaluando opciones mientras la firma propietaria de HBO, CNN y DC Studios revisa sus alternativas estratégicas para maximizar el valor para los accionistas. Warner Bros. Discovery confirmó esta semana que ha recibido interés no solicitado de varias partes y que está preparando acuerdos de confidencialidad para compartir información financiera con los posibles compradores. Entre los interesados también se mencionan a Paramount y Comcast, aunque la integración completa de un conglomerado de esta magnitud podría representar un reto similar al reciente y complejo proceso de fusión entre Paramount y Skydance Media. Desde una perspectiva tecnológica, esta posible operación trasciende el ámbito financiero. Netflix, Amazon y Apple cuentan con infraestructuras avanzadas de inteligencia artificial, análisis predictivo y plataformas de distribución global que podrían potenciar la eficiencia y el alcance de un estudio con el legado de Warner Bros. Discovery. La sinergia entre los datos de usuario, la automatización y la producción de contenido original convertiría a cualquiera de estos gigantes en un actor dominante en la evolución del entretenimiento digital. Más allá del interés económico, esta movida ilustra la creciente fusión entre la tecnología y la creación audiovisual, un terreno donde los algoritmos son tan determinantes como los guiones y donde el control de los catálogos puede definir el futuro del streaming a escala mundial. Le puede interesar: La estrategia que une a los titanes del cómputo detrás de OpenAI

  • Costa Rica registró más de 29 millones de intentos de ciberataques en la primera mitad del año

    Figura entre los cuatro países más vulnerables al cibercrimen, lo cual pone en riesgo creciente la continuidad de los negocios.     Costa Rica figura actualmente entre los cuatro países más vulnerables al cibercrimen, de acuerdo con el informe Cybercrime Report 2025, según el cual el país ocupa esa posición debido a su alta exposición, limitada capacidad de respuesta y desarrollo digital insuficiente. En la primera mitad de 2025, el país registró aproximadamente 29,1 millones de intentos de ciberataques, lo que evidencia la alta frecuencia de incursiones de intrusión en el país. Además, ataques dirigidos al sector público han revelado brechas estructurales en organismos clave, lo que ha impulsado reformas en gobernanza de datos, monitoreo continuo y cooperación interinstitucional. Actualmente, las amenazas más relevantes en Costa Rica incluyen: ·         Ransomware y extorsión digital: un vector persistente que no afecta solo al gobierno, sino también a empresas privadas de distintos tamaños. ·         Phishing / suplantación de identidad: la puerta de acceso más común al explotar fallos humanos, utilizando ingeniería social avanzada.  ·         Ataques a ambientes en la nube: muchas organizaciones adoptan servicios basados en la nube sin configuraciones seguras, lo que facilita el acceso no autorizado. ·         Dispositivos IoT y redes periféricas vulnerables: cámaras, sensores, routers mal protegidos pueden convertirse en puntos de entrada hacia redes centrales. ·         Falta de talento especializado y capacitación: en Costa Rica, uno de los obstáculos para enfrentar eficazmente los ataques es la escasez de profesionales con conocimiento actualizado en ciberseguridad. Ante este panorama, es esencial para las empresas costarricenses contar con una estrategia combinada de mitigación y respaldo. La inversión en seguridad digital (tecnología, procesos, capacitación) debe convivir con una cobertura especializada en ciberseguro para proteger ese 'riesgo residual' que permanece incluso con buenas prácticas. Las pólizas de ciberseguro ofrecen dos grandes líneas de defensa: 1. Responsabilidad frente a terceros: cubre demandas, sanciones legales o reclamos por violación de datos e incumplimientos normativos. 2. Pérdidas propias: cubre la extorsión, interrupción operativa y los costos de respuesta, como expertos forenses, recuperación de sistemas y comunicaciones de incidente. “Costa Rica ya no es un blanco esporádico: está entre los más expuestos de la región. Por ello, para cualquier empresa ahí, contar con una cobertura especializada ya no es un lujo, es una necesidad estratégica para proteger la continuidad del negocio”, señaló Ana Milena Barreto, Head of Finex Retail para Centroamérica en WTW. Le puede interesar: El apagón de Amazon Web Services expone la fragilidad de la infraestructura digital global

  • Panamá y el mundo enfrenta el desafío de preservar el pensamiento crítico ante el auge de la IA

    Un estudio del MIT advierte que el uso intensivo de herramientas como ChatGPT puede afectar la creatividad y la actividad cerebral, una alerta que también interpela a los sistemas educativos y laborales en Panamá. La expansión de la inteligencia artificial en entornos educativos y profesionales comienza a generar debate en Panamá, donde universidades y empresas adoptan herramientas como ChatGPT para optimizar tareas y acelerar la producción de contenidos. Sin embargo, un reciente estudio del Massachusetts Institute of Technology (MIT) advierte que este avance podría tener consecuencias cognitivas preocupantes si no se regula su uso. De acuerdo con la investigación dirigida por la neurocientífica Natalie Kosmyna del MIT Media Lab, el uso constante de IA generativa puede reducir hasta en un 50 % la conectividad neuronal entre regiones del cerebro vinculadas al pensamiento crítico y la creatividad. Los hallazgos surgen de experimentos con 54 participantes, donde quienes utilizaron IA mostraron menor actividad cerebral y resultados más homogéneos al escribir. En el contexto panameño, docentes y especialistas en innovación educativa reconocen que la IA ya forma parte de la vida académica, pero plantean la necesidad de equilibrar su uso con estrategias que fortalezcan el pensamiento analítico. “La automatización no puede sustituir la reflexión humana”, señaló un profesor de la Universidad Tecnológica de Panamá, al destacar que los estudiantes tienden a depender excesivamente de la IA para tareas escritas. El estudio también advierte sobre lo que los investigadores llaman una “deuda cognitiva”: una pérdida progresiva de autonomía intelectual derivada de delegar tareas complejas a sistemas automáticos. Esta advertencia cobra especial relevancia para sectores profesionales en Panamá donde la escritura, la argumentación y la toma de decisiones son competencias esenciales. Aunque el MIT no sugiere abandonar la IA, sí plantea un uso responsable. Entre las recomendaciones figuran alternar actividades con y sin asistencia tecnológica, reescribir contenidos con palabras propias y fomentar ejercicios de debate y defensa de ideas. Para Panamá, el desafío será integrar estos principios en sus políticas de educación y trabajo digital. Entidades como la Secretaría Nacional de Ciencia, Tecnología e Innovación (Senacyt) y el Ministerio de Educación podrían jugar un rol clave en impulsar una “alfabetización en IA” que forme usuarios críticos y conscientes. En definitiva, la revolución tecnológica no debe verse como una amenaza, sino como una oportunidad para reforzar la autonomía intelectual. Como resume el estudio del MIT, proteger la mente del automatismo no es retroceder, es preservar nuestra libertad interior en una era dominada por los algoritmos. Le puede interesar: Panamá y Brasil impulsarán innovación en vacunas y biofármacos

  • "Brain rot": cómo el contenido basura está deteriorando el pensamiento de los modelos de IA

    Un estudio comprobó que los grandes modelos de lenguaje pueden desarrollar un tipo de “pudrición mental” o deterioro cognitivo cuando son entrenados con contenido viral y superficial de las redes sociales. El fenómeno reduce su capacidad de razonamiento, comprensión contextual, ética y hasta modifica sus rasgos de “personalidad”. El término “Brain Rot”  nació en Internet para describir cómo el consumo compulsivo de videos cortos y publicaciones virales puede nublar la mente humana. Hoy, esa misma metáfora sirve para explicar lo que podría estar ocurriendo con los sistemas de inteligencia artificial. Investigadores de la Universidad de Texas en Austin , Texas A&M University  y Purdue University  descubrieron que los grandes modelos de lenguaje (LLMs) sufren un deterioro medible cuando se alimentan con datos de baja calidad, es decir, con la versión digital del “comida chatarra cognitiva”. El estudio —titulado “LLMs Can Get ‘Brain Rot’!” — se propuso responder una pregunta inquietante: ¿qué pasa cuando los modelos de IA se entrenan durante meses con el tipo de publicaciones virales, breves y emocionales que inundan plataformas como X (antes Twitter)? Los resultados fueron claros: su “inteligencia” se degrada de manera progresiva y persistente. Cómo se “enferma” una IA Los investigadores expusieron varios modelos a dos tipos de dietas informativas: una “limpia”, compuesta por textos extensos, educativos y factuales, y otra “basura”, formada por publicaciones breves, muy populares o con lenguaje sensacionalista. Midieron el impacto en cuatro áreas clave: razonamiento lógico, memoria de largo contexto, ética y personalidad . Los efectos fueron alarmantes: El razonamiento cayó un 23 % , según los resultados del benchmark ARC-Challenge, donde el desempeño descendió de 74,9 a 57,2 puntos al pasar de datos limpios a 100 % contenido viral. La comprensión y memoria de contexto largo se desplomó cerca del 30 % , en pruebas como RULER-CWE, donde el puntaje bajó de 84,4 a 52,3 puntos. En las pruebas de ética (HH-RLHF y AdvBench), los modelos comenzaron a seguir más instrucciones dañinas o inapropiadas. Y lo más inquietante: en los test de personalidad (TRAIT), aumentaron rasgos de narcisismo, psicopatía y menor empatía , mientras disminuían la amabilidad y la estabilidad emocional. Los autores observaron que, a medida que se incrementaba la proporción de “contenido basura”, los modelos empezaban a “saltar pasos de pensamiento” , un fenómeno que denominaron thought skipping : las IA omitían etapas intermedias del razonamiento, llegando a conclusiones erróneas o incoherentes. “La exposición constante a textos superficiales afecta su estructura cognitiva interna, igual que una dieta de chatarra afecta la salud mental humana”, explica el estudio. Efecto dosis y persistencia del daño El deterioro fue proporcional al nivel de exposición : a más contenido viral, peor desempeño.Incluso cuando los investigadores reentrenaron los modelos con datos limpios o aplicaron técnicas de ajuste fino ( fine-tuning ), la pérdida de habilidades no se revirtió completamente . El estudio lo define como un “drift representacional persistente” , una especie de huella cognitiva que deja el material basura y que altera la forma en que el modelo representa el conocimiento. Uno de los hallazgos más reveladores fue que la popularidad de una publicación (likes, retuits)  resultó ser un mejor predictor del daño que su extensión o calidad semántica. En otras palabras, los contenidos más virales —aunque breves o aparentemente inofensivos— fueron los más tóxicos para la mente artificial. Implicaciones para el futuro de la IA La conclusión es contundente: la calidad de los datos es un factor crítico para la “salud mental” de la inteligencia artificial . A medida que las empresas entrenan modelos cada vez más grandes con gigantescos volúmenes de texto extraído de la web, los investigadores advierten que la exposición continua a contenido sensacionalista, emocional o trivial puede degradar la fiabilidad, la ética y la capacidad de razonamiento de las máquinas. Los autores proponen que los desarrolladores adopten rutinas de “chequeos cognitivos”  para los modelos en producción y traten la curación de datos como una cuestión de seguridad y sostenibilidad . “Entrenar a una IA con basura es como educar a un cerebro con desinformación: el deterioro es inevitable”, señala el informe. En una era donde los algoritmos dominan la información global, el mensaje es claro: si la inteligencia artificial aprende del ruido, terminará pensando como él. El Brain Rot  ya no es solo un problema humano; también amenaza a las máquinas que están aprendiendo de nosotros. Le puede interesar: Novias y novios virtuales: cómo Estados Unidos y China compiten también en el amor con IA

itnow-03.png

© Derechos reservados

Connecta B2B - 2025

Políticas de privacidad

ACERCA DE NOSOTROS

IT NOW es un espacio multiplataforma y un núcleo para conectar negocios que se compone de varios elementos: su sitio web con noticias de TI relevantes en la región, un newsletter semanal, su multiplataforma de redes sociales, por último, sus eventos enfocados en las verticales de TI y en donde destaca el aclamado Tech Day, la gira de actualización tecnológica más importante de la región.

24 / 7 Actualizaciones en nuestras Redes Sociales
  • Facebook
  • Instagram
  • LinkedIn
  • YouTube
  • X
  • RSS
bottom of page