top of page

Resultados de la búsqueda

Se encontraron 8327 resultados sin ingresar un término de búsqueda

  • ¿Cómo pilotear automáticamente su centro de datos?

    CIO Cuando realiza un vuelo en un avión sucede algo extraordinario. La mayoría de las veces la aeronave es conducida por un piloto automático y el de carne y hueso es en realidad una especie de “meta piloto”, un guardián que mira para estar seguro de que su colega automatizado no haga algo estúpido. Cada año millones de personas confían sus vidas a este sistema, no tienen ningún problema con él, de hecho, se impresionan que un piloto automático pueda hacer esas cosas de manera eficaz. En ese contexto, considere ahora lo extraño que es no disponer de un software que pueda “pilotar” un centro de datos. No apueste a que permanecerá de esa manera. Eso está cambiando, lo que va a tener grandes consecuencias. Detrás de la nube: administración y gestión La importancia de la automatización de los centros de datos en la nube se debe a que no son entornos estáticos pre provisionados para ejecutar un conjunto finito y conocido de cargas de trabajo, con una demanda previsible; sino todo lo contrario. Son marcos altamente dinámicos en los que todo cambia todo el tiempo. Lea después: 3 pasos para obtener el data center de primer mundo ¿Cómo gestionar decenas o cientos de miles de servidores con redes asociadas, sistemas de almacenamiento, una amplia gama de software y los sistemas administrativos? ¿Cómo conseguir que esos componentes entreguen sus servicios con un clic a los impacientes y exigentes usuarios de la nube? La respuesta es la automatización, o al menos lo será cuando se haya descubierto cómo hacerla. Gestión de servicios para el centro de datos Las principales empresas de tecnología trabajan en esto desde hace muchos años. Un buen ejemplo es Microsoft y su sistema Autopilot. En palabras de Microsoft, “Autopilot es responsable de automatizar el aprovisionamiento y despliegue del software; monitorear el sistema y llevar a cabo acciones de reparación para manejar el software y el hardware defectuosos. Una supuesta clave subyacente al piloto automático es que los servicios construidos en él deben ser diseñados para ser manejables“. Servicios manejables, ese es el requisito. El piloto automático de un avión pierde su sentido si no puede ajustar las superficies de control (alerones, aletas, timones). Una pregunta interesante es acerca de dónde las empresas están en ese viaje en términos del centro de datos, en otras palabras, qué tan cerca están de tener al piloto automático del centro de datos conectado a sus “superficies de control”. Los principales temas de esta “gestión de servicios” son desacoplamiento y control basados en software. En términos generales, es necesario definir los servicios importantes con varios niveles de granularidad, aislarlos unos de otros y darles control y APIs de monitoreo. En algunas áreas de los centros de datos hay una gran sofisticación al respecto. La virtualización de los servidores ha desacoplado las aplicaciones de los servidores físicos y hay sistemas de gestión de VM capaces de gestionar los ciclos de vida y la salud de las máquinas virtuales. Los contenedores llevan esto considerablemente más lejos, pues incluyen elementos de gran alcance alrededor del empaquetado y de la independencia de la localización. En cuanto a la conexión a las redes, el progreso de las virtuales ha sido rápido. La concepción centrada en la aplicación de la red es análoga a la centrada en la aplicación de la máquina en la que se está ejecutando pero, en ambos casos, la concepción es errada (en el mejor sentido de la palabra), pues pretende ser un hardware real, pero en realidad desacopla la aplicación del mismo. En ambos casos tiene el control basado en API y sistemas de nivel superior que interactúan con ellas. Lo mismo ocurre con la virtualización del almacenamiento y el almacenamiento definido por software. El aumento de los sistemas híper-convergentes a nivel de servidor sigue un patrón similar: desacoplar los servicios y proporcionar mecanismos para el control basados en el software. Existe una buena “manejabilidad del servicio” y está progresando muy rápidamente. ¿Qué falta? Más allá de la virtualización: desacoplamiento en la capa de la base de datos -Hoy en día se puede tener una API que permita agregar o quitar una VM a su aplicación para soportar un aumento o caída de usuarios simultáneos e incluso permitir que una herramienta de orquestación, como Kubernetes, agregue o elimine la VM automáticamente cuando sea necesario. ¿Puede hacer esto con el sistema de su base de datos? -Hoy en día se puede tener una API que permita proveer y configurar una red privada de una manera totalmente automatizada. ¿Puede proporcionar y configurar una base de datos de esa manera? -Hoy en día se puede tener una API que permita mover un conjunto de micro servicios en ejecución a una máquina física diferente, para permitir el mantenimiento de la actual. ¿Su base de datos tiene ese tipo de API? -Hoy en día se puede tener una API que reconfigure su sistema de almacenamiento mientras está dando servicio a otras aplicaciones. ¿Su sistema de base de datos es compatible con eso? No olvide ver: Así serán los Data Center del futuro El diseño histórico del RDBMS es tan fundamentalmente antitético a la infraestructura elástica que, no importa lo inteligente que sea el piloto automático del centro de datos, no tiene acceso a las “superficies de control” útiles. Eso se debe a que los sistemas de base de datos tradicionales no pueden realizar las acciones que se esperarían de un centro de datos elástico. No puede llamar a una API para indicarle a Oracle o SQL Server que agregue 10 nodos más a una base de datos en ejecución. Introducción a la base de datos definida por el software El reto de proporcionar grandes APIs de automatización para las bases de datos está relacionado con el desacoplamiento. El diseño principal de los principales sistemas de bases de datos nació con el System-R de IBM a mediados de los años setenta, cuyo patrón dominante es el acoplamiento estrecho, especialmente entre la memoria y el almacenaje. Un diseño modular ligeramente acoplado sería mejor para la automatización, pero el RDBMS tradicional es monolítico. La próxima generación de sistemas de bases de datos, los llamados sistemas Elastic SQL deberían ser diseñados para ser modulares, ligeramente acoplados, componibles y programables por software. Tal vez deberíamos referirnos a las bases de datos Elastic SQL como bases de datos definidas por software, porque desde una perspectiva de automatización es el requisito central. #automatización #CentrodeDatos #modernización #softwareempresarial

  • Facebook bloqueó uso de fuentes de datos para herramientas de espionaje

    InfoWorld Los funcionarios encargados de hacer cumplir la ley están interesados en herramientas de software que les permitan escanear las fuentes de las redes sociales para obtener información que puedan utilizar en el monitoreo de potenciales criminales. Para disuadir a los desarrolladores de crear tales herramientas, Facebook e Instagram han incluido explícitamente en sus políticas la prohibición de utilizar los datos de sus usuarios. “Los desarrolladores no pueden ‘utilizar los datos obtenidos por nosotros para proporcionar herramientas que se utilicen para la vigilancia”, escribió en un post el subdirector de privacidad de Facebook, Rob Sherman, al anunciar la última actualización de los términos y condiciones. Lea también: Facebook afina sus herramientas de identidad para desarrolladores Sherman dijo que la nueva política es el resultado de meses de trabajo con organizaciones de defensa, como la American Civil Liberties Union (ACLU) de California, Color of Change y el Center for Media Justice. En octubre pasado, la ACLU  advirtió que Geofeedia, una compañía que desarrolla software de monitoreo en redes sociales, usaba datos de Twitter, Facebook e Instagram para rastrear a los manifestantes en Baltimore y otros lugares. Geofeedia tenía acceso a la API de Instagram, que incluía cualquier dato de ubicación asociado con puestos de usuario; a la fuente API de temas de Facebook, que proporciona un feed clasificado de publicaciones que mencionan un tema específico, incluyendo hashtags, eventos y lugares; y a la base de datos de Twitter de los tweets públicos. Las autoridades policiales podrían usar el software para ver lo que la gente publicó con respecto a #BlackLivesMatter, a dónde iban y con quién se comunicaban. Poco después del informe, Facebook e Instagram eliminaron el acceso de Geofeedia a las API y Twitter cortó completamente la relación de datos con la compañía con sede en Chicago. “Proteja la información que recibe de nosotros contra el acceso, uso o divulgación no autorizados. Por ejemplo, los datos no pueden ser utilizados en el desarrollo de herramientas que sean utilizadas para la vigilancia “, señaló Facebook en la política actualizada. La decisión de Facebook parece oportuna, ya que parece que el Departamento de Seguridad Nacional de Estados Unidos (DHS, por sus siglas en inglés) está interesado en un software que le permita escanear automáticamente las plataformas de las redes sociales para identificar a individuos sospechosos. Un informe de la Oficina del Inspector General encontró que los Servicios de Ciudadanía e Inmigración de los Estados Unidos (USCIS) habían llevado a cabo tres programas piloto, en diciembre de 2015 y en abril y agosto de 2016; para buscar de forma manual y automática los perfiles en las redes sociales de los solicitantes de visas para detectar posibles pistas sobre alguna actividad problemática de los mismos. El informe encontró que la detección automatizada no era una “opción viable” y la revisión manual “era más efectiva en la identificación “. Si bien es posible asignar agentes para monitorear regularmente las plataformas de medios sociales, la automatización ayudaría a procesar grandes volúmenes de datos y asegurar que las pistas clave no se pierdan. En el informe, la Oficina de Inteligencia y Análisis del DHS señaló que “ni el sector privado ni el Gobierno de los Estados Unidos poseían las capacidades para el análisis a gran escala de las redes sociales”. DHS reinició el programa de pruebas e identificó 275 herramientas de software que pueden ser utilizadas para escanear. No es un gran salto suponer que esta institución pronto comenzará a pedir a los contratistas que construyan tal plataforma, si no lo han hecho ya. Sin embargo, los cambios bien intencionados en las políticas no tendrán mucho impacto pues se aplican solamente al software y el gobierno todavía podría demandar los datos del usuario a través de sus Cartas Nacionales de Seguridad o con cualquiera de los programas encubiertos de espionaje. Vea después: ¿Por qué Facebook sobresale en la eficiencia de su data center? Mientras que Facebook tiene procesos automatizados y manuales para comprobar que los desarrolladores siguen sus normas, los contratos con el gobierno son lucrativos y estos pueden encontrar una forma de evitarlas. El cambio de política de Facebook no aborda otro problema omnipresente, que es el de la localización por los anunciantes y las plataformas de mercadeo , ya que las entidades comerciales todavía tienen acceso a los canales públicos utilizados para monitorear tendencias y otros eventos públicos. Los desarrolladores que trabajan en herramientas que puedan supervisar la actividad en las redes sociales deben estar conscientes de los términos y condiciones respecto a lo que se les permite hacer con los datos. #redessociales #Facebook #Espionaje #Instagram #twitter

  • Sepa por qué desarrolladores felices es igual a clientes felices

    CIO En el mercado digital actual, impulsado por la tecnología, la mayor ventaja competitiva de una empresa es su capacidad para ofrecer una excelente experiencia al cliente. El primer paso para lograrlo lo tiene que dar el equipo de desarrollo de software. “A todos nos ha pasado, ¿verdad? Tratas de hacer tu trabajo y el software que usas no funciona bien, o tiene una falla que debes resolver, o no tiene las características adecuadas a tus necesidades; aunque podría estar cerca. Esto hace que todo sea frustrante, difícil y que no trabajes de una manera eficiente o eficaz “, explicó Greg Law, CEO y co-fundador de Undo, una starup desarrolladora de software. Eso significa que usted no satisface las necesidades y las demandas de los clientes tan bien como podría. El hiper conectado panorama de los medios de comunicación, saturados por las redes sociales, hace que los clientes puedan ventilar fácilmente esas inconformidades al mercado con unas pocas pulsaciones de teclas, lo que puede tener un impacto directo en sus resultados. Lea luego: Usar inteligencia artificial en el trabajo podría traer más felicidad Mantener a sus desarrolladores de software felices, comprometidos y trabajando productivamente, tiene una correlación directa con la satisfacción de sus clientes, agregó Law. El ambiente importa “Los seres humanos necesitan niveles muy altos de precisión, enfoque y concentración para escribir un código de calidad; y necesitan libertad para ser creativos y expresarse. Deben estar capacitados para tomar sus propias decisiones en un ambiente cómodo y en el que tengan fácilmente a su disposición los recursos necesarios para hacer bien su trabajo “, expresó Law. Los desarrolladores de software felices y comprometidos pueden producir resultados de alta calidad, lo que también afecta a todos los demás involucrados en el desarrollo, entrega, comercialización y ventas del producto. Siempre es mucho más fácil vender un producto de calidad que satisface una necesidad del cliente y es atractivo para el mercado. Tratamiento de Reyes Las empresas más inteligentes lo entienden y es por eso que, en un estrecho mercado de talentos de TI, los desarrolladores de software son tratados como integrantes de la realeza. Son habituales los salarios lucrativos, la posibilidad de trabajar a distancia, ventajas como el masaje en el sitio, alimentos, PTO ilimitado y similares. Las compañías que lo comprenden y tratan bien a su gente, van a recibir un retorno de esa inversión atrayendo al talento tecnológico de élite. Si bien estos beneficios y privilegios pueden parecer excesivos, lo cierto es que pagan dividendos a largo plazo. “Un desarrollador de software un poco mejor que el de la competencia puede generar rendimientos exponenciales, no lineales, en cualquier inversión que haga. Es algo similar a los deportes profesionales, en los que si su talento es sólo el 1% mejor que el de su competidor, tendrá una enorme ventaja“, añadió Law. Las organizaciones que no están dispuestas a hacer estas inversiones se engañan a sí mismas, según Chris O’Malley, director ejecutivo de la empresa de servicios de tecnología de mainframe, Compuware. Es casi imposible tener suerte y encontrar estas habilidades especializadas a través de la subcontratación, por lo que, si se quiere competir, debe elevarse la apuesta. Incluso las startups con presupuestos limitados pueden ofrecer beneficios atractivos para los desarrolladores, pues no se trata solo de la remuneración. Actuar Adecuadamente “Los CIO tienen que entender que este mercado ha evolucionado. Estos desarrolladores son esenciales para su capacidad de competir, por lo que necesitan ser capaces de aumentar la apuesta e invertir en ellos. El entorno del trabajo es importante. Quieren cosas interesantes para hacer y la naturaleza del trabajo vale tanto como cuánto se les paga “, señaló O’Malley. No se pierda: Software empresarial impulsa el gasto en TI Una startup no siempre puede ir cabeza a cabeza en el salario con sus competidores más grandes. Un ambiente de lanzamiento, los proyectos nuevos e innovadores y la capacidad de hacer una diferencia demostrable para los clientes, ayuda a atraer el talento de la élite. Eso se traducirá en una gran experiencia para el cliente. “Tienes que ser creativo, innovador y encontrar maneras de hacer que esto funcione y diferenciarte para tener clientes felices y cautivados, porque si no lo haces, darás mala fama a tu empresa y un mal servicio a tus clientes y desarrolladores; eso es prácticamente un suicidio “, concluyó O’Malley. #felicidad #desarrolloweb #clientes #cambios #mejoras

  • Las 10 compañías top en el ámbito de las redes empresariales

    Este es el análisis de Network World sobre las compañías de redes empresariales más poderosas; fundamentado con  investigación propia, consultas a analistas de la industria y el trabajo de periodistas internos. Aquí se entenderá el término “poder”  como la participación en las áreas clave de las redes corporativas del mercado, específicamente, las redes centrales, monitoreo, administración y WLAN. Estas son las 10 compañías top en el ámbito de las redes empresariales 1. Cisco Cisco sigue siendo el mayor actor individual en las redes empresariales, y la brecha no es particularmente pequeña. La compañía ofrece una ventanilla única para adquirir casi cualquier cosa que se pueda necesitar para la red y se asegura de que sus productos funcionen bien entre ellos. Aunque es posible que no funcionen tan bien con las herramientas de otras empresas y algunos de los precios pueden asustar, Cisco sigue teniendo una base tecnológica fuerte y confiable, y es la compañía a vencer en las áreas más importantes de las redes empresariales. A principios de 2017, adquirió la firma de análisis datos Saggeza, el competidor en SD-WAN, Viptela, y ganó una batalla legal con su rival Arista por una demanda de patentes. Actualmente mantiene una participación del 60% en el mercado de enrutamiento y conmutación, de acuerdo con las cifras más recientes de IDC. Aunque posee desafiantes en muchos frentes, nadie puede pretender ofrecer la misma amplitud de soluciones que el gorila de 800 libras de redes empresariales que es Cisco. Lea también: Redes empresariales: ¿wireless o cableado? 2. HPE / Aruba Aruba es el nombre más grande, aparte de Cisco, en el espacio de LAN inalámbrica, y la única compañía que ocupa la sección de “líderes” del último informe Magic Quadrant de Gartner Research para la infraestructura LAN alámbrica e inalámbrica. Esta empresa, adquirida por HP meses antes de que la compañía se dividiera en dos entidades a fines de 2015, ahora es el brazo inalámbrico de HPE. El exdirector ejecutivo de esta compañía, Dominic Orr, bromeó diciendo que Aruba realmente adquirió HP Networking , y no al revés. Según Gartner, representa alrededor del 20% de los ingresos en el ámbito de las redes inalámbricas a nivel mundial. Últimamente, Aruba ha estado presionando en el mercado de conmutación de núcleo, lanzando un nuevo hardware para su sistema operativo ArubaOS-CX, que se presenta como una solución todo en uno para la visualización y administración para empresas con redes cada vez más enfocadas en el Internet de las Cosas. La corporación se ha asociado con el instituto de transporte Texas A&M para un proyecto de seguimiento y optimización del flujo de tráfico, que afectará a 7.5 millones de transeúntes anuales del campus de College Station. La incursión en el mercado de conmutadores básicos podría afectar radicalmente la trayectoria de Aruba, aunque es improbable que su posición en el mercado WLAN cambie como resultado de ello. Aun así, las noticias recientes de IDC de que la participación de mercado de la compañía se redujo en su último informe trimestral, en un período en el que creció el mercado mundial de WLAN, podría ser motivo para preocuparse ligeramente. 3. Juniper Juniper es uno de los dos líderes de Cisco en el sector de redes de centros de datos. Sus soluciones de centros de datos están muy bien integradas, bien hechas y, en general, se cree que funcionan mejor que Cisco con los productos de terceros. Juniper fue más rápido en la adopción de redes de malla y otras topologías de red de nueva generación, y el software de la compañía es particularmente bien considerado, tendiendo a marcos abiertos que se integran sin problemas con otras partes de la red. La empresa contrató a un nuevo director de tecnología, el ex trabajador de Google, Bikash Kolay, y anunció que había superado sus objetivos de ganancias para el segundo trimestre del año 2017. En 2016 esta corporación registró un crecimiento anual de 3.5% en el mercado de switching y enrutamiento, según IDC. La compañía perdió una pequeña cantidad de participación en el mercado durante este año, pero su trayectoria parece ascendente, y los analistas creen que Juniper está bien posicionada para tener éxito en el cambiante mercado de las redes empresariales. 4. Huawei La gigante asiática llega a muchos segmentos en el mercado de las redes empresariales, desde la red principal hasta la WLAN y WAN. (También hace básicamente de todo, incluidos teléfonos inteligentes y tabletas.) La presencia de la compañía en los EE. UU. ha estado un poco limitada debido a asuntos sobre la seguridad de sus productos y su relación con el gobierno chino, pero no existen tales limitaciones en muchos otros mercados alrededor del mundo. Huawei ocupa el segundo lugar detrás de Cisco en el mercado del switching y el enrutamiento, y está en tercer lugar detrás de Cisco y HPE/Aruba en WLAN. Así que ciertamente parece estar bien encaminada. También está abriéndose camino en la inteligencia artificial gracias a sus propiedades en la fabricación de chips. Su participación en el mercado WLAN creció un 77% entre 2015 y 2016, de acuerdo con las últimas cifras disponibles de IDC. 5. Arista Arista está muy concentrada en las redes de centros de datos y es una de las principales compañías del mundo en esa área. Es la única empresa que comparte el cuadrante de “líderes” con Cisco en el enrutamiento básico y el cambio de Magic Quadrant de Gartner, y dentro de ese espacio, sus ofertas son diversas y flexibles. Sin embargo, el tema ácido de Arista es un caso legal por infracción de patente presentado por Cisco, el cual no está resultando muy bien para Arista. No va a arruinar la empresa ni nada por el estilo, pero es una mancha bastante seria en su imagen pública y un dolor de cabeza para el diseño de sus productos. 6. VMware Hay una buena base para afirmar que la virtualización y los productos en la nube de VMWare son algunas de las cargas de trabajo de red más importantes que existen, y que la compañía, propiedad de Dell / EMC desde finales de 2016, se encuentra entre las más influyentes del mundo en el sector de redes empresariales. Sin embargo, con su producto de virtualización de red NSX, VMWare también actúa directamente como promotor en las redes definidas por software. Compatible con la mayoría del hardware de gran renombre, NSX permite a los usuarios administrar múltiples entornos de nube desde una única consola. Esta herramienta puede tener sus detractores, a muchos administradores de redes a nivel de campo no les gusta, ya que es difícil ver lo que sucede en una superposición virtual, pero también tiene aplicaciones de seguridad , y la base de usuarios podría crecer. VMWare amplió sus posibles casos de uso para NSX en febrero de 2017 mediante el despliegue de NSX-T 1.1, una versión del software que funciona con entornos de virtualización y nube no propios de VMWare. Las cifras de IDC muestran que VMWare genera alrededor USD$ 646 millones en ingresos anuales por su software de sistemas de administración en la nube, casi el doble que IBM, su competencia más cercana. 7. Riverbed Riverbed, gracias en parte a una serie de adquisiciones y fusiones de larga data, es el líder de importantes áreas secundarias de productos de redes, en particular, optimización de WAN y gestión del rendimiento de las aplicaciones. Recientemente se ha centrado en la integración de un grupo diverso de herramientas de gestión y visualización en un conjunto lógico, y en la ampliación de esas capacidades en algo más que una agrupación de herramientas de red auxiliares. La última adquisición de la compañía, Xirrus, fabricante de equipos inalámbricos de punta, señala un cambio agresivo de dirección, con ejecutivos de Riverbed haciendo ruidos belicosos sobre desafiar a Cisco en ciertos mercados WLAN en un evento de la compañía en abril de 2017. Desde que en 2015 se firmó un acuerdo público en el que la firma de valores Thomas Bravo compró Riverbed por unos USD$ 3.600 millones, la corporación no ha revelado cuánto pagó por ninguna de sus numerosas adquisiciones. El movimiento de Riverbed para trabajar en LAN y WAN es ambicioso, como lo es la retórica reciente de la compañía, pero eso no está comprobado en este nuevo mercado, y solo el tiempo lo dirá con certeza. 8. Netscout NetScout es una compañía de monitoreo y diagnóstico de rendimiento de red con una gran presencia en los segmentos de grandes empresas y proveedores de servicios. Todavía está pasando por una consolidación, dado el acuerdo de 2015 que combinaba la compañía con Fluke Networks, Arbor Networks y VSS Monitoring, en una complicada fusión. Esta agrupación tiene una gran presencia en el mercado de monitoreo y diagnóstico del rendimiento de la red (NPMD, por sus siglas en inglés), y es uno de los principales proveedores de centros de datos a hiperescala. Es uno de los tres líderes en el Cuadrante Mágico de NPMD más reciente de Gartner. También anunció que alcanzó un hito en la integración de su plataforma de información en tiempo real con la herramienta de análisis de amenazas de Arbor, fortaleciendo su monitoreo de red y sus capacidades de seguridad. Gartner indicó que NetScout tiene los mayores ingresos de NPMD en el mercado, entre USD$ 500 millones y USD$750 millones por año. Esta es una compañía con una gran base de usuarios y mucha tecnología considerable. Todavía necesita avanzar en la integración, pero su futuro parece bastante sólido. 9. Extreme Networks Extreme Networks es, de repente, una empresa con una cartera de productos impresionantemente para las redes empresariales. Después de comprar el negocio de centros de datos Brocade de Broadcom , hacerse con el negocio de redes de Avaya y adquirir el sector de LAN de Zebra Technologies en 2016, la conmutación y el enrutamiento existentes de esta empresa ahora constituyen una sorpresa en la escena de las redes empresariales. La adquisición antes mencionada del negocio de enrutamiento básico de Brocade es algo difícil de superar. Extreme pagó USD$100 millones por la adquisición recién cerrada del negocio de redes centrales de Avaya. No se pierda: Corero Network Security y Webroot lanzan solución para la defensa de redes empresariales 10. Dell / EMC Aunque es algo inusual para una empresa tan antigua, Dell es reconocido como un “visionario” en las redes de centros de datos según el último informe Magic Quadrant de Gartner, un hecho que tiene mucho que ver con la bienvenida de la compañía a los estándares abiertos y al hardware y software altamente interoperable. Si bien el hardware de la compañía puede no tener la misma reputación que algunos de sus competidores, el hecho de que se pueda ejecutar una amplia gama de software diferentes significa que hay una gran flexibilidad; una propuesta de valor sólida para los usuarios que buscan adoptar más tecnologías de red virtualizadas. Muy adecuado para una empresa que también posee VMWare técnicamente, aunque esta última empresa todavía opera con un alto grado de independencia. Dell recientemente reforzó su programa de socios, algo que Gartner citó como una debilidad potencial. La compañía recaudó USD$67 mil millones para EMC, que todavía es en gran parte propietaria de VMWare. Dell está utilizando tanto sus inversiones en VMWare como su propio equipo de redes abiertas para ofrecer una opción atractiva a las empresas que desean acceder a tecnologías avanzadas como la de las infraestructuras hiperconvergentes. #mejoresempresas #redesempresariales #top10

  • La salud y la industria 4.0

    Jose Durán La industria 4.o está cambiando la manera en que se realizan muchas cosas actualmente. Con ayuda de tecnologías en la nube, big data, Internet de las Cosas (IoT) e Inteligencia Artificial (IA), se están automatizando procesos y reduciendo costos operativos. El sector salud no queda exento de esta revolución industrial, pues técnicas como la telemedicina buscan romper las barreras que enfrentan decenas de países con escasez de personal médico. “Se podrá acceder a historiales médicos de manera inmediata, el monitoreo de pacientes crónicos se hará más sencillo por el uso de wearables que suben su información a la nube en tiempo real, los médicos podrán realizar consultas de manera remota y los equipos médicos se operarán desde dispositivos móviles”, explicó  Marisol Capetillo, directora de VERSE Technology. Lea también: Industria 4.0: el futuro ya es el presente Actualmente ya se vislumbran las primeras innovaciones de este tipo, como el uso de IA para la búsqueda de alteraciones moleculares y la implementación de tratamientos de última generación, o la impresión biológica 3d, que permite crear células madre o tejido de piel. Capetillo afirmó que tan sólo en India, IBM Watson redujo en un 78% el tiempo necesario para la aplicación de estudios de detección del cáncer, coincidiendo en un 90% de ocasiones con el consejo de especialistas de Highlands Oncology Group y Novartis. Por otra parte, proyecciones a futuro de IDC indican que el uso de la tecnología en consulta cara a cara utilizará redes de datos y capacidades cognitivas para hacer pre-diagnósticos, lo que disminuiría para el año 2020 en un 30% el tiempo de consulta de los médicos. “Cada día vemos más desarrollo de aplicaciones tecnológicas capaces de mejorar la eficiencia de los servicios sanitarios, manteniendo al mismo tiempo el cumplimiento y la seguridad de los datos, y la calidad de la atención médica”, expresó Capetillo. Se espera que en la próxima década se efectúe una mayor apertura y adopción de tecnologías IoT. Según la consultora Mckensey& Co, el uso de Internet de las Cosas en el sector salud permitirá un ahorro de USD$63 mil millones, a nivel mundial, en costos y gastos médicos durante los próximos quince años. #industria40 #Inteligenciaartificial #Internetdelascosas #sectorsalud

  • ¿Cuáles son los 4 navegadores web del momento?

    CIO El navegador web es, por mucho, el software más importante de una PC, al menos para la mayoría de los usuarios. A menos que se esté en una estación de trabajo machacando números o editando la próxima Guerra de las Galaxias, es probable que pase la mayor parte de su tiempo en la computadora mirando una aplicación o un sitio web. Por eso, es importante asegurarse de tener la mejor herramienta para realizar el trabajo diario. Aunque hay muchos que continúan usando Internet Explorer o la versión mejorada Edge, es difícil no verse tentado por otras opciones, como Chrome de Google, Mozilla Firefox y Opera. A continuación se analizarán los cuatro navegadores principales (y modernos) para ver cómo se desempeñan. Recientemente Microsoft lanzó la actualización Fall Creators, que pareció tener un impacto significativo en los resultados de su navegador. Sin embargo, la motivación para este artículo es el lanzamiento de Firefox 57, también conocido como Firefox Quantum. El navegador modificó su interfaz y se supone que es dos veces más rápido, usando un 30 por ciento menos de memoria que Chrome. No olvide leer: La competencia entre los navegadores web El actual campeón del mundo, Google Chrome, encabeza los gráficos en StatCounter y NetMarketShare por un amplio margen. El navegador de Google ha creado una base de admiradores importante gracias a su enorme biblioteca de extensiones, y al hecho de que permite al usuario centrarse en el contenido web y no en los adornos del explorador. Chrome no es tan simple como lo era antes, pero sigue siendo muy fácil de usar. No tiene mucho más que una gran barra de URL, conocida como OmniBar, más un espacio para extensiones, un icono de marcadores, pestañas, y eso es todo. Sin embargo, Google aún encuentra una manera de ocultar todo tipo de características dentro del navegador, incluida una integración profunda con los servicios de Google. Esto permite sincronizar marcadores, contraseñas y pestañas abiertas en todos los dispositivos. Chrome también posee un soporte para múltiples cuentas en caso de contar con una computadora familiar, un visor de PDF, Google Traductor incorporado, un administrador de tareas y el siempre práctico menú contextual con su opción de pegar y buscar. Si hay una queja que las personas tienen sobre Chrome, es que consume mucha memoria disponible. Para los usuarios que aman la extensibilidad pero desean mayor privacidad, el navegador de código abierto, Mozilla Firefox, es una gran opción. Firefox allanó el camino para que otros exploradores se hicieran extensibles, y se espera que la nueva arquitectura de extensiones de Firefox haga que el catálogo pronto iguale a la tienda web de Chrome. También tiene una función de sincronización que permite ver las pestañas abiertas y recientes, el historial de navegación y los marcadores de todos los dispositivos vinculados. Firefox 57 trae un diseño nuevo y actualizado, con íconos modernos, una sección que contiene el historial, la lista de lectura, las descargas y las pestañas sincronizadas. También hay una útil herramienta para la captura de pantalla. Donde realmente ha brillado esta herramienta en los últimos años es en el modo incógnito del explorador .Todos los navegadores tienen un modo privado que permite navegar sin que ninguna actividad quede registrada en el historial; no obstante, la mayoría de las veces estos modos privados aún permiten que los sitios web rastreen la actividad para esa sesión específica. Firefox elimina esto al incluir bloqueadores de anuncios y rastreadores cuando se usa el modo incógnito. Antes de Chrome, Opera era una opción popular entre los usuarios avanzados, una posición que el exdirector ejecutivo de Opera, Jon Stephenson von Tetzchner, intenta recuperar con Vivaldi. Hoy, Opera es uno de los navegadores más subestimados. Se basa en las mismas tecnologías básicas que Chrome (el motor de renderizado Blink y el motor JavaScript V8), lo que significa que puede ejecutar muchas extensiones de Chrome; incluso hay una para instalar extensiones desde Chrome Web Store. Opera también tiene algunas características inusuales como Turbo, que ahorra tiempo en la carga y ancho de banda al comprimir páginas web en sus servidores. También tiene una buena característica de seguridad llamada resaltado de dominio, la cual oculta la mayor parte de la URL para que los usuarios puedan ver de manera fácil y clara si están en Google.com o google.com.scam.com, siendo scam.com el sitio web real. Más recientemente, introdujo la barra lateral social con acceso a servicios como WhatsApp, Facebook Messenger y Telegram. Al igual que Chrome y Firefox, Opera también tiene su propia función de sincronización entre dispositivos. En el caso de Microsoft Edge, su biblioteca de extensiones es pequeña pero está en crecimiento. Su funcionalidad de sincronización todavía está restringida a favoritos y lista de lectura, y no recibe las actualizaciones de manera rápida, aunque eso puede cambiar ahora que Microsoft puede actualizar Edge por separado de Windows. Vea también: Los navegadores más peligrosos de la web A pesar de sus deficiencias, Edge tiene varias funciones útiles que atraerán a algunos. Está profundamente integrado con las capacidades enlace de Windows 10, así como con OneNote, por lo que es fácil recortar una página web, anotarla y guardarla en una computadora portátil. Cortana también es una gran parte de este explorador. Puede usar el asistente digital de Microsoft para buscar rápidamente información, comparar precios u obtener un cálculo rápido. También hay una función de pestañas ingeniosas para guardar una colección de sitios web, la capacidad de leer libros electrónicos (ideal para tabletas) y una nueva página de pestañas estilo MSN.com. En la Actualización Fall Creators, Edge recibió varias funciones nuevas, incluida la capacidad de anotar archivos PDF y libros electrónicos, fijar fácilmente sitios web en la barra de tareas, editar URL en sus favoritos, navegar en pantalla completa, ver y administrar permisos del sitio web, y también la herramienta de “leer en voz alta” para el contenido web. Sin embargo, la mejor característica es la opción “Continuar en la PC”, que permite enviar páginas web a la computadora desde el teléfono por medio de una aplicación. #web #mejores #explorador #navegador #cuatro

  • El valor de tecnologizar la seguridad

    Juan José López Torres @jjlopezt Aunque parezca un cliché, la tecnología no es el fin último sino una herramienta que permite a las organizaciones asegurar la calidad de los servicios, eficientar su gestión y brindar a los usuarios lo que ellos esperan. En ese sentido, una solución de videovigilancia no solo impacta en los costos de adquisición frente a la asignación de personal en territorio sino en la maximización de la eficiencia en la gestión municipal, la seguridad pública y el tráfico vehicular, entre otros aspectos. Tecnologizar la seguridad va más allá de solo modernizarse, implica que el costo-beneficio se vea en la mejoría de condiciones para la vida en una ciudad inteligente. “Si se decide llevar a cabo un proyecto, es importante no comparar precios. Si la justicia tiene imágenes de mala calidad, no puede aplicar las sanciones correspondientes. Por eso es que en (el municipio de) Vicente López tratamos de tener los mejores productos, porque el costo total de la propiedad no es solamente la compra de la cámara, sino el resto de los costos asociados a ella”, según Santiago Espeleta, secretario de seguridad del municipio bonaerense. Las cámaras, los sensores y otras tecnologías aumentan la habitabilidad y mejoran la gestión de la ciudad en la reducción de los índices de delincuencia para la protección de sus habitantes. En ese sentido, Axis Communications postula que sus cámaras rentabilizan la inversión en seguridad y transforman las investigaciones en seguridad proactiva en tiempo real. “Con las cámaras de Axis y su experiencia fruto de la colaboración con otros socios, que incluye el ámbito del reconocimiento facial e incluso la detección mediante drones, las autoridades de la ciudad pueden identificar automáticamente los incidentes y gestionar los acontecimientos desde el momento en que se producen”, según la marca. Al tecnologizar la seguridad, se protege de manera más efectiva a los ciudadanos y las instalaciones de una ciudad, mejora su imagen, se disuade a los delincuentes y se reducen los gastos de reparación, pero sobre todo, se reduce el tiempo de las investigaciones criminales ya que los dispositivos de última generación producen imágenes de mayor calidad. La edificación de una ciudad inteligente y segura es posible llevarla por etapas, tal como ocurrió con el municipio de Vicente López, que requirió de cinco años para crear un plan para el manejo inteligente del espacio urbano y cuenta con un sistema de videovigilancia digital que, entre otras cosas, monitorea las rutas escolares con cámaras de visión de 360 grados. “Excedió nuestras expectativas porque comenzamos a tener cámaras de calidad, imágenes de calidad y buen rendimiento. No tuvimos fallas en las cámaras”, concluyó Martín Gasulla, subsecretario de seguridad del municipio. Los equipos también permiten realizar grandes acercamientos sin perder la definición ni los detalles a larga distancia, y las instaladas en paradas de buses son resistentes a los cambios del tiempo, las condiciones de luz y, en especial, los actos vandálicos. Visite estos enlaces relacionados Ciudades más pobladas requerirán más seguridad Vicente López, una de las primeras smart city Anatomía TIC de una smart city segura #smartcity #ciudadesseguras #securecity #ciudadesinteligentes #cámarasdevigilancia #videovigilancia

  • El poder no aprovechado de las redes sociales

    Jose Durán (@mradler1) En diciembre de 2017 Costa Rica fue sede de la presentación del 7mo Estudio de Redes Sociales en Centroamérica y el Caribe, efectuado por la empresa iLifebelt, el cual arrojó importantes resultados sobre el comportamiento, el alcance y el poder que ofrecen estas plataformas en la región. Dentro de las principales conclusiones se destaca lo poco que las compañías sacan provecho de estas herramientas para acercarse a su audiencia y conocerla más a profundidad. “Con las redes sociales yo no sólo sé cómo es el consumidor a través de las cosas que pone me gusta, sino que también sé cómo es por medio de lo que comenta, donde hace check-in, el tipo de temas que busca; entonces, esto se vuelve como una gran base de datos de información para las marcas pero que muy pocas están aprovechando”, comentó Jose Kont, científico de datos especializado en comunicación digital de iLifebelt y expositor del estudio. Kont también mencionó lo poco que saben las marcas sobre el formato que deben usar en sus publicaciones para tener un mayor rendimiento. En la mayoría de los casos estas se reducen a texto y fotografías, dejando de lado los vídeos. Estos últimos ofrecen un atractivo más grande para los usuarios. “El futuro del contenido está relacionado a realidad aumentada, virtual, vídeos, live streaming y story telling. Estos formatos funcionan súper bien, tiene más prestaciones y ventajas, y las marcas hasta ahora los están adaptando. Otra gran tendencia que vemos y viene con muchísima fuerza son las historias, en Whatsapp e Instagram”, agregó Kont. Por último, el experto recomendó poner mayor énfasis en Instagram, pues actualmente es la red social que mayor alcance orgánico ofrece, a diferencia de Facebook que ya pasó a ser un sitio más mediático. #empresas #redessociales #poder #alcance #usuarios

  • Aumentan servicios en soporte técnico en la región para 2018

    A mediados de diciembre Johnson Controls, una compañía global pero de origen estadounidense, inauguró su centro de operaciones para soporte de ventas en Costa Rica con  el objetivo de expandir sus servicios en la región centroamericana. La empresa pretende otorgar distintos servicios como: Consultoría en materia de diseño en ingeniería eléctrica y mecánica, diseño de redes para telecomunicaciones, servicios de sustentabilidad y gestión de proyectos durante el proceso de diseño de ingeniería. Leer más: ¿Existe el software coreano para las elecciones de El Salvador 2018? Igualmente, el objetivo principal de su arribo al país centroamericano es poder colaborar con las empresas de los países vecinos pero también generará empleos en el mercado costarricense, lo que se traduce una mayor capacitación técnica del personal en el país. Por otro lado, Johnson Controls es una empresa que maneja oficinas en 150 países, además, la organización posee un plan de inversión que pretende duplicar su capacidad de soporte en ventas para 2020 y de la misma manera trabajar bajo las regulaciones de las zonas francas de Costa Rica  en corto plazo . #consultoría #Infraestrucutra #servicios #soportetécnico

  • 10 startups que apuntan a iniciativas de TI actuales

    CIO Las empresas nuevas siempre han desempeñado un papel crucial en las carteras de TI. Por mucho que a los CIO les gustaría centralizar las decisiones de compra de tecnología con un puñado de socios estratégicos, los titulares no siempre pueden satisfacer todas sus necesidades, especialmente cuando se trata de las tecnologías emergentes. Para familiarizarse mejor con las startups, muchos CIO viajan regularmente a Silicon Valley para participar en citas rápidas, en las cuales los capitalistas de riesgo los invitan a conocer a los miembros de sus portafolios. Algunos CIO realizan hackatones o competiciones estilo Shark Tank para que los desarrolladores externos intenten abrirse su camino hacia las gracias de la compañía. Otros aprenden sobre nuevas compañías prometedoras de sus pares. Conectarse con empresarios es la parte fácil; la parte difícil es tirar los dados en una startup que podría irse a la quiebra por una mala decisión comercial. Los CIO saben que no hay garantías, sin importar cuán sólido sea el pedigrí de los fundadores de una startup, cuántas salidas exitosas hayan disfrutado, o qué tipo de tecnología comercial tengan. CIO.com está aquí para ayudar, ofreciendo un vistazo a algunas nuevas empresas de tecnología que podrían impulsar su negocio digital. Spoke Los empleados de las grandes organizaciones se enfrentan a un catch-22. Sus empleadores se sientan en trozos de información, la mayoría en repositorios dispares, lo que dificulta el acceso. Spoke ha desarrollado una aplicación que los empleados corporativos pueden usar para consultar departamentos de recursos humanos, TI, ventas, marketing y otros. Los empleados pueden registrar una pregunta sobre beneficios de atención médica o ayuda de TI a través de SMS, correo electrónico de la aplicación web o un chatbot de Spoke que reside en Slack. Si la aplicación no puede responder a una consulta, alertará a un experto de dominio asignado, que responderá dentro de Spoke. Los algoritmos de aprendizaje automático de Spoke, a su vez, recordarán las respuestas y agregarán un elemento de curado humano a la herramienta. Jay Srinivasan, CEO de Spoke, dijo que esta idea surgió de la lucha por encontrar información corporativa interna en Google, a la que se unió en 2014 luego de vender su empresa Appurify en 2014. “Incluso en Google, como nuevo empleado en un equipo de 30 empleados, era difícil encontrar la forma de hacer las cosas básicas”, comentó Srinivasan a CIO.com .Eventualmente, Spoke trabajará con la herramienta xa de Amazon.com y otras más. Spoke ha recaudado USD$28 millones de Accel, Greylock Partners y otras firmas de capitales de riesgo. Confluent Los CIO realmente pueden encontrar interesante Confluent , una empresa de LinkedIn que se escindió para comercializar Apache Kafka , tecnología de código abierto que el fundador y CEO de Confluent, Jay Kreps, escribió en LinkedIn para negociar grandes cantidades de datos. Kafka es un servicio de mensajería de alta velocidad que ayuda a los ingenieros a reportar eventos en tiempo real. Kreps, quien habló sobre Kafka y Confluent en el evento Forbes Next CIO en octubre, describió a Kafka como el sistema nervioso central de una empresa. Confluent agrega seguridad, capacidad de administración y otras características para hacer que Kafka sea más amigable con las empresas. Kreps mencionó que muchas compañías de Fortune 500 usan el software para procesar y analizar grandes cantidades de datos, en particular en torno a grandes proyectos de IoT o en el uso de IA para automatizar las operaciones vehiculares. En marzo, Confluent recaudó una ronda de financiación de USD$50 millones liderada por Sequoia Capital y ha recaudado USD$81 millones hasta la fecha. Toptal Las empresas de todo el mundo luchan por encontrar y contratar talentos tecnológicos. Incluso obtener ayuda independiente de primer nivel es una gran tarea. Toptal coloca a las personas que ocupan roles altamente calificados, incluidos los ingenieros de software, diseñadores y profesionales de finanzas. El talento está ahí, pero ampliamente distribuido, dijo el CEO y cofundador de Toptal, Taso Du Val, en el evento de Forbes Next CIO. Toptal puede conectar, por ejemplo, a un ingeniero de software que vive en el Medio Oeste, con una compañía en Silicon Valley. “Creamos un servicio que lo hace a escala”, aseguró Du Val. Debido a que la satisfacción del cliente es crucial, Toptal emplea un arduo proceso de selección. En lugar de confiar en las pruebas automatizadas, el personal de Toptal examina el talento personalmente. Además, ofrece a los clientes un período de prueba de dos a cuatro semanas; si su ayuda independiente no funciona, no cobran. “Es importante que la persona tenga buenas habilidades de hardware y software”, explicó Du Val. Toptal es 100% virtual, con 400 empleados a tiempo completo repartidos por todo el mundo. Las posiciones calientes incluyen ingenieros competentes en aprendizaje automático, así como cualquier tipo de tecnología analítica y blockchain, dice Du Val Domino Data Lab La ciencia de datos es una de las disciplinas más populares. Para capitalizar eso, los ex empleados de Bridgewater Associates, Nick Elprin, Chris Yang y Matthew Granade, lanzaron Domino Data Lab, una plataforma de ciencia de datos. Su CEO, Elprin, habló en el evento Forbes Next CIO, y dijo que la plataforma sirve como un repositorio central para acelerar los modelos de entrega y darles gobernanza y transparencia a los proyectos de datos. Domino Data Lab trae el orden al caos y los bolsillos de diversas herramientas que existen en torno a la ciencia de datos. Dicha tecnología es importante ya que los CIOs buscan datos, análisis y aprendizaje automático para impulsar las predicciones comerciales y, en última instancia, las acciones. “Para mí, de eso se trata la ciencia de los datos. Se está combinando tecnología algorítmica con datos para hacer modelos predictivos”, argumentó Elprin. Domino Data Lab recaudó USD$27 millones en una ronda liderada por uno de sus clientes de fondos de cobertura, Coatue Management. Los inversionistas existentes; Sequoia Capital, Zetta Venture Partners y Bloomberg Beta también contribuyeron a la ronda, con lo que el monto total recaudado por la startup llegó a los USD$40.5 millones. Uptake General Electric (GE) ha hecho grandes progresos con Predix, una plataforma de análisis que analiza los datos generados por las máquinas industriales, como motores de locomotoras y turbinas de chorro, para predecir cuándo requerirán servicio o están en peligro de fallar, así como para optimizar la eficiencia del combustible y otras operaciones. Uptake apunta hacia el mismo mercado y ofrece una plataforma de software como servicio (SaaS) que hace recomendaciones a los clientes. Mientras que GE se ha enfocado en sus propias máquinas, Greg Goff, director de producto de Uptake, le indicó a CIO.com que la startup, que cuenta con más de 800 empleados, analiza los datos para mejorar las operaciones de las máquinas de cualquier fabricante, incluidos GE, Siemens y otros. GE ha estimado que este mercado vale miles de millones. Uptake ha recaudado USD$140 millones en fondos de Revolution Growth y GreatPoint Ventures. Harness.io La entrega continua de software sigue siendo un gran desafío en la floreciente era del desarrollo de operaciones. Jyoti Bansal, ex CEO de AppDynamics, la cual Cisco Systems adquirió por USD$3.7 mil millones a principios de este año, está intentando resolver ese problema con Harness.io. Saliendo del modo sigiloso en octubre, Harness.io tiene como objetivo automatizar el despliegue continuo de código, un principio central del desarrollo de operaciones. Bansal recurrió a Rishi Singh, ex arquitecto de la plataforma de desarrollo de operaciones en Apple, para la nueva empresa, aunque todavía necesita personal. De acuerdo con una publicación de Bansal en LinkedIn, “estamos buscando ingenieros senior/principales de software (infraestructura de punto final, sistemas distribuidos y aprendizaje automático) para mi nueva startup sigilosa. Envíame un mensaje en LinkedIn si estás interesado en saber más”. Harness.io se lanzó con USD$20 millones en fondos Serie A liderados por Menlo Ventures. Obsidian Security Otra startup con fundadores distinguidos es Obsidian Security, lanzada en junio por Matt Wolff (Científico en jefe), Glenn Chisholm (CEO) y Ben Johnson (CTO) a la cabeza. Johnson fue cofundador de la empresa cibernética Carbon Black, mientras que Chisolm y Wolff ocuparon altos cargos en la empresa cibernética Cylance. Johnson y Wolff también trabajaron en la Agencia de Seguridad Nacional. Obsidian ha mantenido su enfoque bajo estricto secreto, pero ha anunciado que está abordando la intersección de seguridad, inteligencia artificial y tecnología de nube híbrida. En LinkedIn, Johnson señaló que los defensores cibernéticos necesitan visiones uniformes y protección por lo que defienden, independientemente de su ubicación. Obsidian ha recaudado USD$ 9.5 millones en fondos de Serie A de parte de Greylock Partners. Petuum El startup de aprendizaje automático Petuum recaudó USD$93 millones en fondos de riesgo de SoftBank en octubre para desarrollar un sistema operativo y software para el entrenamiento y despliegue de redes neuronales artificiales. El objetivo de Petuum es democratizar la IA para las compañías que carecen del capital técnico y humano para hacerlo ellas mismas. Petuum fue cofundada por el CEO y Científico en Jefe Eric Xing, un profesor de ciencias de la computación en período sabático de la Universidad Carnegie Mellon. Mientras que muchos sistemas de IA se enfocan en servir un nicho específico, Xing dijo a CNBC que está haciendo que sus tecnologías estén disponibles para cualquier industria. Ayla Networks Se anuncia a sí mismo como un proveedor de plataforma con servicio (PaaS) de IoT que ayuda a los fabricantes a dar soporte a dispositivos conectados sin tener que construir una infraestructura de administración de punto final. Ayla se enfocó anteriormente en atender HVAC, electrodomésticos grandes y pequeños, administración del agua y control del hogar, pero con el creciente interés de la empresa en IoT, se ha expandido para admitir grandes mercados minoristas, industriales, de telecomunicaciones, proveedores de servicios y médicos. La compañía, cuyos clientes incluyen Fujitsu, Hunter y Brinks Home Security, anunció en noviembre USD$60 millones en financiamiento de Serie D por parte de Run Liang Tai Fund y Sunsea Telecommunications, con una inversión total de más de USD$120 millones. El CEO y cofundador de Ayla, Dave Friedman, dijo que la compañía está experimentando un crecimiento de 5x a 7x, allanando el camino para la última ronda de financiación. FogHorn Systems FogHorn Systems proporciona software de análisis de datos para empresas que aprovechan los sistemas de IoT. Los fabricantes, las compañías de petróleo y gas y otros sectores emplean miles de sensores que arrojan grandes cantidades de datos que son recolectados por las redes de borde. El software de FogHorn ha sido especialmente diseñado para analizar los datos generados en estos sistemas de computación de borde. Fundada en 2014, FogHorn en octubre obtuvo USD$30 millones en fondos , codirigidos por Intel Capital y Saudi Aramco Energy Ventures, con una inversión total de USD$47.5 millones. #nuevasideas #TI #iniciativas #propuestas #innovación #StartUps

  • 8 campamentos de ciencia de datos para impulsar la carrera

    CIO Las empresas confían cada vez más en el análisis de datos para informar todo, desde las operaciones diarias hasta el servicio al cliente y las iniciativas de marketing. Como resultado, la ciencia de datos se ha convertido en una gran habilidad con alta demanda en una amplia gama de industrias. Los campamentos de entrenamiento son una excelente manera de perfeccionar las habilidades en las ciencias de datos, ponerse al día con las últimas tendencias, cambiar la carrera profesional o crear una mayor seguridad laboral en la industria. Si está interesado en aprender más sobre ciencia de datos, uno de estos ocho campamentos de entrenamiento le ayudará a obtener las habilidades que necesita para impulsar su carrera, conseguir un nuevo trabajo o alcanzar un ascenso. Lea también: 5 campamentos para ejercer el análisis de datos Thinkful Thinkful ofrece un campamento en línea a su propio ritmo con un plan de estudios basado en proyectos, preparación profesional, tutoría individual y acceso a una comunidad completa de estudiantes, mentores y ex alumnos. También aprenderá a usar el lenguaje de programación Python, que es una habilidad comúnmente buscada por los científicos de datos. El campamento de Ciencia de Datos de Thinkful cuesta USD$8,550 por seis meses, con opciones de financiamiento y becas. Puede probar el programa con un curso de preparación de USD$500 , que se deducirá de la matrícula completa si es aceptado. El curso de preparación de tres semanas requiere alrededor de 20 a 25 horas por semana y sienta las bases para el programa de tiempo completo. Bit Bootcamp Bit Bootcamp ofrece programas a tiempo parcial y completo que duran de cuatro a ocho semanas. Los cursos incluyen programas de análisis de datos, ciencia de datos y aprendizaje automático, Hadoop, análisis de big data y análisis de datos avanzados con Spark. El curso completamente inmersivo (ciencia de datos y aprendizaje automático en la Big Data) tiene lugar en el campus de la ciudad de Nueva York, cuesta USD$15,500 y dura ocho semanas. Los cursos a tiempo parcial, que tienen lugar en el campus por la noche, cuestan USD$4,500 y tienen lugar tres días a la semana. Data Application Lab Data Application Lab es otro campamento de entrenamiento en la ciencia de datos en persona y a tiempo completo ubicado en Los Ángeles y Silicon Valley, pero también ofrece opciones en línea si no puede llegar a esos lugares. Los programas se enfocan en instruir a los estudiantes sobre las necesidades prácticas de la industria junto con académicos tradicionales. Los cursos utilizan conferencias, prácticas y proyectos de laboratorio para ayudar a agilizar el proceso de aprendizaje. Si tiene menos experiencia en la ciencia de la computación, también ofrecen una clase de programación y una pasantía de 10 semanas para ponerlo al día. Los programas de ciencia de datos incluyen ciencia general de datos, ingeniería de big data, analista de datos, y un programa completo sobre la ciencia de datos y soluciones de big data. Cada campamento tiene diferentes requisitos, por lo que querrá asegurarse de cumplirlos antes de presentar la solicitud. La matrícula varía según el programa, la ubicación o el curso que elija. Galvanize Galvanize ofrece cursos en persona, pero a diferencia de algunos de los otros campamentos mencionados, ellos están distribuidos por todo el país. Con programas en Seattle; San Francisco; Phoenix; Nueva York; Austin, Texas; y múltiples ubicaciones en Colorado, los cursos presenciales son más accesibles para quienes no vive en Nueva York o California. Puede tomar un curso de ciencia de datos a tiempo completo, o puede optar por tomar cursos de tiempo parcial o independientes. Tendrá que presentar una solicitud y el proceso incluye un ejercicio técnico, pero es más para medir su nivel actual y ver si tienes el potencial para tener éxito en el área. Los cursos, la matrícula y la disponibilidad varían para los cursos de tiempo completo y de medio tiempo, y dependerán de la ubicación que elija. Insight Insight ofrece un programa de becas de 7 semanas destinado a posgraduados para ayudarlos en la transición de la academia al mundo profesional. Los cursos se ofrecen en Silicon Valley, Boston y Nueva York, todos centros importantes para la ciencia de datos. El programa ofrece aprendizaje con proyectos, trabajando directamente con profesionales de la industria para ayudarle a construir su red y obtener una entrevista de trabajo una vez que el curso haya sido completado. Poseen un programa de becas, donde los aceptados asistirán de forma gratuita, pero los requisitos para aplicar incluyen experiencia en la física, astrofísica, matemáticas, estadística, bioinformática, ingeniería, computación o neurociencia, así como un título de doctorado. K2 Data Science K2 Data Science ofrece programas en línea, talleres y seminarios web en ciencia de datos y análisis de datos. Los programas incluyen un plan de estudios basado en videos combinado con tareas, proyectos guiados, tutorías individuales y la finalización de una cartera digna de empleo. Incluso incluyen orientación profesional para ayudarle a actualizar su currículum, cartas de presentación, perfil de LinkedIn y portafolio de GitHub. Los programas de ciencia de datos están enraizados en Python, con un enfoque en la ciencia de datos y algoritmos de aprendizaje automático. La matrícula varía según el programa que elija, pero comienza en alrededor de USD$ 3.000 y hay becas disponibles para los estudiantes que califiquen a ellas. Vea después: ¿Cómo explotar sus habilidades de desarrollador? Springboard Los cursos de Springboard son completamente en línea y se enfocan en enseñar habilidades demandadas para preparar su carrera para el futuro. Hay cursos para cada nivel de capacitación, desde el inexperto hasta el profesional experimentado. Tendrá acceso a la comunidad de Springboard, un mentor, un entrenador de carrera y un asesor estudiantil. Con un enfoque centrado en la experiencia práctica que se aplicará a situaciones del mundo real, Springboard desea ayudarle a crear un portafolio que impresionará a los reclutadores. Los cursos intermedios y de nivel básico cuestan USD$499 por mes, y la mayoría de los estudiantes completan el curso en dos o cuatro meses. La carrera profesional de Data Science, que cuesta USD$4.800, también viene con una garantía de trabajo, que promete un trabajo al finalizar el programa. General Assembly General Assembly ofrece cursos, talleres y eventos a tiempo completo y a tiempo parcial en persona y en línea, y el número de ciudades donde se ofrecen cursos en persona sigue aumentando. El catálogo completo del curso es extenso, y hay un programa para cada habilidad relacionada con la ciencia de datos que pueda imaginar. Los cursos van desde intensivos de una semana hasta programas de inmersión total de 10 a 13 meses, pero es fácil encontrar algo que se adapte a su agenda y presupuesto. El costo de los cursos varía según lo que elija, pero General Assembly ofrece uno de los catálogos de cursos más completos de esta lista. Ya sea que se haya graduado recientemente, esté buscando cambiar de trabajo o que sea un científico de datos experimentado que intenta expandir sus habilidades, aquí conseguirá el curso que mejor se adapta a usted. #actualizaciónprofesional #campamentos #cienciadedatos

  • 10 errores en la nube que pueden hundir su negocio

    CIO Los optimistas disfrutan diciendo que el sol siempre brilla sobre las nubes. Lo que no mencionan es que debajo de las nubes a menudo hay fuertes vientos, aguaceros torrenciales, relámpagos y ocasionales lluvias de granizo del tamaño de una pelota de golf. Lo mismo es cierto con la computación en la nube. En el lado soleado, ofrece una variedad de beneficios, que incluyen la promesa de mayor fiabilidad, flexibilidad, capacidad de administración y escalabilidad. Mira hacia abajo y verás el lado oscuro, un lugar donde un solo error, descuido o mal cálculo puede llevar a una catástrofe total. Si desea garantizar una transición a la nube que traiga beneficios a su empresa en lugar de tinta roja y demandas judiciales, evite estos 10 errores comunes. Lea después: 6 tendencias que marcan las estrategias de computación en la nube 1.Moverse a la nube sin una estrategia de gobernanza y planificación Es absolutamente simple aprovisionar recursos de infraestructura en la nube, y es tan fácil pasar por alto las políticas, la seguridad y los problemas de costos en los que se puede incurrir. Aquí, la gobernanza y la planificación son esenciales. “Si bien el objetivo es la gobernanza y la planificación, no es necesario abordarlo de una sola vez. Usa pequeñas iteraciones compatibles con la automatización, de esta manera, puedes abordar las tres áreas críticas de la gobernanza: monitoreo/gestión, seguridad y finanzas, para resolver rápidamente los problemas y remediarlos”, dijo Chris Hansen, líder en las prácticas de infraestructura en la nube de SPR Consulting, una firma consultora de tecnología. Un error relacionado no es comprender por completo quién dentro de la organización es responsable de las tareas específicas con la nube, como la seguridad, las copias de seguridad de datos y la continuidad del negocio. “Cuando algo sale mal y estas cosas no se han resuelto, las empresas podrían encontrarse en una situación realmente difícil”, señaló Robert Wood, director de seguridad de SourceClear, un proveedor de plataformas de automatización de la seguridad. A medida que las expectativas de los clientes se elevan, está claro que uno de los mayores desafíos a los que se enfrentan las organizaciones actuales es mover el foco de los productos y enfocarse en la experiencia del consumidor. 2.Creer que cualquier cosa puede ir a la nube A pesar del gran progreso realizado en los últimos años, muchas aplicaciones aún no están preparadas para la nube. Una empresa puede dañar seriamente el rendimiento de una aplicación, la experiencia del usuario y las ventas si envías algo a la nube que no está totalmente preparado o requiere una integración compleja con sistemas heredados, mencionó Joe Grover, socio de LiquidHub, un especialista en compromiso del cliente digital. 3.Tratar a la nube como un centro de datos local Un error costoso que muchas empresas cometen es tratar su entorno en la nube como un centro de datos local. “Si tomas ese camino, tu empresa terminará enfocándose en el análisis del costo total de propiedad (TCO) para tomar decisiones cruciales sobre la migración”, indicó Dennis Allio, presidente del grupo de servicios de tecnología en la nube para el integrador de tecnología Workstate. Si bien los servicios en la nube pueden generar ahorros drásticos en los costos, también requieren un proceso de administración de recursos completamente diferente. Considere, por ejemplo, mover un servidor de una sola aplicación a un centro de datos a la nube. “Un análisis de TCO adecuado tendrá en cuenta cuántas horas al día el servidor estará en uso”, comentó Allio. Para algunas compañías, un servidor puede ser usado solo durante el horario comercial normal. En un centro de datos, dejar un servidor encendido 24 horas al día, 7 días a la semana, agrega solo un ligero costo adicional a la factura de servicios públicos de la instalación. Pero en la nube, los usuarios generalmente pagan por hora. “Su análisis de TCO en la nube probablemente asume ocho horas por día de uso de la nube, lo que puede traer una sorpresa no deseada, con un costo potencialmente triplicado, si tu grupo de administración de sistemas en la nube no incluye procesos para apagar esos servidores cuando estos no están en uso”, agregó Allio. 4.Creer que el proveedor de servicios en la nube se encargará de todo Los proveedores de servicios en la nube (CSP) de primer nivel suministran a todos los clientes, independientemente del tamaño, capacidades operativas equivalentes a un equipo de TI de Fortune 50, expresó Jon-Michael C. Brook, autor y consultor que actualmente es copresidente del grupo de trabajo para amenazas de seguridad en la nube de Cloud Security Alliance. Sin embargo, con base en el modelo de responsabilidad compartida , los CSP son responsables solo de lo que pueden controlar, principalmente los componentes de la infraestructura de servicio. Muchas tareas, particularmente implementar, mantener y hacer cumplir las medidas de seguridad, se dejan al cliente para que las proporcione y administre. “Tomate el tiempo para leer las mejores prácticas en la nube que estás implementando, sigue los patrones de diseño de la nube y comprende tus responsabilidades. No confíes en que tu proveedor de servicios en la nube se encargará de todo”, aconsejó Brook. 5.Suponer que “levantar y cambiar” es la única ruta clara de migración a la nube Las ventajas de los costos de la nube pueden evaporarse rápidamente cuando se toman decisiones estratégicas o arquitectónicas deficientes. Una transición de “levantar y cambiar” en la nube de (simplemente cargando imágenes virtualizadas de sistemas internos existentes en la infraestructura de un CSP) es relativamente fácil de administrar, pero potencialmente costoso, ineficiente y arriesgado a largo plazo. “El enfoque de levantamiento y cambio ignora la escalabilidad elástica para aumentar y disminuir la demanda. Puede haber sistemas dentro de un diseño que sean apropiados para ser una copia exacta, sin embargo, colocar toda una arquitectura empresarial directamente en un CSP sería costoso e ineficiente. Invierte el tiempo de anticipación en rediseñar tu arquitectura para la nube y te beneficiarás enormemente”, concluyó Brook. 6. Fallar a la hora de monitorear el desempeño del servicio No evaluar regularmente el servicio en la nube que realmente se recibe contra las expectativas planificadas es una forma rápida de desperdiciar dinero y degradar las operaciones comerciales esenciales. “Una organización debe revisar periódicamente los indicadores de rendimiento clave establecidos y tomar las medidas adecuadas para manejar las desviaciones reales y potenciales de los resultados planificados”, dijo Rhand Leal, analista de seguridad de la información de la consultora de estándares globales Advisera Expert Solutions. 8.Asumir que el personal de TI existente puede manejar de inmediato una migración a la nube Azure, AWS y todas las demás plataformas en la nube son radicalmente diferentes de los días de una red interna plana que puede ser administrada por casi cualquier persona, “incluso el sobrino del CEO”, indicó Chris Vickery, director de investigación de riesgos cibernéticos de UpGuard, proveedor de servicios de evaluación de seguridad cibernética. “Si no hay un presupuesto para contratar a alguien especializado en administración en la nube, debería hacer una inversión de tiempo considerable para capacitar al personal de TI, antes de mover cualquier bits o ciclos de computación hacia una solución en la nube”, añadió Vickery. La ignorancia de la nube puede conducir fácilmente a una catástrofe de seguridad. Vickery afirmó que ha descubierto cientos de millones de registros comerciales confidenciales procedentes de empresas que no tenían idea de que estaban exponiendo sus datos al Internet público. “Si un actor malintencionado hubiera tenido acceso a esta información, la gran mayoría de esas entidades podrían haber enfrentado de todo, desde la extorsión hasta comprometer completamente la red interna. Los ejecutivos pueden evitar este desastre potencial gastando un poco más en conseguir a la persona adecuada para hacer el trabajo o asegurándose de que el departamento de tecnología tenga suficientes conocimientos y servicios disponibles para hacer bien el trabajo”, dijo Vickery. 8. Confiar ciegamente en scripts automatizados Uno de los principales beneficios de pasar a un entorno basado en la nube es el aprovisionamiento y desaprovisionamiento automático de recursos informáticos. “En su mayor parte, las empresas se beneficiarán de cualquier tipo de automatización“, aclaró David R. Lee, director de operaciones de la firma de consultoría de TI, The Kastling Group. Sin embargo, los procesos automatizados que están mal escritos, que son demasiado complejos y no están bien documentados pueden llevar a tiempos de inactividad prolongados, lo que afecta significativamente las operaciones comerciales críticas. Realizar pruebas automatizadas para scripts automatizados en un entorno controlado y la capacitación de los empleados para la recuperación podrían ayudar a mitigar este riesgo. 9. Creer que la seguridad ya no es su problema Los servicios en la nube, en general, ofrecen una seguridad fantástica. Debido a que trabajan con todos los tipos posibles de compañías, piensan y resuelven problemas de seguridad que su propia empresa nunca enfrentará. Aun así, los CSP en general no hacen nada para corregir la mala administración del sistema de un cliente, procesos de desarrollo de software escabrosos o políticas de seguridad descuidadas. “Ese sigue siendo tu trabajo”, enfatizó Allio. Si Equifax hubiera migrado su aplicación a un servicio gestionado en la nube, esos parches habrían sido automáticos y habrían detenido la violación de seguridad. Esta falla al implementar incorrectamente los servicios en la nube puede dejar brechas en la seguridad. Vea luego: Soluciones en la nube, un atractivo en la transformación digital 10. Descuidar la continuidad del negocio y los planes de recuperación de desastres Todo lo que se pone en la nube está 100% seguro, ¿verdad? Bueno, no siempre. Si bien es cierto que los proveedores más grandes de la nube crean infraestructuras y servicios con porcentajes de tiempo de actividad que superan con creces los niveles que la empresa promedio puede lograr, eso no significa que sean inmunes a las interrupciones causadas por los sistemas y personas. “Si tiene procesos críticos para la empresa que se ejecutan en la nube, prepárese para manejar el tiempo de inactividad”, advirtió Tim Platt, vicepresidente de servicios empresariales de TI para Operaciones Virtuales, una firma de consultoría de TI. Incluso en la nube, el tiempo de actividad puede desaparecer rápidamente. El servicio de almacenamiento simple de Amazon (S3), por ejemplo, experimentó una interrupción importante en febrero de 2017 causada por un error de escritura simple. Muchos servicios en la nube ofrecen opciones automáticas de respaldo y recuperación. Pero no debe darse por hecho.  ¿Qué pasaría si un hacker malintencionado o un administrador de sistema disgustado borrara datos críticos? ¿Cómo se recuperaría?  ¿Existen mecanismos de respaldo adecuados? Todas las consideraciones que se aplican a los sistemas locales también se aplican a los sistemas basados ​​en la nube. #errores #negocio #nube

itnow-03.png

© Derechos reservados

Connecta B2B - 2025

Políticas de privacidad

ACERCA DE NOSOTROS

IT NOW es un espacio multiplataforma y un núcleo para conectar negocios que se compone de varios elementos: su sitio web con noticias de TI relevantes en la región, un newsletter semanal, su multiplataforma de redes sociales, por último, sus eventos enfocados en las verticales de TI y en donde destaca el aclamado Tech Day, la gira de actualización tecnológica más importante de la región.

24 / 7 Actualizaciones en nuestras Redes Sociales
  • Facebook
  • Instagram
  • LinkedIn
  • YouTube
  • X
  • RSS
bottom of page