Resultados de la búsqueda
Se encontraron 7820 resultados sin ingresar un término de búsqueda
- Las 10 compañías top en el ámbito de las redes empresariales
Este es el análisis de Network World sobre las compañías de redes empresariales más poderosas; fundamentado con investigación propia, consultas a analistas de la industria y el trabajo de periodistas internos. Aquí se entenderá el término “poder” como la participación en las áreas clave de las redes corporativas del mercado, específicamente, las redes centrales, monitoreo, administración y WLAN. Estas son las 10 compañías top en el ámbito de las redes empresariales 1. Cisco Cisco sigue siendo el mayor actor individual en las redes empresariales, y la brecha no es particularmente pequeña. La compañía ofrece una ventanilla única para adquirir casi cualquier cosa que se pueda necesitar para la red y se asegura de que sus productos funcionen bien entre ellos. Aunque es posible que no funcionen tan bien con las herramientas de otras empresas y algunos de los precios pueden asustar, Cisco sigue teniendo una base tecnológica fuerte y confiable, y es la compañía a vencer en las áreas más importantes de las redes empresariales. A principios de 2017, adquirió la firma de análisis datos Saggeza, el competidor en SD-WAN, Viptela, y ganó una batalla legal con su rival Arista por una demanda de patentes. Actualmente mantiene una participación del 60% en el mercado de enrutamiento y conmutación, de acuerdo con las cifras más recientes de IDC. Aunque posee desafiantes en muchos frentes, nadie puede pretender ofrecer la misma amplitud de soluciones que el gorila de 800 libras de redes empresariales que es Cisco. Lea también: Redes empresariales: ¿wireless o cableado? 2. HPE / Aruba Aruba es el nombre más grande, aparte de Cisco, en el espacio de LAN inalámbrica, y la única compañía que ocupa la sección de “líderes” del último informe Magic Quadrant de Gartner Research para la infraestructura LAN alámbrica e inalámbrica. Esta empresa, adquirida por HP meses antes de que la compañía se dividiera en dos entidades a fines de 2015, ahora es el brazo inalámbrico de HPE. El exdirector ejecutivo de esta compañía, Dominic Orr, bromeó diciendo que Aruba realmente adquirió HP Networking , y no al revés. Según Gartner, representa alrededor del 20% de los ingresos en el ámbito de las redes inalámbricas a nivel mundial. Últimamente, Aruba ha estado presionando en el mercado de conmutación de núcleo, lanzando un nuevo hardware para su sistema operativo ArubaOS-CX, que se presenta como una solución todo en uno para la visualización y administración para empresas con redes cada vez más enfocadas en el Internet de las Cosas. La corporación se ha asociado con el instituto de transporte Texas A&M para un proyecto de seguimiento y optimización del flujo de tráfico, que afectará a 7.5 millones de transeúntes anuales del campus de College Station. La incursión en el mercado de conmutadores básicos podría afectar radicalmente la trayectoria de Aruba, aunque es improbable que su posición en el mercado WLAN cambie como resultado de ello. Aun así, las noticias recientes de IDC de que la participación de mercado de la compañía se redujo en su último informe trimestral, en un período en el que creció el mercado mundial de WLAN, podría ser motivo para preocuparse ligeramente. 3. Juniper Juniper es uno de los dos líderes de Cisco en el sector de redes de centros de datos. Sus soluciones de centros de datos están muy bien integradas, bien hechas y, en general, se cree que funcionan mejor que Cisco con los productos de terceros. Juniper fue más rápido en la adopción de redes de malla y otras topologías de red de nueva generación, y el software de la compañía es particularmente bien considerado, tendiendo a marcos abiertos que se integran sin problemas con otras partes de la red. La empresa contrató a un nuevo director de tecnología, el ex trabajador de Google, Bikash Kolay, y anunció que había superado sus objetivos de ganancias para el segundo trimestre del año 2017. En 2016 esta corporación registró un crecimiento anual de 3.5% en el mercado de switching y enrutamiento, según IDC. La compañía perdió una pequeña cantidad de participación en el mercado durante este año, pero su trayectoria parece ascendente, y los analistas creen que Juniper está bien posicionada para tener éxito en el cambiante mercado de las redes empresariales. 4. Huawei La gigante asiática llega a muchos segmentos en el mercado de las redes empresariales, desde la red principal hasta la WLAN y WAN. (También hace básicamente de todo, incluidos teléfonos inteligentes y tabletas.) La presencia de la compañía en los EE. UU. ha estado un poco limitada debido a asuntos sobre la seguridad de sus productos y su relación con el gobierno chino, pero no existen tales limitaciones en muchos otros mercados alrededor del mundo. Huawei ocupa el segundo lugar detrás de Cisco en el mercado del switching y el enrutamiento, y está en tercer lugar detrás de Cisco y HPE/Aruba en WLAN. Así que ciertamente parece estar bien encaminada. También está abriéndose camino en la inteligencia artificial gracias a sus propiedades en la fabricación de chips. Su participación en el mercado WLAN creció un 77% entre 2015 y 2016, de acuerdo con las últimas cifras disponibles de IDC. 5. Arista Arista está muy concentrada en las redes de centros de datos y es una de las principales compañías del mundo en esa área. Es la única empresa que comparte el cuadrante de “líderes” con Cisco en el enrutamiento básico y el cambio de Magic Quadrant de Gartner, y dentro de ese espacio, sus ofertas son diversas y flexibles. Sin embargo, el tema ácido de Arista es un caso legal por infracción de patente presentado por Cisco, el cual no está resultando muy bien para Arista. No va a arruinar la empresa ni nada por el estilo, pero es una mancha bastante seria en su imagen pública y un dolor de cabeza para el diseño de sus productos. 6. VMware Hay una buena base para afirmar que la virtualización y los productos en la nube de VMWare son algunas de las cargas de trabajo de red más importantes que existen, y que la compañía, propiedad de Dell / EMC desde finales de 2016, se encuentra entre las más influyentes del mundo en el sector de redes empresariales. Sin embargo, con su producto de virtualización de red NSX, VMWare también actúa directamente como promotor en las redes definidas por software. Compatible con la mayoría del hardware de gran renombre, NSX permite a los usuarios administrar múltiples entornos de nube desde una única consola. Esta herramienta puede tener sus detractores, a muchos administradores de redes a nivel de campo no les gusta, ya que es difícil ver lo que sucede en una superposición virtual, pero también tiene aplicaciones de seguridad , y la base de usuarios podría crecer. VMWare amplió sus posibles casos de uso para NSX en febrero de 2017 mediante el despliegue de NSX-T 1.1, una versión del software que funciona con entornos de virtualización y nube no propios de VMWare. Las cifras de IDC muestran que VMWare genera alrededor USD$ 646 millones en ingresos anuales por su software de sistemas de administración en la nube, casi el doble que IBM, su competencia más cercana. 7. Riverbed Riverbed, gracias en parte a una serie de adquisiciones y fusiones de larga data, es el líder de importantes áreas secundarias de productos de redes, en particular, optimización de WAN y gestión del rendimiento de las aplicaciones. Recientemente se ha centrado en la integración de un grupo diverso de herramientas de gestión y visualización en un conjunto lógico, y en la ampliación de esas capacidades en algo más que una agrupación de herramientas de red auxiliares. La última adquisición de la compañía, Xirrus, fabricante de equipos inalámbricos de punta, señala un cambio agresivo de dirección, con ejecutivos de Riverbed haciendo ruidos belicosos sobre desafiar a Cisco en ciertos mercados WLAN en un evento de la compañía en abril de 2017. Desde que en 2015 se firmó un acuerdo público en el que la firma de valores Thomas Bravo compró Riverbed por unos USD$ 3.600 millones, la corporación no ha revelado cuánto pagó por ninguna de sus numerosas adquisiciones. El movimiento de Riverbed para trabajar en LAN y WAN es ambicioso, como lo es la retórica reciente de la compañía, pero eso no está comprobado en este nuevo mercado, y solo el tiempo lo dirá con certeza. 8. Netscout NetScout es una compañía de monitoreo y diagnóstico de rendimiento de red con una gran presencia en los segmentos de grandes empresas y proveedores de servicios. Todavía está pasando por una consolidación, dado el acuerdo de 2015 que combinaba la compañía con Fluke Networks, Arbor Networks y VSS Monitoring, en una complicada fusión. Esta agrupación tiene una gran presencia en el mercado de monitoreo y diagnóstico del rendimiento de la red (NPMD, por sus siglas en inglés), y es uno de los principales proveedores de centros de datos a hiperescala. Es uno de los tres líderes en el Cuadrante Mágico de NPMD más reciente de Gartner. También anunció que alcanzó un hito en la integración de su plataforma de información en tiempo real con la herramienta de análisis de amenazas de Arbor, fortaleciendo su monitoreo de red y sus capacidades de seguridad. Gartner indicó que NetScout tiene los mayores ingresos de NPMD en el mercado, entre USD$ 500 millones y USD$750 millones por año. Esta es una compañía con una gran base de usuarios y mucha tecnología considerable. Todavía necesita avanzar en la integración, pero su futuro parece bastante sólido. 9. Extreme Networks Extreme Networks es, de repente, una empresa con una cartera de productos impresionantemente para las redes empresariales. Después de comprar el negocio de centros de datos Brocade de Broadcom , hacerse con el negocio de redes de Avaya y adquirir el sector de LAN de Zebra Technologies en 2016, la conmutación y el enrutamiento existentes de esta empresa ahora constituyen una sorpresa en la escena de las redes empresariales. La adquisición antes mencionada del negocio de enrutamiento básico de Brocade es algo difícil de superar. Extreme pagó USD$100 millones por la adquisición recién cerrada del negocio de redes centrales de Avaya. No se pierda: Corero Network Security y Webroot lanzan solución para la defensa de redes empresariales 10. Dell / EMC Aunque es algo inusual para una empresa tan antigua, Dell es reconocido como un “visionario” en las redes de centros de datos según el último informe Magic Quadrant de Gartner, un hecho que tiene mucho que ver con la bienvenida de la compañía a los estándares abiertos y al hardware y software altamente interoperable. Si bien el hardware de la compañía puede no tener la misma reputación que algunos de sus competidores, el hecho de que se pueda ejecutar una amplia gama de software diferentes significa que hay una gran flexibilidad; una propuesta de valor sólida para los usuarios que buscan adoptar más tecnologías de red virtualizadas. Muy adecuado para una empresa que también posee VMWare técnicamente, aunque esta última empresa todavía opera con un alto grado de independencia. Dell recientemente reforzó su programa de socios, algo que Gartner citó como una debilidad potencial. La compañía recaudó USD$67 mil millones para EMC, que todavía es en gran parte propietaria de VMWare. Dell está utilizando tanto sus inversiones en VMWare como su propio equipo de redes abiertas para ofrecer una opción atractiva a las empresas que desean acceder a tecnologías avanzadas como la de las infraestructuras hiperconvergentes. #mejoresempresas #redesempresariales #top10
- La salud y la industria 4.0
Jose Durán La industria 4.o está cambiando la manera en que se realizan muchas cosas actualmente. Con ayuda de tecnologías en la nube, big data, Internet de las Cosas (IoT) e Inteligencia Artificial (IA), se están automatizando procesos y reduciendo costos operativos. El sector salud no queda exento de esta revolución industrial, pues técnicas como la telemedicina buscan romper las barreras que enfrentan decenas de países con escasez de personal médico. “Se podrá acceder a historiales médicos de manera inmediata, el monitoreo de pacientes crónicos se hará más sencillo por el uso de wearables que suben su información a la nube en tiempo real, los médicos podrán realizar consultas de manera remota y los equipos médicos se operarán desde dispositivos móviles”, explicó Marisol Capetillo, directora de VERSE Technology. Lea también: Industria 4.0: el futuro ya es el presente Actualmente ya se vislumbran las primeras innovaciones de este tipo, como el uso de IA para la búsqueda de alteraciones moleculares y la implementación de tratamientos de última generación, o la impresión biológica 3d, que permite crear células madre o tejido de piel. Capetillo afirmó que tan sólo en India, IBM Watson redujo en un 78% el tiempo necesario para la aplicación de estudios de detección del cáncer, coincidiendo en un 90% de ocasiones con el consejo de especialistas de Highlands Oncology Group y Novartis. Por otra parte, proyecciones a futuro de IDC indican que el uso de la tecnología en consulta cara a cara utilizará redes de datos y capacidades cognitivas para hacer pre-diagnósticos, lo que disminuiría para el año 2020 en un 30% el tiempo de consulta de los médicos. “Cada día vemos más desarrollo de aplicaciones tecnológicas capaces de mejorar la eficiencia de los servicios sanitarios, manteniendo al mismo tiempo el cumplimiento y la seguridad de los datos, y la calidad de la atención médica”, expresó Capetillo. Se espera que en la próxima década se efectúe una mayor apertura y adopción de tecnologías IoT. Según la consultora Mckensey& Co, el uso de Internet de las Cosas en el sector salud permitirá un ahorro de USD$63 mil millones, a nivel mundial, en costos y gastos médicos durante los próximos quince años. #industria40 #Inteligenciaartificial #Internetdelascosas #sectorsalud
- ¿Cuáles son los 4 navegadores web del momento?
CIO El navegador web es, por mucho, el software más importante de una PC, al menos para la mayoría de los usuarios. A menos que se esté en una estación de trabajo machacando números o editando la próxima Guerra de las Galaxias, es probable que pase la mayor parte de su tiempo en la computadora mirando una aplicación o un sitio web. Por eso, es importante asegurarse de tener la mejor herramienta para realizar el trabajo diario. Aunque hay muchos que continúan usando Internet Explorer o la versión mejorada Edge, es difícil no verse tentado por otras opciones, como Chrome de Google, Mozilla Firefox y Opera. A continuación se analizarán los cuatro navegadores principales (y modernos) para ver cómo se desempeñan. Recientemente Microsoft lanzó la actualización Fall Creators, que pareció tener un impacto significativo en los resultados de su navegador. Sin embargo, la motivación para este artículo es el lanzamiento de Firefox 57, también conocido como Firefox Quantum. El navegador modificó su interfaz y se supone que es dos veces más rápido, usando un 30 por ciento menos de memoria que Chrome. No olvide leer: La competencia entre los navegadores web El actual campeón del mundo, Google Chrome, encabeza los gráficos en StatCounter y NetMarketShare por un amplio margen. El navegador de Google ha creado una base de admiradores importante gracias a su enorme biblioteca de extensiones, y al hecho de que permite al usuario centrarse en el contenido web y no en los adornos del explorador. Chrome no es tan simple como lo era antes, pero sigue siendo muy fácil de usar. No tiene mucho más que una gran barra de URL, conocida como OmniBar, más un espacio para extensiones, un icono de marcadores, pestañas, y eso es todo. Sin embargo, Google aún encuentra una manera de ocultar todo tipo de características dentro del navegador, incluida una integración profunda con los servicios de Google. Esto permite sincronizar marcadores, contraseñas y pestañas abiertas en todos los dispositivos. Chrome también posee un soporte para múltiples cuentas en caso de contar con una computadora familiar, un visor de PDF, Google Traductor incorporado, un administrador de tareas y el siempre práctico menú contextual con su opción de pegar y buscar. Si hay una queja que las personas tienen sobre Chrome, es que consume mucha memoria disponible. Para los usuarios que aman la extensibilidad pero desean mayor privacidad, el navegador de código abierto, Mozilla Firefox, es una gran opción. Firefox allanó el camino para que otros exploradores se hicieran extensibles, y se espera que la nueva arquitectura de extensiones de Firefox haga que el catálogo pronto iguale a la tienda web de Chrome. También tiene una función de sincronización que permite ver las pestañas abiertas y recientes, el historial de navegación y los marcadores de todos los dispositivos vinculados. Firefox 57 trae un diseño nuevo y actualizado, con íconos modernos, una sección que contiene el historial, la lista de lectura, las descargas y las pestañas sincronizadas. También hay una útil herramienta para la captura de pantalla. Donde realmente ha brillado esta herramienta en los últimos años es en el modo incógnito del explorador .Todos los navegadores tienen un modo privado que permite navegar sin que ninguna actividad quede registrada en el historial; no obstante, la mayoría de las veces estos modos privados aún permiten que los sitios web rastreen la actividad para esa sesión específica. Firefox elimina esto al incluir bloqueadores de anuncios y rastreadores cuando se usa el modo incógnito. Antes de Chrome, Opera era una opción popular entre los usuarios avanzados, una posición que el exdirector ejecutivo de Opera, Jon Stephenson von Tetzchner, intenta recuperar con Vivaldi. Hoy, Opera es uno de los navegadores más subestimados. Se basa en las mismas tecnologías básicas que Chrome (el motor de renderizado Blink y el motor JavaScript V8), lo que significa que puede ejecutar muchas extensiones de Chrome; incluso hay una para instalar extensiones desde Chrome Web Store. Opera también tiene algunas características inusuales como Turbo, que ahorra tiempo en la carga y ancho de banda al comprimir páginas web en sus servidores. También tiene una buena característica de seguridad llamada resaltado de dominio, la cual oculta la mayor parte de la URL para que los usuarios puedan ver de manera fácil y clara si están en Google.com o google.com.scam.com, siendo scam.com el sitio web real. Más recientemente, introdujo la barra lateral social con acceso a servicios como WhatsApp, Facebook Messenger y Telegram. Al igual que Chrome y Firefox, Opera también tiene su propia función de sincronización entre dispositivos. En el caso de Microsoft Edge, su biblioteca de extensiones es pequeña pero está en crecimiento. Su funcionalidad de sincronización todavía está restringida a favoritos y lista de lectura, y no recibe las actualizaciones de manera rápida, aunque eso puede cambiar ahora que Microsoft puede actualizar Edge por separado de Windows. Vea también: Los navegadores más peligrosos de la web A pesar de sus deficiencias, Edge tiene varias funciones útiles que atraerán a algunos. Está profundamente integrado con las capacidades enlace de Windows 10, así como con OneNote, por lo que es fácil recortar una página web, anotarla y guardarla en una computadora portátil. Cortana también es una gran parte de este explorador. Puede usar el asistente digital de Microsoft para buscar rápidamente información, comparar precios u obtener un cálculo rápido. También hay una función de pestañas ingeniosas para guardar una colección de sitios web, la capacidad de leer libros electrónicos (ideal para tabletas) y una nueva página de pestañas estilo MSN.com. En la Actualización Fall Creators, Edge recibió varias funciones nuevas, incluida la capacidad de anotar archivos PDF y libros electrónicos, fijar fácilmente sitios web en la barra de tareas, editar URL en sus favoritos, navegar en pantalla completa, ver y administrar permisos del sitio web, y también la herramienta de “leer en voz alta” para el contenido web. Sin embargo, la mejor característica es la opción “Continuar en la PC”, que permite enviar páginas web a la computadora desde el teléfono por medio de una aplicación. #web #mejores #explorador #navegador #cuatro
- El valor de tecnologizar la seguridad
Juan José López Torres @jjlopezt Aunque parezca un cliché, la tecnología no es el fin último sino una herramienta que permite a las organizaciones asegurar la calidad de los servicios, eficientar su gestión y brindar a los usuarios lo que ellos esperan. En ese sentido, una solución de videovigilancia no solo impacta en los costos de adquisición frente a la asignación de personal en territorio sino en la maximización de la eficiencia en la gestión municipal, la seguridad pública y el tráfico vehicular, entre otros aspectos. Tecnologizar la seguridad va más allá de solo modernizarse, implica que el costo-beneficio se vea en la mejoría de condiciones para la vida en una ciudad inteligente. “Si se decide llevar a cabo un proyecto, es importante no comparar precios. Si la justicia tiene imágenes de mala calidad, no puede aplicar las sanciones correspondientes. Por eso es que en (el municipio de) Vicente López tratamos de tener los mejores productos, porque el costo total de la propiedad no es solamente la compra de la cámara, sino el resto de los costos asociados a ella”, según Santiago Espeleta, secretario de seguridad del municipio bonaerense. Las cámaras, los sensores y otras tecnologías aumentan la habitabilidad y mejoran la gestión de la ciudad en la reducción de los índices de delincuencia para la protección de sus habitantes. En ese sentido, Axis Communications postula que sus cámaras rentabilizan la inversión en seguridad y transforman las investigaciones en seguridad proactiva en tiempo real. “Con las cámaras de Axis y su experiencia fruto de la colaboración con otros socios, que incluye el ámbito del reconocimiento facial e incluso la detección mediante drones, las autoridades de la ciudad pueden identificar automáticamente los incidentes y gestionar los acontecimientos desde el momento en que se producen”, según la marca. Al tecnologizar la seguridad, se protege de manera más efectiva a los ciudadanos y las instalaciones de una ciudad, mejora su imagen, se disuade a los delincuentes y se reducen los gastos de reparación, pero sobre todo, se reduce el tiempo de las investigaciones criminales ya que los dispositivos de última generación producen imágenes de mayor calidad. La edificación de una ciudad inteligente y segura es posible llevarla por etapas, tal como ocurrió con el municipio de Vicente López, que requirió de cinco años para crear un plan para el manejo inteligente del espacio urbano y cuenta con un sistema de videovigilancia digital que, entre otras cosas, monitorea las rutas escolares con cámaras de visión de 360 grados. “Excedió nuestras expectativas porque comenzamos a tener cámaras de calidad, imágenes de calidad y buen rendimiento. No tuvimos fallas en las cámaras”, concluyó Martín Gasulla, subsecretario de seguridad del municipio. Los equipos también permiten realizar grandes acercamientos sin perder la definición ni los detalles a larga distancia, y las instaladas en paradas de buses son resistentes a los cambios del tiempo, las condiciones de luz y, en especial, los actos vandálicos. Visite estos enlaces relacionados Ciudades más pobladas requerirán más seguridad Vicente López, una de las primeras smart city Anatomía TIC de una smart city segura #smartcity #ciudadesseguras #securecity #ciudadesinteligentes #cámarasdevigilancia #videovigilancia
- El poder no aprovechado de las redes sociales
Jose Durán (@mradler1) En diciembre de 2017 Costa Rica fue sede de la presentación del 7mo Estudio de Redes Sociales en Centroamérica y el Caribe, efectuado por la empresa iLifebelt, el cual arrojó importantes resultados sobre el comportamiento, el alcance y el poder que ofrecen estas plataformas en la región. Dentro de las principales conclusiones se destaca lo poco que las compañías sacan provecho de estas herramientas para acercarse a su audiencia y conocerla más a profundidad. “Con las redes sociales yo no sólo sé cómo es el consumidor a través de las cosas que pone me gusta, sino que también sé cómo es por medio de lo que comenta, donde hace check-in, el tipo de temas que busca; entonces, esto se vuelve como una gran base de datos de información para las marcas pero que muy pocas están aprovechando”, comentó Jose Kont, científico de datos especializado en comunicación digital de iLifebelt y expositor del estudio. Kont también mencionó lo poco que saben las marcas sobre el formato que deben usar en sus publicaciones para tener un mayor rendimiento. En la mayoría de los casos estas se reducen a texto y fotografías, dejando de lado los vídeos. Estos últimos ofrecen un atractivo más grande para los usuarios. “El futuro del contenido está relacionado a realidad aumentada, virtual, vídeos, live streaming y story telling. Estos formatos funcionan súper bien, tiene más prestaciones y ventajas, y las marcas hasta ahora los están adaptando. Otra gran tendencia que vemos y viene con muchísima fuerza son las historias, en Whatsapp e Instagram”, agregó Kont. Por último, el experto recomendó poner mayor énfasis en Instagram, pues actualmente es la red social que mayor alcance orgánico ofrece, a diferencia de Facebook que ya pasó a ser un sitio más mediático. #empresas #redessociales #poder #alcance #usuarios
- Aumentan servicios en soporte técnico en la región para 2018
A mediados de diciembre Johnson Controls, una compañía global pero de origen estadounidense, inauguró su centro de operaciones para soporte de ventas en Costa Rica con el objetivo de expandir sus servicios en la región centroamericana. La empresa pretende otorgar distintos servicios como: Consultoría en materia de diseño en ingeniería eléctrica y mecánica, diseño de redes para telecomunicaciones, servicios de sustentabilidad y gestión de proyectos durante el proceso de diseño de ingeniería. Leer más: ¿Existe el software coreano para las elecciones de El Salvador 2018? Igualmente, el objetivo principal de su arribo al país centroamericano es poder colaborar con las empresas de los países vecinos pero también generará empleos en el mercado costarricense, lo que se traduce una mayor capacitación técnica del personal en el país. Por otro lado, Johnson Controls es una empresa que maneja oficinas en 150 países, además, la organización posee un plan de inversión que pretende duplicar su capacidad de soporte en ventas para 2020 y de la misma manera trabajar bajo las regulaciones de las zonas francas de Costa Rica en corto plazo . #consultoría #Infraestrucutra #servicios #soportetécnico
- 10 startups que apuntan a iniciativas de TI actuales
CIO Las empresas nuevas siempre han desempeñado un papel crucial en las carteras de TI. Por mucho que a los CIO les gustaría centralizar las decisiones de compra de tecnología con un puñado de socios estratégicos, los titulares no siempre pueden satisfacer todas sus necesidades, especialmente cuando se trata de las tecnologías emergentes. Para familiarizarse mejor con las startups, muchos CIO viajan regularmente a Silicon Valley para participar en citas rápidas, en las cuales los capitalistas de riesgo los invitan a conocer a los miembros de sus portafolios. Algunos CIO realizan hackatones o competiciones estilo Shark Tank para que los desarrolladores externos intenten abrirse su camino hacia las gracias de la compañía. Otros aprenden sobre nuevas compañías prometedoras de sus pares. Conectarse con empresarios es la parte fácil; la parte difícil es tirar los dados en una startup que podría irse a la quiebra por una mala decisión comercial. Los CIO saben que no hay garantías, sin importar cuán sólido sea el pedigrí de los fundadores de una startup, cuántas salidas exitosas hayan disfrutado, o qué tipo de tecnología comercial tengan. CIO.com está aquí para ayudar, ofreciendo un vistazo a algunas nuevas empresas de tecnología que podrían impulsar su negocio digital. Spoke Los empleados de las grandes organizaciones se enfrentan a un catch-22. Sus empleadores se sientan en trozos de información, la mayoría en repositorios dispares, lo que dificulta el acceso. Spoke ha desarrollado una aplicación que los empleados corporativos pueden usar para consultar departamentos de recursos humanos, TI, ventas, marketing y otros. Los empleados pueden registrar una pregunta sobre beneficios de atención médica o ayuda de TI a través de SMS, correo electrónico de la aplicación web o un chatbot de Spoke que reside en Slack. Si la aplicación no puede responder a una consulta, alertará a un experto de dominio asignado, que responderá dentro de Spoke. Los algoritmos de aprendizaje automático de Spoke, a su vez, recordarán las respuestas y agregarán un elemento de curado humano a la herramienta. Jay Srinivasan, CEO de Spoke, dijo que esta idea surgió de la lucha por encontrar información corporativa interna en Google, a la que se unió en 2014 luego de vender su empresa Appurify en 2014. “Incluso en Google, como nuevo empleado en un equipo de 30 empleados, era difícil encontrar la forma de hacer las cosas básicas”, comentó Srinivasan a CIO.com .Eventualmente, Spoke trabajará con la herramienta xa de Amazon.com y otras más. Spoke ha recaudado USD$28 millones de Accel, Greylock Partners y otras firmas de capitales de riesgo. Confluent Los CIO realmente pueden encontrar interesante Confluent , una empresa de LinkedIn que se escindió para comercializar Apache Kafka , tecnología de código abierto que el fundador y CEO de Confluent, Jay Kreps, escribió en LinkedIn para negociar grandes cantidades de datos. Kafka es un servicio de mensajería de alta velocidad que ayuda a los ingenieros a reportar eventos en tiempo real. Kreps, quien habló sobre Kafka y Confluent en el evento Forbes Next CIO en octubre, describió a Kafka como el sistema nervioso central de una empresa. Confluent agrega seguridad, capacidad de administración y otras características para hacer que Kafka sea más amigable con las empresas. Kreps mencionó que muchas compañías de Fortune 500 usan el software para procesar y analizar grandes cantidades de datos, en particular en torno a grandes proyectos de IoT o en el uso de IA para automatizar las operaciones vehiculares. En marzo, Confluent recaudó una ronda de financiación de USD$50 millones liderada por Sequoia Capital y ha recaudado USD$81 millones hasta la fecha. Toptal Las empresas de todo el mundo luchan por encontrar y contratar talentos tecnológicos. Incluso obtener ayuda independiente de primer nivel es una gran tarea. Toptal coloca a las personas que ocupan roles altamente calificados, incluidos los ingenieros de software, diseñadores y profesionales de finanzas. El talento está ahí, pero ampliamente distribuido, dijo el CEO y cofundador de Toptal, Taso Du Val, en el evento de Forbes Next CIO. Toptal puede conectar, por ejemplo, a un ingeniero de software que vive en el Medio Oeste, con una compañía en Silicon Valley. “Creamos un servicio que lo hace a escala”, aseguró Du Val. Debido a que la satisfacción del cliente es crucial, Toptal emplea un arduo proceso de selección. En lugar de confiar en las pruebas automatizadas, el personal de Toptal examina el talento personalmente. Además, ofrece a los clientes un período de prueba de dos a cuatro semanas; si su ayuda independiente no funciona, no cobran. “Es importante que la persona tenga buenas habilidades de hardware y software”, explicó Du Val. Toptal es 100% virtual, con 400 empleados a tiempo completo repartidos por todo el mundo. Las posiciones calientes incluyen ingenieros competentes en aprendizaje automático, así como cualquier tipo de tecnología analítica y blockchain, dice Du Val Domino Data Lab La ciencia de datos es una de las disciplinas más populares. Para capitalizar eso, los ex empleados de Bridgewater Associates, Nick Elprin, Chris Yang y Matthew Granade, lanzaron Domino Data Lab, una plataforma de ciencia de datos. Su CEO, Elprin, habló en el evento Forbes Next CIO, y dijo que la plataforma sirve como un repositorio central para acelerar los modelos de entrega y darles gobernanza y transparencia a los proyectos de datos. Domino Data Lab trae el orden al caos y los bolsillos de diversas herramientas que existen en torno a la ciencia de datos. Dicha tecnología es importante ya que los CIOs buscan datos, análisis y aprendizaje automático para impulsar las predicciones comerciales y, en última instancia, las acciones. “Para mí, de eso se trata la ciencia de los datos. Se está combinando tecnología algorítmica con datos para hacer modelos predictivos”, argumentó Elprin. Domino Data Lab recaudó USD$27 millones en una ronda liderada por uno de sus clientes de fondos de cobertura, Coatue Management. Los inversionistas existentes; Sequoia Capital, Zetta Venture Partners y Bloomberg Beta también contribuyeron a la ronda, con lo que el monto total recaudado por la startup llegó a los USD$40.5 millones. Uptake General Electric (GE) ha hecho grandes progresos con Predix, una plataforma de análisis que analiza los datos generados por las máquinas industriales, como motores de locomotoras y turbinas de chorro, para predecir cuándo requerirán servicio o están en peligro de fallar, así como para optimizar la eficiencia del combustible y otras operaciones. Uptake apunta hacia el mismo mercado y ofrece una plataforma de software como servicio (SaaS) que hace recomendaciones a los clientes. Mientras que GE se ha enfocado en sus propias máquinas, Greg Goff, director de producto de Uptake, le indicó a CIO.com que la startup, que cuenta con más de 800 empleados, analiza los datos para mejorar las operaciones de las máquinas de cualquier fabricante, incluidos GE, Siemens y otros. GE ha estimado que este mercado vale miles de millones. Uptake ha recaudado USD$140 millones en fondos de Revolution Growth y GreatPoint Ventures. Harness.io La entrega continua de software sigue siendo un gran desafío en la floreciente era del desarrollo de operaciones. Jyoti Bansal, ex CEO de AppDynamics, la cual Cisco Systems adquirió por USD$3.7 mil millones a principios de este año, está intentando resolver ese problema con Harness.io. Saliendo del modo sigiloso en octubre, Harness.io tiene como objetivo automatizar el despliegue continuo de código, un principio central del desarrollo de operaciones. Bansal recurrió a Rishi Singh, ex arquitecto de la plataforma de desarrollo de operaciones en Apple, para la nueva empresa, aunque todavía necesita personal. De acuerdo con una publicación de Bansal en LinkedIn, “estamos buscando ingenieros senior/principales de software (infraestructura de punto final, sistemas distribuidos y aprendizaje automático) para mi nueva startup sigilosa. Envíame un mensaje en LinkedIn si estás interesado en saber más”. Harness.io se lanzó con USD$20 millones en fondos Serie A liderados por Menlo Ventures. Obsidian Security Otra startup con fundadores distinguidos es Obsidian Security, lanzada en junio por Matt Wolff (Científico en jefe), Glenn Chisholm (CEO) y Ben Johnson (CTO) a la cabeza. Johnson fue cofundador de la empresa cibernética Carbon Black, mientras que Chisolm y Wolff ocuparon altos cargos en la empresa cibernética Cylance. Johnson y Wolff también trabajaron en la Agencia de Seguridad Nacional. Obsidian ha mantenido su enfoque bajo estricto secreto, pero ha anunciado que está abordando la intersección de seguridad, inteligencia artificial y tecnología de nube híbrida. En LinkedIn, Johnson señaló que los defensores cibernéticos necesitan visiones uniformes y protección por lo que defienden, independientemente de su ubicación. Obsidian ha recaudado USD$ 9.5 millones en fondos de Serie A de parte de Greylock Partners. Petuum El startup de aprendizaje automático Petuum recaudó USD$93 millones en fondos de riesgo de SoftBank en octubre para desarrollar un sistema operativo y software para el entrenamiento y despliegue de redes neuronales artificiales. El objetivo de Petuum es democratizar la IA para las compañías que carecen del capital técnico y humano para hacerlo ellas mismas. Petuum fue cofundada por el CEO y Científico en Jefe Eric Xing, un profesor de ciencias de la computación en período sabático de la Universidad Carnegie Mellon. Mientras que muchos sistemas de IA se enfocan en servir un nicho específico, Xing dijo a CNBC que está haciendo que sus tecnologías estén disponibles para cualquier industria. Ayla Networks Se anuncia a sí mismo como un proveedor de plataforma con servicio (PaaS) de IoT que ayuda a los fabricantes a dar soporte a dispositivos conectados sin tener que construir una infraestructura de administración de punto final. Ayla se enfocó anteriormente en atender HVAC, electrodomésticos grandes y pequeños, administración del agua y control del hogar, pero con el creciente interés de la empresa en IoT, se ha expandido para admitir grandes mercados minoristas, industriales, de telecomunicaciones, proveedores de servicios y médicos. La compañía, cuyos clientes incluyen Fujitsu, Hunter y Brinks Home Security, anunció en noviembre USD$60 millones en financiamiento de Serie D por parte de Run Liang Tai Fund y Sunsea Telecommunications, con una inversión total de más de USD$120 millones. El CEO y cofundador de Ayla, Dave Friedman, dijo que la compañía está experimentando un crecimiento de 5x a 7x, allanando el camino para la última ronda de financiación. FogHorn Systems FogHorn Systems proporciona software de análisis de datos para empresas que aprovechan los sistemas de IoT. Los fabricantes, las compañías de petróleo y gas y otros sectores emplean miles de sensores que arrojan grandes cantidades de datos que son recolectados por las redes de borde. El software de FogHorn ha sido especialmente diseñado para analizar los datos generados en estos sistemas de computación de borde. Fundada en 2014, FogHorn en octubre obtuvo USD$30 millones en fondos , codirigidos por Intel Capital y Saudi Aramco Energy Ventures, con una inversión total de USD$47.5 millones. #nuevasideas #TI #iniciativas #propuestas #innovación #StartUps
- 8 campamentos de ciencia de datos para impulsar la carrera
CIO Las empresas confían cada vez más en el análisis de datos para informar todo, desde las operaciones diarias hasta el servicio al cliente y las iniciativas de marketing. Como resultado, la ciencia de datos se ha convertido en una gran habilidad con alta demanda en una amplia gama de industrias. Los campamentos de entrenamiento son una excelente manera de perfeccionar las habilidades en las ciencias de datos, ponerse al día con las últimas tendencias, cambiar la carrera profesional o crear una mayor seguridad laboral en la industria. Si está interesado en aprender más sobre ciencia de datos, uno de estos ocho campamentos de entrenamiento le ayudará a obtener las habilidades que necesita para impulsar su carrera, conseguir un nuevo trabajo o alcanzar un ascenso. Lea también: 5 campamentos para ejercer el análisis de datos Thinkful Thinkful ofrece un campamento en línea a su propio ritmo con un plan de estudios basado en proyectos, preparación profesional, tutoría individual y acceso a una comunidad completa de estudiantes, mentores y ex alumnos. También aprenderá a usar el lenguaje de programación Python, que es una habilidad comúnmente buscada por los científicos de datos. El campamento de Ciencia de Datos de Thinkful cuesta USD$8,550 por seis meses, con opciones de financiamiento y becas. Puede probar el programa con un curso de preparación de USD$500 , que se deducirá de la matrícula completa si es aceptado. El curso de preparación de tres semanas requiere alrededor de 20 a 25 horas por semana y sienta las bases para el programa de tiempo completo. Bit Bootcamp Bit Bootcamp ofrece programas a tiempo parcial y completo que duran de cuatro a ocho semanas. Los cursos incluyen programas de análisis de datos, ciencia de datos y aprendizaje automático, Hadoop, análisis de big data y análisis de datos avanzados con Spark. El curso completamente inmersivo (ciencia de datos y aprendizaje automático en la Big Data) tiene lugar en el campus de la ciudad de Nueva York, cuesta USD$15,500 y dura ocho semanas. Los cursos a tiempo parcial, que tienen lugar en el campus por la noche, cuestan USD$4,500 y tienen lugar tres días a la semana. Data Application Lab Data Application Lab es otro campamento de entrenamiento en la ciencia de datos en persona y a tiempo completo ubicado en Los Ángeles y Silicon Valley, pero también ofrece opciones en línea si no puede llegar a esos lugares. Los programas se enfocan en instruir a los estudiantes sobre las necesidades prácticas de la industria junto con académicos tradicionales. Los cursos utilizan conferencias, prácticas y proyectos de laboratorio para ayudar a agilizar el proceso de aprendizaje. Si tiene menos experiencia en la ciencia de la computación, también ofrecen una clase de programación y una pasantía de 10 semanas para ponerlo al día. Los programas de ciencia de datos incluyen ciencia general de datos, ingeniería de big data, analista de datos, y un programa completo sobre la ciencia de datos y soluciones de big data. Cada campamento tiene diferentes requisitos, por lo que querrá asegurarse de cumplirlos antes de presentar la solicitud. La matrícula varía según el programa, la ubicación o el curso que elija. Galvanize Galvanize ofrece cursos en persona, pero a diferencia de algunos de los otros campamentos mencionados, ellos están distribuidos por todo el país. Con programas en Seattle; San Francisco; Phoenix; Nueva York; Austin, Texas; y múltiples ubicaciones en Colorado, los cursos presenciales son más accesibles para quienes no vive en Nueva York o California. Puede tomar un curso de ciencia de datos a tiempo completo, o puede optar por tomar cursos de tiempo parcial o independientes. Tendrá que presentar una solicitud y el proceso incluye un ejercicio técnico, pero es más para medir su nivel actual y ver si tienes el potencial para tener éxito en el área. Los cursos, la matrícula y la disponibilidad varían para los cursos de tiempo completo y de medio tiempo, y dependerán de la ubicación que elija. Insight Insight ofrece un programa de becas de 7 semanas destinado a posgraduados para ayudarlos en la transición de la academia al mundo profesional. Los cursos se ofrecen en Silicon Valley, Boston y Nueva York, todos centros importantes para la ciencia de datos. El programa ofrece aprendizaje con proyectos, trabajando directamente con profesionales de la industria para ayudarle a construir su red y obtener una entrevista de trabajo una vez que el curso haya sido completado. Poseen un programa de becas, donde los aceptados asistirán de forma gratuita, pero los requisitos para aplicar incluyen experiencia en la física, astrofísica, matemáticas, estadística, bioinformática, ingeniería, computación o neurociencia, así como un título de doctorado. K2 Data Science K2 Data Science ofrece programas en línea, talleres y seminarios web en ciencia de datos y análisis de datos. Los programas incluyen un plan de estudios basado en videos combinado con tareas, proyectos guiados, tutorías individuales y la finalización de una cartera digna de empleo. Incluso incluyen orientación profesional para ayudarle a actualizar su currículum, cartas de presentación, perfil de LinkedIn y portafolio de GitHub. Los programas de ciencia de datos están enraizados en Python, con un enfoque en la ciencia de datos y algoritmos de aprendizaje automático. La matrícula varía según el programa que elija, pero comienza en alrededor de USD$ 3.000 y hay becas disponibles para los estudiantes que califiquen a ellas. Vea después: ¿Cómo explotar sus habilidades de desarrollador? Springboard Los cursos de Springboard son completamente en línea y se enfocan en enseñar habilidades demandadas para preparar su carrera para el futuro. Hay cursos para cada nivel de capacitación, desde el inexperto hasta el profesional experimentado. Tendrá acceso a la comunidad de Springboard, un mentor, un entrenador de carrera y un asesor estudiantil. Con un enfoque centrado en la experiencia práctica que se aplicará a situaciones del mundo real, Springboard desea ayudarle a crear un portafolio que impresionará a los reclutadores. Los cursos intermedios y de nivel básico cuestan USD$499 por mes, y la mayoría de los estudiantes completan el curso en dos o cuatro meses. La carrera profesional de Data Science, que cuesta USD$4.800, también viene con una garantía de trabajo, que promete un trabajo al finalizar el programa. General Assembly General Assembly ofrece cursos, talleres y eventos a tiempo completo y a tiempo parcial en persona y en línea, y el número de ciudades donde se ofrecen cursos en persona sigue aumentando. El catálogo completo del curso es extenso, y hay un programa para cada habilidad relacionada con la ciencia de datos que pueda imaginar. Los cursos van desde intensivos de una semana hasta programas de inmersión total de 10 a 13 meses, pero es fácil encontrar algo que se adapte a su agenda y presupuesto. El costo de los cursos varía según lo que elija, pero General Assembly ofrece uno de los catálogos de cursos más completos de esta lista. Ya sea que se haya graduado recientemente, esté buscando cambiar de trabajo o que sea un científico de datos experimentado que intenta expandir sus habilidades, aquí conseguirá el curso que mejor se adapta a usted. #actualizaciónprofesional #campamentos #cienciadedatos
- 10 errores en la nube que pueden hundir su negocio
CIO Los optimistas disfrutan diciendo que el sol siempre brilla sobre las nubes. Lo que no mencionan es que debajo de las nubes a menudo hay fuertes vientos, aguaceros torrenciales, relámpagos y ocasionales lluvias de granizo del tamaño de una pelota de golf. Lo mismo es cierto con la computación en la nube. En el lado soleado, ofrece una variedad de beneficios, que incluyen la promesa de mayor fiabilidad, flexibilidad, capacidad de administración y escalabilidad. Mira hacia abajo y verás el lado oscuro, un lugar donde un solo error, descuido o mal cálculo puede llevar a una catástrofe total. Si desea garantizar una transición a la nube que traiga beneficios a su empresa en lugar de tinta roja y demandas judiciales, evite estos 10 errores comunes. Lea después: 6 tendencias que marcan las estrategias de computación en la nube 1.Moverse a la nube sin una estrategia de gobernanza y planificación Es absolutamente simple aprovisionar recursos de infraestructura en la nube, y es tan fácil pasar por alto las políticas, la seguridad y los problemas de costos en los que se puede incurrir. Aquí, la gobernanza y la planificación son esenciales. “Si bien el objetivo es la gobernanza y la planificación, no es necesario abordarlo de una sola vez. Usa pequeñas iteraciones compatibles con la automatización, de esta manera, puedes abordar las tres áreas críticas de la gobernanza: monitoreo/gestión, seguridad y finanzas, para resolver rápidamente los problemas y remediarlos”, dijo Chris Hansen, líder en las prácticas de infraestructura en la nube de SPR Consulting, una firma consultora de tecnología. Un error relacionado no es comprender por completo quién dentro de la organización es responsable de las tareas específicas con la nube, como la seguridad, las copias de seguridad de datos y la continuidad del negocio. “Cuando algo sale mal y estas cosas no se han resuelto, las empresas podrían encontrarse en una situación realmente difícil”, señaló Robert Wood, director de seguridad de SourceClear, un proveedor de plataformas de automatización de la seguridad. A medida que las expectativas de los clientes se elevan, está claro que uno de los mayores desafíos a los que se enfrentan las organizaciones actuales es mover el foco de los productos y enfocarse en la experiencia del consumidor. 2.Creer que cualquier cosa puede ir a la nube A pesar del gran progreso realizado en los últimos años, muchas aplicaciones aún no están preparadas para la nube. Una empresa puede dañar seriamente el rendimiento de una aplicación, la experiencia del usuario y las ventas si envías algo a la nube que no está totalmente preparado o requiere una integración compleja con sistemas heredados, mencionó Joe Grover, socio de LiquidHub, un especialista en compromiso del cliente digital. 3.Tratar a la nube como un centro de datos local Un error costoso que muchas empresas cometen es tratar su entorno en la nube como un centro de datos local. “Si tomas ese camino, tu empresa terminará enfocándose en el análisis del costo total de propiedad (TCO) para tomar decisiones cruciales sobre la migración”, indicó Dennis Allio, presidente del grupo de servicios de tecnología en la nube para el integrador de tecnología Workstate. Si bien los servicios en la nube pueden generar ahorros drásticos en los costos, también requieren un proceso de administración de recursos completamente diferente. Considere, por ejemplo, mover un servidor de una sola aplicación a un centro de datos a la nube. “Un análisis de TCO adecuado tendrá en cuenta cuántas horas al día el servidor estará en uso”, comentó Allio. Para algunas compañías, un servidor puede ser usado solo durante el horario comercial normal. En un centro de datos, dejar un servidor encendido 24 horas al día, 7 días a la semana, agrega solo un ligero costo adicional a la factura de servicios públicos de la instalación. Pero en la nube, los usuarios generalmente pagan por hora. “Su análisis de TCO en la nube probablemente asume ocho horas por día de uso de la nube, lo que puede traer una sorpresa no deseada, con un costo potencialmente triplicado, si tu grupo de administración de sistemas en la nube no incluye procesos para apagar esos servidores cuando estos no están en uso”, agregó Allio. 4.Creer que el proveedor de servicios en la nube se encargará de todo Los proveedores de servicios en la nube (CSP) de primer nivel suministran a todos los clientes, independientemente del tamaño, capacidades operativas equivalentes a un equipo de TI de Fortune 50, expresó Jon-Michael C. Brook, autor y consultor que actualmente es copresidente del grupo de trabajo para amenazas de seguridad en la nube de Cloud Security Alliance. Sin embargo, con base en el modelo de responsabilidad compartida , los CSP son responsables solo de lo que pueden controlar, principalmente los componentes de la infraestructura de servicio. Muchas tareas, particularmente implementar, mantener y hacer cumplir las medidas de seguridad, se dejan al cliente para que las proporcione y administre. “Tomate el tiempo para leer las mejores prácticas en la nube que estás implementando, sigue los patrones de diseño de la nube y comprende tus responsabilidades. No confíes en que tu proveedor de servicios en la nube se encargará de todo”, aconsejó Brook. 5.Suponer que “levantar y cambiar” es la única ruta clara de migración a la nube Las ventajas de los costos de la nube pueden evaporarse rápidamente cuando se toman decisiones estratégicas o arquitectónicas deficientes. Una transición de “levantar y cambiar” en la nube de (simplemente cargando imágenes virtualizadas de sistemas internos existentes en la infraestructura de un CSP) es relativamente fácil de administrar, pero potencialmente costoso, ineficiente y arriesgado a largo plazo. “El enfoque de levantamiento y cambio ignora la escalabilidad elástica para aumentar y disminuir la demanda. Puede haber sistemas dentro de un diseño que sean apropiados para ser una copia exacta, sin embargo, colocar toda una arquitectura empresarial directamente en un CSP sería costoso e ineficiente. Invierte el tiempo de anticipación en rediseñar tu arquitectura para la nube y te beneficiarás enormemente”, concluyó Brook. 6. Fallar a la hora de monitorear el desempeño del servicio No evaluar regularmente el servicio en la nube que realmente se recibe contra las expectativas planificadas es una forma rápida de desperdiciar dinero y degradar las operaciones comerciales esenciales. “Una organización debe revisar periódicamente los indicadores de rendimiento clave establecidos y tomar las medidas adecuadas para manejar las desviaciones reales y potenciales de los resultados planificados”, dijo Rhand Leal, analista de seguridad de la información de la consultora de estándares globales Advisera Expert Solutions. 8.Asumir que el personal de TI existente puede manejar de inmediato una migración a la nube Azure, AWS y todas las demás plataformas en la nube son radicalmente diferentes de los días de una red interna plana que puede ser administrada por casi cualquier persona, “incluso el sobrino del CEO”, indicó Chris Vickery, director de investigación de riesgos cibernéticos de UpGuard, proveedor de servicios de evaluación de seguridad cibernética. “Si no hay un presupuesto para contratar a alguien especializado en administración en la nube, debería hacer una inversión de tiempo considerable para capacitar al personal de TI, antes de mover cualquier bits o ciclos de computación hacia una solución en la nube”, añadió Vickery. La ignorancia de la nube puede conducir fácilmente a una catástrofe de seguridad. Vickery afirmó que ha descubierto cientos de millones de registros comerciales confidenciales procedentes de empresas que no tenían idea de que estaban exponiendo sus datos al Internet público. “Si un actor malintencionado hubiera tenido acceso a esta información, la gran mayoría de esas entidades podrían haber enfrentado de todo, desde la extorsión hasta comprometer completamente la red interna. Los ejecutivos pueden evitar este desastre potencial gastando un poco más en conseguir a la persona adecuada para hacer el trabajo o asegurándose de que el departamento de tecnología tenga suficientes conocimientos y servicios disponibles para hacer bien el trabajo”, dijo Vickery. 8. Confiar ciegamente en scripts automatizados Uno de los principales beneficios de pasar a un entorno basado en la nube es el aprovisionamiento y desaprovisionamiento automático de recursos informáticos. “En su mayor parte, las empresas se beneficiarán de cualquier tipo de automatización“, aclaró David R. Lee, director de operaciones de la firma de consultoría de TI, The Kastling Group. Sin embargo, los procesos automatizados que están mal escritos, que son demasiado complejos y no están bien documentados pueden llevar a tiempos de inactividad prolongados, lo que afecta significativamente las operaciones comerciales críticas. Realizar pruebas automatizadas para scripts automatizados en un entorno controlado y la capacitación de los empleados para la recuperación podrían ayudar a mitigar este riesgo. 9. Creer que la seguridad ya no es su problema Los servicios en la nube, en general, ofrecen una seguridad fantástica. Debido a que trabajan con todos los tipos posibles de compañías, piensan y resuelven problemas de seguridad que su propia empresa nunca enfrentará. Aun así, los CSP en general no hacen nada para corregir la mala administración del sistema de un cliente, procesos de desarrollo de software escabrosos o políticas de seguridad descuidadas. “Ese sigue siendo tu trabajo”, enfatizó Allio. Si Equifax hubiera migrado su aplicación a un servicio gestionado en la nube, esos parches habrían sido automáticos y habrían detenido la violación de seguridad. Esta falla al implementar incorrectamente los servicios en la nube puede dejar brechas en la seguridad. Vea luego: Soluciones en la nube, un atractivo en la transformación digital 10. Descuidar la continuidad del negocio y los planes de recuperación de desastres Todo lo que se pone en la nube está 100% seguro, ¿verdad? Bueno, no siempre. Si bien es cierto que los proveedores más grandes de la nube crean infraestructuras y servicios con porcentajes de tiempo de actividad que superan con creces los niveles que la empresa promedio puede lograr, eso no significa que sean inmunes a las interrupciones causadas por los sistemas y personas. “Si tiene procesos críticos para la empresa que se ejecutan en la nube, prepárese para manejar el tiempo de inactividad”, advirtió Tim Platt, vicepresidente de servicios empresariales de TI para Operaciones Virtuales, una firma de consultoría de TI. Incluso en la nube, el tiempo de actividad puede desaparecer rápidamente. El servicio de almacenamiento simple de Amazon (S3), por ejemplo, experimentó una interrupción importante en febrero de 2017 causada por un error de escritura simple. Muchos servicios en la nube ofrecen opciones automáticas de respaldo y recuperación. Pero no debe darse por hecho. ¿Qué pasaría si un hacker malintencionado o un administrador de sistema disgustado borrara datos críticos? ¿Cómo se recuperaría? ¿Existen mecanismos de respaldo adecuados? Todas las consideraciones que se aplican a los sistemas locales también se aplican a los sistemas basados en la nube. #errores #negocio #nube
- Tres roles ejecutivos diferentes que buscan la misma meta en los datos
CIO La informática está cambiando a un ritmo rápido, y también lo están haciendo sus líderes. Con la transformación digital, una de las principales preocupaciones de muchas organizaciones y la revolución analítica en plena vigencia, las empresas están diseñando nuevos roles ejecutivos que de otro modo podrían estar bajo la tutela del CIO. Entre las adiciones técnicas más populares a la junta de gerentes se encuentran el director de datos, el director de análisis y el director de operaciones digitales. Aunque los tres títulos describen funciones claramente diferentes, hay más superposición entre ellos de lo que se podría pensar. Esto se debe a que estas nuevas posiciones surgieron por una sola razón: una gran organización que vive en un mundo rápidamente cambiante y enfrenta una disrupción tecnológica. Se vio la necesidad de un ejecutivo que pueda hacer que la organización en su conjunto se base más en el uso de los datos, sea más hábil digitalmente, y este mejor preparada para los desafíos del futuro. Lea luego: Directores de IT, es hora de transformarse “Si nos fijamos en el trabajo que todas estas personas están haciendo en general, hay elementos que se vinculan al producto, a la orientación del comportamiento y al modelo de ingresos. Las tres funciones se relacionan con el diseño y la infraestructura correctas para ejecutar en ellas “, analizó Chris Galy, jefe de personal del mercado de bienes raíces Ten-X. Es posible que alguna vez esa tarea haya residido en el CIO y, en algunas organizaciones, todavía sea así. Pero en muchas empresas, los departamentos de TI sobrecargados y sus líderes están felices de superar los desafíos de extraer valor a partir de los datos y crear (y evitar) la disrupción digital de uno de estos nuevos roles. Aunque los tres títulos surgieron de la necesidad de crear una transformación digital y aprovechar el poder de los datos, cada uno aborda el problema desde una dirección ligeramente diferente. A continuación, se detallan los roles y responsabilidades de estos líderes emergentes de TI El papel y las responsabilidades principales del director de datos Los directores de datos supervisan los datos en sus organizaciones, pero lo que eso significa varía de una compañía a otra. En algunos, el director de datos maneja principalmente los datos, asegurándose de que sean de alta calidad y significativos, y creando la infraestructura para almacenarlos y manejarlos adecuadamente. Este tipo de director de datos deja el análisis de datos a un director de análisis o a otro cargo. En otras compañías, el director de datos es responsable del análisis de los datos y de obtener información útil de ellos. Él o ella también pueden supervisar la gestión y el almacenamiento de datos, o esas tareas pueden recaer en el departamento de TI. Los directores de datos más efectivos son aquellos que dejan la supervisión de la administración de datos a otra persona, explicó Andrew White, vicepresidente de investigación y analista distinguido de Gartner. “Los directores de datos que dicen que están agregando valor a sus negocios no tienen la responsabilidad de administrar los datos. Eso se mantiene firmemente con los tecnólogos. Ellos tienden a centrarse en la estrategia, priorización y los negocios. Actúan en nombre de otras oportunidades comerciales. Priorizan qué decisiones son prioritarias para la junta”, añadió White. White también consideró que, de los tres nuevos puestos, es más probable que el director de datos esté en uso a largo plazo. “Hace seis o siete años, los bancos tenían jefes de seguridad, directores de privacidad, directores de información. Pero a pesar de que tenían muchos directores, nadie estaba tomando la iniciativa de poner en funcionamiento el valor comercial de los datos. Se les ocurrió la función de director de datos como un intento de poner a alguien a cargo del uso comercial de los datos y otras empresas los copiaron”, dijo White. Aunque algunos CIO y CTOs vieron este nuevo rol como una incursión en su territorio, la mayoría se alegraron de entregar el desalentador trabajo de extraer valor de los datos. El papel y las responsabilidades principales del director de análisis ¿Cuál es la diferencia entre un director de análisis y un director de datos? Depende de a quién se le pregunte. Un director de análisis es responsable del análisis de datos y la inteligencia empresarial. Pero algunos expertos piensan que esto es parte del trabajo del director de datos. “No sé si hay una gran diferencia entre un director de datos y un director de análisis. Las empresas se enfocan en los títulos y no en lo que realmente están tratando de lograr con ellos”, comentó Mike Doonan, socio de la firma de reclutamiento de alta tecnología SPMB en San Francisco. Otros ven ambos roles como dos trabajos diferentes con distintos antecedentes. “El director de datos tiene que ver con la habilitación de los datos. El análisis está relacionado con cómo manejas las estadísticas de esos datos. ¿Cómo puedes hacer que esos datos sean procesables para los negocios? “, aseguró Justin Cerilli, jefe de la práctica de análisis y datos para la consultora Russell Reynolds Associates. El director de datos, no suele tener un trasfondo en la ciencia de datos , mientras que un director de análisis generalmente sí lo tiene. Al mismo tiempo, los buenos directores de datos quieren asegurarse de que estén trabajando con los datos correctos y de que estos sean de alta calidad. “Puede ser difícil lograr que una organización comprenda la parte de la administración de datos. He visto grandes líderes analíticos ir a organizaciones donde los datos aún no estaban listos para ellos y se han ido frustrados”, agregó Cerilli. Esta es la razón por la cual algunos directores de datos quieren la responsabilidad final de la administración de datos, y por qué algunos expertos recomiendan otorgar ambas funciones a un ejecutivo. Si el director de datos está haciendo bien el trabajo, él o ella tienen una alta probabilidad de revolucionar los procesos comerciales existentes. Eso significa que un buen director de datos debe tener relaciones sólidas dentro de la organización, un profundo conocimiento del negocio y excelentes habilidades de comunicación. “Las habilidades en ciencia de datos, las habilidades tecnológicas y todo eso son necesarias pero insuficientes. En última instancia, la organización necesita consumir análisis, y eso significa cambiar las decisiones comerciales “, manifestó Chris Mazzei, director de análisis de EY. El papel y las responsabilidades principales del director de operaciones digitales Si ser el evangelista en jefe para extraer valor de los datos y cambiar los procesos comerciales es parte del papel del director de análisis, esa función es el centro de atención de los jefes digitales .Pero más allá de la necesidad de hacer un llamado a nuevos enfoques más digitales para resolver los problemas de negocios, el rol puede significar cosas diferentes en diferentes organizaciones. “Es un rol un tanto multifuncional. Significa cosas muy diferentes para diferentes personas. En algunos casos, es una función interna que tiene que ver con maximizar el marketing digital. En nuestro caso, se trata de ayudar a nuestros clientes a adoptar lo digital y brindar mejores experiencias a sus clientes “, declaró Curt Stevenson, director digital de la compañía de software de seguros Duck Creek Technologies. No se pierda: 5 especializaciones para directores de TI ¿A quién deberían reportar estos directores? ¿Dónde caben los directores de datos, los directores de operaciones digitales y los directores de análisis en la estructura informativa? En una encuesta reciente realizada por Gartner entre los directores de operaciones digitales y los directores de análisis, el 40% dijo que informaron al CEO. 16% reportó al CIO, y el resto reportó al CFO, CTO o un título que no es de la junta directiva. Para las organizaciones que esperan que estos nuevos títulos actúen como agentes de cambio, es más inteligente hacer que informen al ejecutivo principal, según los expertos. Colin Zima, director de análisis de la plataforma de análisis de datos Looker, dijo que conoce directores de análisis que informan al director financiero o al director de informática, así como al director general, pero las cosas están cambiando. Un director de análisis que no informe directamente al CEO puede crear valor para una organización, pero será más difícil para esa persona impulsar el cambio organizacional. Además de las líneas de informes correctas, también necesita los valores organizativos correctos y el apoyo adecuado del liderazgo para crear un cambio real. Es necesario que exista la expectativa de que los datos se utilicen para tomar decisiones, y eso viene absolutamente de arriba hacia abajo. Si las personas esperan que puedan utilizar los datos para tomar mejores decisiones, entonces usarán los datos para tomar mejores decisiones. Google es un gran ejemplo de una compañía donde la toma de decisiones basada en datos es la norma. #diferencias #directordeanálisis #directordedatos #directordeoperacionesdigitales
- 8 herramientas gratuitas para el diagnóstico de redes Wi-Fi
CIO He aquí ocho herramientas gratuitas, algunas para Windows y otras para Mac OS X, que brindan detalles básicos sobre las señales de Wi-Fi cercanas: SSID, potencia de la señal, canales, direcciones MAC y nivel de seguridad. Algunas incluso pueden revelar SSID “ocultas” o indicar los niveles de ruido de su conexión inalámbrica. Uno de ellos incluye herramientas de descifrado de contraseñas Wi-Fi, útiles para fines educativos o para realizar pruebas de penetración. La mayoría de estas herramientas son versiones gratuitas de herramientas de pago hechas por los mismos proveedores y carecen de algunas de las características incluidas en las versiones comerciales. Acrylic Wi-Fi Home 3.1 (Windows) Tarlogic Security ofrece Acrylic Wi-Fi Home , un stumbler de Wi-Fi que es una versión reducida de su versión comercial. La edición gratuita tiene una GUI simple pero atractiva. Siempre se podrá ver la lista de SSID y sus detalles en la parte superior de la aplicación. Muestra valores negativos de dBm para RSSI, puede detectar el estándar 802.11 (incluido 802.11ac), reconoce anchos de banda mayores y muestra los múltiples canales utilizados. No revela los SSID ocultos, pero sí muestra otros detalles sobre ellos. La aplicación tiene una función de inventario en la que se puede asignar y guardar nombres de SSID y/o clientes detectados. En la parte inferior se observan las clasificaciones de red del SSID seleccionado, y un gráfico que muestra la intensidad de señal de cada SSID. Lea luego: Distintos tipos de wifi ¿Cuál es su preferido? Aunque está un poco escondido, hay un modo avanzado que muestra dos gráficos adicionales, uno para las frecuencias 2.4GHz y otro para las de 5GHz. Da un vistazo del uso de la banda, incluida la vinculación de canales y la intensidad de la señal al mismo tiempo. Para exportar o guardar los datos capturados, la aplicación está limitada a copiar solo una fila de datos en el portapapeles y pegar el texto sin formato en un documento de texto o en una hoja de cálculo. También hay una función para publicar una captura de pantalla en Twitter. Cain & Abel (Windows) Es una aplicación de recuperación y craqueado de contraseñas multipropósito que también cuenta con herramientas Wi-Fi para hacer stumbling y sniffing. Al igual que Acrylic WiFi, también tiene un monitor o modo “promiscuo” para capturar más tráfico. Su GUI tiene un aspecto y un tacto más antiguos y simplistas. Tiene una barra de herramientas estilo antiguo en la parte superior con iconos para mostrar diferentes utilidades. La parte principal de la aplicación posee pestañas. La pestaña Wireless es donde se encuentra el stumbler de Wi-Fi. Además del típico SSID e información de señal, muestra una lista y detalles de los clientes conectados. Para los SSID y los clientes, el stumbler proporciona números de ciertos paquetes detectados: todos los paquetes, WEP IVs únicos y solicitudes ARP. Al igual que Acrylic WiFi, cualquier SSID oculto descubierto a partir de los paquetes se revela también en la GUI. La mayor parte de los estados y los datos capturados se pueden exportar a un archivo de texto simple. Debido a la falta de gráficos y la incapacidad de distinguir en APs de 802.11ac y anchos de banda más grandes, Cain & Abel podría no ser una gran opción para hacer stumbling y monitorear el Wi-Fi. Pero ciertamente sería útil para realizar pruebas de penetración. Ekahau HeatMapper (Windows) Es una herramienta gratuita de encuesta en el sitio basada en mapas para uso doméstico, una versión reducida de su producto profesional. Muestra detalles de la red de forma similar a un stumbler de Wi-Fi, pero también genera un mapa de calor en el que se puede visualizar los niveles de señal. La aplicación ofrece la opción de crear un plano o diseño del edificio que está siendo inspeccionando o un diseño de cuadrícula para tener una guía aproximada. El lado izquierdo de la pantalla principal muestra una lista de los SSID y sus detalles, los cuales se pueden ordenar por señal, banda, SSID, dirección MAC y método de seguridad. Incluye los detalles de la red principal, pero carece de un indicador de los niveles de señal en dBm y valores porcentuales. Solo muestra barras de señal en la lista y las redes 802.11ac y 802.11n. Al igual que en otras herramientas, se debe hacer clic en la ubicación en el mapa mientras se camina por el edificio para poder generar el mapa de calor. Estimará automáticamente las ubicaciones de los puntos de acceso (AP) y los colocará en el mapa. Después de capturar algunos datos, al pasar el cursor sobre los iconos de los puntos de acceso, se mostrarán sus coberturas individualmente. Al desplazarse sobre las áreas del mapa de calor, se muestra una ventana emergente con el nivel de señal en valores negativos de dBm. La única funcionalidad de exportación o de “guardar” de la aplicación es tomando un pantallazo simple del mapa de calor. Homedale (Windows) Homedale es un stumbler relativamente sencillo y portátil basado en Windows con una interfaz de línea de comandos opcional. Además de mostrar la red básica y los detalles de la señal, es compatible con GPS y otras formas de geolocalización. Esta utilidad tiene una GUI simple que se parece más a un cuadro de diálogo de múltiples pestañas que a una aplicación completa. La primera pestaña, ‘descripción general del adaptador’, muestra una lista de todos los adaptadores de red, su puerta de enlace IP y direcciones MAC. La pestaña de’ puntos de acceso’ indica muchos detalles esenciales. No muestra el estándar 802.11 de cada SSID, pero sí las velocidades de datos admitidas y los múltiples canales utilizados por todas las SSID con anchos de banda mayores. Además, no revela los SSID ocultos reales, pero muestra los otros detalles de red de los SSID ocultos. Una característica es que permite guardar notas sobre los SSID de forma individual, que luego se pueden incluir en los datos exportados. La pestaña ‘gráfico de las señales de los puntos de acceso’ muestra un gráfico de línea con los niveles de señal para cada SSID seleccionado. La pestaña ‘uso de frecuencia’ da un vistazo a las visualizaciones de banda para la banda de 2,4 GHz y cada subconjunto de la banda de 5 GHz. También muestra útilmente el uso de la banda (incluida la vinculación de canales) y la intensidad de la señal. Para ser una aplicación gratuita, Homedale ofrece excelentes capacidades de exportación. Es posible guardar la lista de redes como un archivo CSV, registrar las redes de cada exploración (útil si se mueve mientras se está escaneando) y guardar una imagen de cada gráfico. LizardSystems Wi-Fi Scanner (Windows) LizardSystems ofrece una edición gratuita de su escáner de Wi-Fi para uso no comercial, que tiene las mismas características y funcionalidad que su producto pago. Además de la funcionalidad de stumbler Wi-Fi, la aplicación ofrece algunas excelentes capacidades de análisis y de reporte. Tiene una interfaz gráfica de usuario moderna que es fácil de recorrer y entender. En la pestaña del escáner hay una lista de los SSID detectados. Junto con los detalles típicos, muestra la intensidad de la señal tanto en valores negativos de dBm como en porcentajes. Incluso muestra la cantidad de clientes conectados a cada SSID. Al lado de la especificación de los estándares 802.11, se detallan los múltiples canales utilizados por cualquier SSID con anchos de banda mayores. Puede usar la lista a la izquierda para filtrar los SSID que se muestran según el nivel de señal, el estándar 802.11, el método de seguridad y la banda de frecuencia. En la parte inferior de la pestaña de ‘escáner’, se permite alternar entre varios gráficos. Además de la típica información sobre el nivel de las señales y los gráficos de uso de la banda, es posible visualizar las velocidades de datos, la utilización de la banda y la cantidad de clientes. Los detalles de la red en la parte inferior muestran detalles de la conexión actual. La pestaña ‘detalles avanzados’ visualiza distintos detalles como los paquetes sin procesar. La pestaña ‘conexión actual’ brinda más detalles sobre la conexión inalámbrica del momento. Permite acceder y administrar la lista de perfiles de redes inalámbricas guardadas en Windows 10, lo que puede ser útil ya que Windows ya no permite el acceso nativo o la administración de esa lista. En la pestaña de ‘estadísticas inalámbricas’ hay gráficos y datos sobre diferentes tipos de paquetes de capa MAC y PHY, útiles para realizar un análisis de red avanzado. La función de exportación básica puede guardar la lista de redes en un archivo de texto sin formato. Además, genera un informe que enseña un resumen de los tipos de redes encontrados junto con todos los detalles de las SSID recolectadas, los comentarios que se haya agregado e imágenes de los gráficos. NetSpot (Windows y Mac OS X) Esta es la única herramienta reseñada aquí que está disponible tanto para Windows como para Mac OS X. Es una versión reducida de sus versiones pagas, Home y Professional. En la pestaña ‘descubrir’ de Netspot se encuentra su stumbler Wi-Fi. Aunque tiene una GUI simple, tiene un aspecto moderno, y los detalles de red de los SSID se muestran en negrita y de forma clara. Los niveles de señal se ven en valores negativos de dBm (nivel actual, mínimo y máximo) y en porcentajes. Sin embargo, no muestra ninguna red oculta en la lista de redes. Aunque hay un botón de exportación, no funciona en la edición gratuita. Al hacer clic en el botón ‘detalles’ en la parte inferior de la aplicación, se muestra un gráfico de señal combinado y un gráfico de uso de la banda para cada banda, que resalta convenientemente el SSID en los gráficos en función del cual se haya seleccionado de la lista de redes. Además, tiene una vista tabular de los detalles de la señal de cada SSID para ver los niveles exactos de cada escaneo en la aplicación. La edición gratuita de NetSpot entrega un buen Wi-Fi stumbler, aunque no admite redes ocultas. La aplicación muestra características que no funcionan, solo para usuarios de paga, pero brinda una mejor idea de las características disponibles en esa versión. WirelessNetView (Windows) WirelessNetView es una utilidad freeware de NirSoft, que se ofrece para fines personales o comerciales. Se trata de un stumbler Wi-Fi basado en Windows muy simple, disponible como una aplicación instalable o portátil. La GUI de WirelessNetView es muy simple, básicamente es solo una ventana que muestra la lista de redes. En cuanto a la intensidad de la señal, enseña los valores negativos de dBm y los porcentajes, vislumbra los valores de la última señal recibida y el promedio a lo largo del tiempo. Otro detalle único que ofrece es la frecuencia en la que se ha detectado cada SSID, lo que podría ser útil en determinadas situaciones. Al hacer doble clic en una red aparece un cuadro de diálogo con todos los detalles de esa red en particular, lo cual es útil, ya que ver todos los detalles en la lista principal requiere mucho espacio en las pantallas horizontales. Al hacer clic con el botón derecho en una red de la lista, se pueden exportar detalles de esa red en particular o de todas las redes a un archivo de texto o HTML. El menú de la barra de herramientas de opciones dispone de algunas configuraciones y características adicionales, como el filtrado, el formato de la dirección MAC y las preferencias de visualización. Ten en cuenta que esta utilidad carece de funciones avanzadas, como gráficos, compatibilidad total con 802.11ac y el reconocimiento de todas las bandas para los puntos de acceso que utilizan anchos de banda más grandes. Sin embargo, aún podría ser útil para hacer stumbling Wi-Fi simple, especialmente si encuentra valiosas algunas de sus características únicas. Wireless Diagnostics (Mac OS X Lion y posterior) Es más que solo un stumbler; también puede ayudarle a detectar y solucionar problemas de Wi-Fi. Lo mejor de todo, es que es una herramienta nativa incluida en el sistema operativo. Para comenzar, mantenga presionada la tecla opción y luego haga clic en el ícono de Aeropuerto/Wi-Fi en la parte superior de Mac OS X. Esto mostrará más detalles de su conexión Wi-Fi actual al mismo tiempo que ofrece un acceso a la herramienta Wireless Diagnostics. Al abrir Wireless Diagnostics, aparece un asistente que puede solicitarte detalles adicionales, como la ubicación, la marca y el modelo del enrutador. Luego comienza a ejecutar pruebas para detectar problemas. Muestra un resumen de los resultados, y al hacer clic en el ícono de cada resultado, se ven más detalles y sugerencias. Mientras el cuadro de diálogo del asistente está abierto, al hacer clic en ‘ventana’ en la barra de herramientas en la parte superior, se muestran utilidades adicionales. No se pierda: KRACK rompe con WPA2 de wifi La utilidad de escaneo es un stumbler Wi-Fi simple, que muestra los detalles habituales de las redes detectadas junto con un resumen de los tipos de redes y los mejores canales. Una ventaja importante es que muestra los niveles de ruido de los canales de Wi-Fi, que la mayoría de los stumblers de Windows no muestran. Sin embargo, sería bueno si visualizara todos los canales utilizados por los SSID que utilizan anchos de banda más grandes en lugar de solo mostrar los anchos de banda y la banda central. La utilidad de información muestra la conexión de red actual y los detalles de la señal. La utilidad ‘Logs’ permite configurar el registro de diagnóstico de Wi-Fi, EAPOL y Bluetooth. La utilidad de rendimiento muestra gráficos de la señal y el ruido, la calidad de la señal y la velocidad de datos de la conexión actual. La utilidad Sniffer ayuda a capturar paquetes inalámbricos sin procesar y puede exportar la información a un analizador de paquetes de terceros. Las utilidades de Wireless Diagnostics de Mac OS X son bastante impresionantes en comparación con las herramientas inalámbricas provistas por Microsoft en los sistemas operativos Windows. Sin embargo, falta un gráfico que muestre el uso de la banda para cada canal Wi-Fi. #diagnósticoderedes #wifi #conexiones #estatus #WiFi
- Las 6 claves de la transformación digital de Matson
CIO Matson (anteriormente Matson Navigation) es una organización con ambiciones globales. La empresa de transporte público de 135 años de edad ha seguido transformándose de una institución regional hawaiana a un jugador multirregional. Su expansión en el Pacífico (desde Alaska hasta Guam y desde Nueva Zelanda hasta China) ha sido rigurosa por donde se vea. Su éxito no solo se basó en establecer nuevas rutas comerciales, sino también en cumplir con la obligación corporativa de “hacerlo sin diluir nuestra marca, sin erosionar los márgenes y sin dañar la experiencia del cliente“, señaló Peter Weis, vicepresidente y CIO de Matson Inc. La expansión regional estaba unida en un nivel tecnológico con la necesidad de una “versión única de la verdad” a través de una plataforma unificada, dijo Weis. En esta plataforma, un único conjunto de reglas comerciales dictaría cada envío de Matson, desde el inicio de la orden hasta el cumplimiento y el pago. Lea luego: Nuevas exigencias para el CIO con la transformación digital Permitiría conciliar rápidamente los reclamos y los problemas del servicio al cliente, así como unificar los análisis de la empresa a lo largo de miles de millas náuticas. Hace casi una década, cuando el esfuerzo de consolidación de TI comenzó en serio, la compañía había confiado durante mucho tiempo en computadoras centrales de IBM, servidores de rango medio AS/400 y PC basados en DOS. Weis y su equipo finalmente se decidieron por una plataforma Java 2 estándar, en gran parte de código abierto, Enterprise Edition (J2EE). “Pensamos de forma abierta. Pensamos estándar. Pensamos en no quedarnos encerrados. Resultó ser simplemente un conjunto espectacular de decisiones “, añadió Weis. El enfoque de Matson fue diseñado para minimizar los costos anticipados de cambiar la tecnología. Esta estrategia coincidió con la maduración del mercado de tecnología de la nube empresarial. En última instancia, Matson redujo sus costos operativos de TI en un 50%, cerrando sus cuatro centros de datos locales y moviéndose a Amazon Web Services (AWS) en 2016. Los 6 componentes de una transformación digital Weis explicó que hay seis componentes interrelacionados de cualquier transformación digital, que él define como “hacer cambios a un nivel de escala tal que casi nada sea igual”. Durante la expansión global de Matson y la consolidación de la plataforma, Weis necesitaba asegurarse de que su equipo de TI estuviese ejecutando los seis componentes simultáneamente. 1.El mapa de ruta Weis enfatizó que la transformación digital no puede ocurrir sin una visión comercial convincente e inquebrantable. Matson había sido una parte familiar del paisaje de negocios de Honolulu desde 1882. El CEO y la junta reconocieron, sin embargo, que el regionalismo histórico de la compañía solo ofrecía oportunidades de crecimiento limitadas. Ellos, por lo tanto, articularon una visión de expansión en el Pacifico A pesar de una plétora de marcos de industria flojos y una ráfaga de reglamentación, las grandes organizaciones de servicios financieros en los Estados Unidos operan esencialmente sin ningún estándar de riesgo para la ciberseguridad. El CEO y la junta directiva son los responsables principales de establecer y mantener la visión comercial. El CIO, a su vez, es responsable de identificar objetivos tecnológicos específicos basados en esa visión. Para Weis, esto finalmente significó trasladar 15 grandes proyectos y 60 proyectos más pequeños a la nueva plataforma tecnológica de Matson, desconectando gradualmente las piezas de la batería tecnológica heredada de la compañía. 2.El conjunto de tecnologías Matson se benefició enormemente de su adopción de una plataforma J2EE, complementada con herramientas de código abierto siempre que fuera posible. Invertir en tecnología nunca debería ser una apuesta; es, sin embargo, un riesgo calculado. Para mitigar ese riesgo, Weis insistió en la necesidad de una conexión lógica entre la hoja de ruta de la empresa y un conjunto de características determinadas. También enfatizó en la importancia de la agilidad. En 2009, cuando la transformación de Matson estaba cobrando impulso, AWS tenía solo 3 años. No obstante, gracias a la flexibilidad de la arquitectura de su arsenal tecnológico, Matson pudo adaptarse más fácilmente y asociarse con AWS. “Cualquier empresa, después de definir su hoja de ruta, debe tener las tecnologías correctas sobre las cuales construir. No preveíamos que AWS vendría y haría lo que ahora está haciendo cuando comenzamos. Pero no es una coincidencia que la entrada en el alojamiento en la nube haya sido en gran parte sistemas con arquitectura J2EE de código abierto Java, porque ha demostrado ser la mejor plataforma sobre la que se puede construir “, afirmó Weis. 3.Conjuntos de habilidades organizativas Matson ha pasado por un ciclo de innovación de varios años. Weis dijo que este esfuerzo a largo plazo habría sido insostenible sin enfocarse en las habilidades que impulsarían el negocio, al tiempo que ha creado una sensación de comunidad auténtica para retener el talento. “La clave para ejecutar un ciclo de transformación tan largo se centraba realmente en lo que yo llamaría innovación sostenible. Esto no es innovación exhaustiva donde trabajas en un proyecto durante seis meses o un año, y todos quedan exhaustos o se dirigen a Maui durante dos semanas con la esperanza de rejuvenecer o actualizar su CV”, añadió Weis. A Weis le gusta interactuar con sus colegas, y esto proporciona el beneficio adicional de ayudar a mantener a personas calificadas dentro de Matson. Le gusta enviar notas escritas a mano para felicitar a los empleados: un arte perdido en la era digital. Y mantiene las cosas en perspectiva. 4.Gobernanza Weis reconoció plenamente la importancia de la gobernanza formal. En Matson, esto incluye el Comité Ejecutivo de TI, que establece la dirección y aprueba la financiación de alto nivel, así como los comités operativos de nivel medio y la supervisión a nivel de proyecto. Al mismo tiempo, para cada pieza formal del marco de gobernanza hay un elemento informal. En la mayoría de los casos, esto implica colaborar con compañeros que no pertenecen a la TI, sobre cómo aprovechar al máximo la tecnología o cómo proporcionar el patrocinio ejecutivo en un proyecto. Se debe educar a colegas y compañeros de forma privada y útil sobre los detalles. Este énfasis en la colaboración de TI entre empresas se ha extendido a la compensación. Durante la transformación de Matson, hubo un impulso exitoso de varios años para vincular las bonificaciones ejecutivas en parte a la finalización exitosa de los objetivos de TI. 5.Habilidad para las finanzas corporativas Durante cualquier transformación, los líderes de TI deben ser administradores sensatos de los fondos de la compañía. “Esto es muy importante cuando haces una transformación de varios años, porque tienes que ser despiadado para ahorrar dinero y luego tienes que ser un inversor sagaz que apuesta por la tecnología adecuada, contratando los tipos adecuados y eligiendo las herramientas tecnológicas apropiadas”, explicó Weis. Weis también reconoció que sin la aplicación práctica diaria de los principios de finanzas corporativas, los departamentos de TI corren el riesgo de ser relegados al segundo plano. Matson, por lo tanto, requiere que los empleados de TI tomen clases de finanzas corporativas para asegurarse de que están contribuyendo en las discusiones financieras internas. Además, el departamento de TI coloca libros de finanzas corporativas en los escritorios de los empleados. 6.Habilidades de gestión del cambio La mayoría de las transformaciones fallan debido a la incapacidad de adaptarse al cambio, así como a la imposibilidad de mantener el impulso. Para contrarrestar estas trampas potenciales, las transformaciones deben tener una estructura concreta. Matson se encuentra en una industria tradicional, y sus activos están geográficamente dispersos. En el día a día, y especialmente durante su transformación a largo plazo, Weis necesitaba comprender cómo la TI podría ayudarle a generar un cambio impactante de la manera más efectiva posible. Durante cinco años, envió una encuesta de 33 preguntas a sus colegas para evaluar la contribución de TI en los niveles tácticos y estratégicos. Vea después: 5 tecnologías claves para la transformación digital del negocio “Una vez que tuve los datos que mostraban que hicimos un buen trabajo para mantener las luces encendidas con un trabajo terrible de estrategia e innovación, utilicé esa información para impulsar los cambios. Tuve una serie de reuniones y discusiones difíciles cara a cara con la gente. Generas confianza al reunirte cara a cara, y fue un componente crucial para impulsar el cambio dentro de la organización de servicios de TI porque pasamos por una serie de reducciones de personal para contratar los conjuntos de habilidades que necesitábamos “, comentó Weis. En última instancia, a pesar de las transiciones dinámicas y a veces difíciles, Matson se comprometió a desarrollar y capacitar al talento adecuado. Matson nunca ha reducido sus habilidades y presupuesto de desarrollo, incluso durante la Gran Recesión. La transformación de Matson de PC basadas en DOS a la nube ha llevado a ahorros masivos y eficiencias competitivas. En el transcurso de este esfuerzo a largo plazo, las plataformas tecnológicas han evolucionado significativamente. Sin embargo, las seis claves del éxito de Matson han demostrado ser constantes confiables a lo largo del tiempo. #ideas #transformacióndigital #empresas #innovación #estrategia

