top of page

Resultados de la búsqueda

Se encontraron 8249 resultados sin ingresar un término de búsqueda

  • El valor de tecnologizar la seguridad

    Juan José López Torres @jjlopezt Aunque parezca un cliché, la tecnología no es el fin último sino una herramienta que permite a las organizaciones asegurar la calidad de los servicios, eficientar su gestión y brindar a los usuarios lo que ellos esperan. En ese sentido, una solución de videovigilancia no solo impacta en los costos de adquisición frente a la asignación de personal en territorio sino en la maximización de la eficiencia en la gestión municipal, la seguridad pública y el tráfico vehicular, entre otros aspectos. Tecnologizar la seguridad va más allá de solo modernizarse, implica que el costo-beneficio se vea en la mejoría de condiciones para la vida en una ciudad inteligente. “Si se decide llevar a cabo un proyecto, es importante no comparar precios. Si la justicia tiene imágenes de mala calidad, no puede aplicar las sanciones correspondientes. Por eso es que en (el municipio de) Vicente López tratamos de tener los mejores productos, porque el costo total de la propiedad no es solamente la compra de la cámara, sino el resto de los costos asociados a ella”, según Santiago Espeleta, secretario de seguridad del municipio bonaerense. Las cámaras, los sensores y otras tecnologías aumentan la habitabilidad y mejoran la gestión de la ciudad en la reducción de los índices de delincuencia para la protección de sus habitantes. En ese sentido, Axis Communications postula que sus cámaras rentabilizan la inversión en seguridad y transforman las investigaciones en seguridad proactiva en tiempo real. “Con las cámaras de Axis y su experiencia fruto de la colaboración con otros socios, que incluye el ámbito del reconocimiento facial e incluso la detección mediante drones, las autoridades de la ciudad pueden identificar automáticamente los incidentes y gestionar los acontecimientos desde el momento en que se producen”, según la marca. Al tecnologizar la seguridad, se protege de manera más efectiva a los ciudadanos y las instalaciones de una ciudad, mejora su imagen, se disuade a los delincuentes y se reducen los gastos de reparación, pero sobre todo, se reduce el tiempo de las investigaciones criminales ya que los dispositivos de última generación producen imágenes de mayor calidad. La edificación de una ciudad inteligente y segura es posible llevarla por etapas, tal como ocurrió con el municipio de Vicente López, que requirió de cinco años para crear un plan para el manejo inteligente del espacio urbano y cuenta con un sistema de videovigilancia digital que, entre otras cosas, monitorea las rutas escolares con cámaras de visión de 360 grados. “Excedió nuestras expectativas porque comenzamos a tener cámaras de calidad, imágenes de calidad y buen rendimiento. No tuvimos fallas en las cámaras”, concluyó Martín Gasulla, subsecretario de seguridad del municipio. Los equipos también permiten realizar grandes acercamientos sin perder la definición ni los detalles a larga distancia, y las instaladas en paradas de buses son resistentes a los cambios del tiempo, las condiciones de luz y, en especial, los actos vandálicos. Visite estos enlaces relacionados Ciudades más pobladas requerirán más seguridad Vicente López, una de las primeras smart city Anatomía TIC de una smart city segura #smartcity #ciudadesseguras #securecity #ciudadesinteligentes #cámarasdevigilancia #videovigilancia

  • El poder no aprovechado de las redes sociales

    Jose Durán (@mradler1) En diciembre de 2017 Costa Rica fue sede de la presentación del 7mo Estudio de Redes Sociales en Centroamérica y el Caribe, efectuado por la empresa iLifebelt, el cual arrojó importantes resultados sobre el comportamiento, el alcance y el poder que ofrecen estas plataformas en la región. Dentro de las principales conclusiones se destaca lo poco que las compañías sacan provecho de estas herramientas para acercarse a su audiencia y conocerla más a profundidad. “Con las redes sociales yo no sólo sé cómo es el consumidor a través de las cosas que pone me gusta, sino que también sé cómo es por medio de lo que comenta, donde hace check-in, el tipo de temas que busca; entonces, esto se vuelve como una gran base de datos de información para las marcas pero que muy pocas están aprovechando”, comentó Jose Kont, científico de datos especializado en comunicación digital de iLifebelt y expositor del estudio. Kont también mencionó lo poco que saben las marcas sobre el formato que deben usar en sus publicaciones para tener un mayor rendimiento. En la mayoría de los casos estas se reducen a texto y fotografías, dejando de lado los vídeos. Estos últimos ofrecen un atractivo más grande para los usuarios. “El futuro del contenido está relacionado a realidad aumentada, virtual, vídeos, live streaming y story telling. Estos formatos funcionan súper bien, tiene más prestaciones y ventajas, y las marcas hasta ahora los están adaptando. Otra gran tendencia que vemos y viene con muchísima fuerza son las historias, en Whatsapp e Instagram”, agregó Kont. Por último, el experto recomendó poner mayor énfasis en Instagram, pues actualmente es la red social que mayor alcance orgánico ofrece, a diferencia de Facebook que ya pasó a ser un sitio más mediático. #empresas #redessociales #poder #alcance #usuarios

  • Aumentan servicios en soporte técnico en la región para 2018

    A mediados de diciembre Johnson Controls, una compañía global pero de origen estadounidense, inauguró su centro de operaciones para soporte de ventas en Costa Rica con  el objetivo de expandir sus servicios en la región centroamericana. La empresa pretende otorgar distintos servicios como: Consultoría en materia de diseño en ingeniería eléctrica y mecánica, diseño de redes para telecomunicaciones, servicios de sustentabilidad y gestión de proyectos durante el proceso de diseño de ingeniería. Leer más: ¿Existe el software coreano para las elecciones de El Salvador 2018? Igualmente, el objetivo principal de su arribo al país centroamericano es poder colaborar con las empresas de los países vecinos pero también generará empleos en el mercado costarricense, lo que se traduce una mayor capacitación técnica del personal en el país. Por otro lado, Johnson Controls es una empresa que maneja oficinas en 150 países, además, la organización posee un plan de inversión que pretende duplicar su capacidad de soporte en ventas para 2020 y de la misma manera trabajar bajo las regulaciones de las zonas francas de Costa Rica  en corto plazo . #consultoría #Infraestrucutra #servicios #soportetécnico

  • 10 startups que apuntan a iniciativas de TI actuales

    CIO Las empresas nuevas siempre han desempeñado un papel crucial en las carteras de TI. Por mucho que a los CIO les gustaría centralizar las decisiones de compra de tecnología con un puñado de socios estratégicos, los titulares no siempre pueden satisfacer todas sus necesidades, especialmente cuando se trata de las tecnologías emergentes. Para familiarizarse mejor con las startups, muchos CIO viajan regularmente a Silicon Valley para participar en citas rápidas, en las cuales los capitalistas de riesgo los invitan a conocer a los miembros de sus portafolios. Algunos CIO realizan hackatones o competiciones estilo Shark Tank para que los desarrolladores externos intenten abrirse su camino hacia las gracias de la compañía. Otros aprenden sobre nuevas compañías prometedoras de sus pares. Conectarse con empresarios es la parte fácil; la parte difícil es tirar los dados en una startup que podría irse a la quiebra por una mala decisión comercial. Los CIO saben que no hay garantías, sin importar cuán sólido sea el pedigrí de los fundadores de una startup, cuántas salidas exitosas hayan disfrutado, o qué tipo de tecnología comercial tengan. CIO.com está aquí para ayudar, ofreciendo un vistazo a algunas nuevas empresas de tecnología que podrían impulsar su negocio digital. Spoke Los empleados de las grandes organizaciones se enfrentan a un catch-22. Sus empleadores se sientan en trozos de información, la mayoría en repositorios dispares, lo que dificulta el acceso. Spoke ha desarrollado una aplicación que los empleados corporativos pueden usar para consultar departamentos de recursos humanos, TI, ventas, marketing y otros. Los empleados pueden registrar una pregunta sobre beneficios de atención médica o ayuda de TI a través de SMS, correo electrónico de la aplicación web o un chatbot de Spoke que reside en Slack. Si la aplicación no puede responder a una consulta, alertará a un experto de dominio asignado, que responderá dentro de Spoke. Los algoritmos de aprendizaje automático de Spoke, a su vez, recordarán las respuestas y agregarán un elemento de curado humano a la herramienta. Jay Srinivasan, CEO de Spoke, dijo que esta idea surgió de la lucha por encontrar información corporativa interna en Google, a la que se unió en 2014 luego de vender su empresa Appurify en 2014. “Incluso en Google, como nuevo empleado en un equipo de 30 empleados, era difícil encontrar la forma de hacer las cosas básicas”, comentó Srinivasan a CIO.com .Eventualmente, Spoke trabajará con la herramienta xa de Amazon.com y otras más. Spoke ha recaudado USD$28 millones de Accel, Greylock Partners y otras firmas de capitales de riesgo. Confluent Los CIO realmente pueden encontrar interesante Confluent , una empresa de LinkedIn que se escindió para comercializar Apache Kafka , tecnología de código abierto que el fundador y CEO de Confluent, Jay Kreps, escribió en LinkedIn para negociar grandes cantidades de datos. Kafka es un servicio de mensajería de alta velocidad que ayuda a los ingenieros a reportar eventos en tiempo real. Kreps, quien habló sobre Kafka y Confluent en el evento Forbes Next CIO en octubre, describió a Kafka como el sistema nervioso central de una empresa. Confluent agrega seguridad, capacidad de administración y otras características para hacer que Kafka sea más amigable con las empresas. Kreps mencionó que muchas compañías de Fortune 500 usan el software para procesar y analizar grandes cantidades de datos, en particular en torno a grandes proyectos de IoT o en el uso de IA para automatizar las operaciones vehiculares. En marzo, Confluent recaudó una ronda de financiación de USD$50 millones liderada por Sequoia Capital y ha recaudado USD$81 millones hasta la fecha. Toptal Las empresas de todo el mundo luchan por encontrar y contratar talentos tecnológicos. Incluso obtener ayuda independiente de primer nivel es una gran tarea. Toptal coloca a las personas que ocupan roles altamente calificados, incluidos los ingenieros de software, diseñadores y profesionales de finanzas. El talento está ahí, pero ampliamente distribuido, dijo el CEO y cofundador de Toptal, Taso Du Val, en el evento de Forbes Next CIO. Toptal puede conectar, por ejemplo, a un ingeniero de software que vive en el Medio Oeste, con una compañía en Silicon Valley. “Creamos un servicio que lo hace a escala”, aseguró Du Val. Debido a que la satisfacción del cliente es crucial, Toptal emplea un arduo proceso de selección. En lugar de confiar en las pruebas automatizadas, el personal de Toptal examina el talento personalmente. Además, ofrece a los clientes un período de prueba de dos a cuatro semanas; si su ayuda independiente no funciona, no cobran. “Es importante que la persona tenga buenas habilidades de hardware y software”, explicó Du Val. Toptal es 100% virtual, con 400 empleados a tiempo completo repartidos por todo el mundo. Las posiciones calientes incluyen ingenieros competentes en aprendizaje automático, así como cualquier tipo de tecnología analítica y blockchain, dice Du Val Domino Data Lab La ciencia de datos es una de las disciplinas más populares. Para capitalizar eso, los ex empleados de Bridgewater Associates, Nick Elprin, Chris Yang y Matthew Granade, lanzaron Domino Data Lab, una plataforma de ciencia de datos. Su CEO, Elprin, habló en el evento Forbes Next CIO, y dijo que la plataforma sirve como un repositorio central para acelerar los modelos de entrega y darles gobernanza y transparencia a los proyectos de datos. Domino Data Lab trae el orden al caos y los bolsillos de diversas herramientas que existen en torno a la ciencia de datos. Dicha tecnología es importante ya que los CIOs buscan datos, análisis y aprendizaje automático para impulsar las predicciones comerciales y, en última instancia, las acciones. “Para mí, de eso se trata la ciencia de los datos. Se está combinando tecnología algorítmica con datos para hacer modelos predictivos”, argumentó Elprin. Domino Data Lab recaudó USD$27 millones en una ronda liderada por uno de sus clientes de fondos de cobertura, Coatue Management. Los inversionistas existentes; Sequoia Capital, Zetta Venture Partners y Bloomberg Beta también contribuyeron a la ronda, con lo que el monto total recaudado por la startup llegó a los USD$40.5 millones. Uptake General Electric (GE) ha hecho grandes progresos con Predix, una plataforma de análisis que analiza los datos generados por las máquinas industriales, como motores de locomotoras y turbinas de chorro, para predecir cuándo requerirán servicio o están en peligro de fallar, así como para optimizar la eficiencia del combustible y otras operaciones. Uptake apunta hacia el mismo mercado y ofrece una plataforma de software como servicio (SaaS) que hace recomendaciones a los clientes. Mientras que GE se ha enfocado en sus propias máquinas, Greg Goff, director de producto de Uptake, le indicó a CIO.com que la startup, que cuenta con más de 800 empleados, analiza los datos para mejorar las operaciones de las máquinas de cualquier fabricante, incluidos GE, Siemens y otros. GE ha estimado que este mercado vale miles de millones. Uptake ha recaudado USD$140 millones en fondos de Revolution Growth y GreatPoint Ventures. Harness.io La entrega continua de software sigue siendo un gran desafío en la floreciente era del desarrollo de operaciones. Jyoti Bansal, ex CEO de AppDynamics, la cual Cisco Systems adquirió por USD$3.7 mil millones a principios de este año, está intentando resolver ese problema con Harness.io. Saliendo del modo sigiloso en octubre, Harness.io tiene como objetivo automatizar el despliegue continuo de código, un principio central del desarrollo de operaciones. Bansal recurrió a Rishi Singh, ex arquitecto de la plataforma de desarrollo de operaciones en Apple, para la nueva empresa, aunque todavía necesita personal. De acuerdo con una publicación de Bansal en LinkedIn, “estamos buscando ingenieros senior/principales de software (infraestructura de punto final, sistemas distribuidos y aprendizaje automático) para mi nueva startup sigilosa. Envíame un mensaje en LinkedIn si estás interesado en saber más”. Harness.io se lanzó con USD$20 millones en fondos Serie A liderados por Menlo Ventures. Obsidian Security Otra startup con fundadores distinguidos es Obsidian Security, lanzada en junio por Matt Wolff (Científico en jefe), Glenn Chisholm (CEO) y Ben Johnson (CTO) a la cabeza. Johnson fue cofundador de la empresa cibernética Carbon Black, mientras que Chisolm y Wolff ocuparon altos cargos en la empresa cibernética Cylance. Johnson y Wolff también trabajaron en la Agencia de Seguridad Nacional. Obsidian ha mantenido su enfoque bajo estricto secreto, pero ha anunciado que está abordando la intersección de seguridad, inteligencia artificial y tecnología de nube híbrida. En LinkedIn, Johnson señaló que los defensores cibernéticos necesitan visiones uniformes y protección por lo que defienden, independientemente de su ubicación. Obsidian ha recaudado USD$ 9.5 millones en fondos de Serie A de parte de Greylock Partners. Petuum El startup de aprendizaje automático Petuum recaudó USD$93 millones en fondos de riesgo de SoftBank en octubre para desarrollar un sistema operativo y software para el entrenamiento y despliegue de redes neuronales artificiales. El objetivo de Petuum es democratizar la IA para las compañías que carecen del capital técnico y humano para hacerlo ellas mismas. Petuum fue cofundada por el CEO y Científico en Jefe Eric Xing, un profesor de ciencias de la computación en período sabático de la Universidad Carnegie Mellon. Mientras que muchos sistemas de IA se enfocan en servir un nicho específico, Xing dijo a CNBC que está haciendo que sus tecnologías estén disponibles para cualquier industria. Ayla Networks Se anuncia a sí mismo como un proveedor de plataforma con servicio (PaaS) de IoT que ayuda a los fabricantes a dar soporte a dispositivos conectados sin tener que construir una infraestructura de administración de punto final. Ayla se enfocó anteriormente en atender HVAC, electrodomésticos grandes y pequeños, administración del agua y control del hogar, pero con el creciente interés de la empresa en IoT, se ha expandido para admitir grandes mercados minoristas, industriales, de telecomunicaciones, proveedores de servicios y médicos. La compañía, cuyos clientes incluyen Fujitsu, Hunter y Brinks Home Security, anunció en noviembre USD$60 millones en financiamiento de Serie D por parte de Run Liang Tai Fund y Sunsea Telecommunications, con una inversión total de más de USD$120 millones. El CEO y cofundador de Ayla, Dave Friedman, dijo que la compañía está experimentando un crecimiento de 5x a 7x, allanando el camino para la última ronda de financiación. FogHorn Systems FogHorn Systems proporciona software de análisis de datos para empresas que aprovechan los sistemas de IoT. Los fabricantes, las compañías de petróleo y gas y otros sectores emplean miles de sensores que arrojan grandes cantidades de datos que son recolectados por las redes de borde. El software de FogHorn ha sido especialmente diseñado para analizar los datos generados en estos sistemas de computación de borde. Fundada en 2014, FogHorn en octubre obtuvo USD$30 millones en fondos , codirigidos por Intel Capital y Saudi Aramco Energy Ventures, con una inversión total de USD$47.5 millones. #nuevasideas #TI #iniciativas #propuestas #innovación #StartUps

  • 8 campamentos de ciencia de datos para impulsar la carrera

    CIO Las empresas confían cada vez más en el análisis de datos para informar todo, desde las operaciones diarias hasta el servicio al cliente y las iniciativas de marketing. Como resultado, la ciencia de datos se ha convertido en una gran habilidad con alta demanda en una amplia gama de industrias. Los campamentos de entrenamiento son una excelente manera de perfeccionar las habilidades en las ciencias de datos, ponerse al día con las últimas tendencias, cambiar la carrera profesional o crear una mayor seguridad laboral en la industria. Si está interesado en aprender más sobre ciencia de datos, uno de estos ocho campamentos de entrenamiento le ayudará a obtener las habilidades que necesita para impulsar su carrera, conseguir un nuevo trabajo o alcanzar un ascenso. Lea también: 5 campamentos para ejercer el análisis de datos Thinkful Thinkful ofrece un campamento en línea a su propio ritmo con un plan de estudios basado en proyectos, preparación profesional, tutoría individual y acceso a una comunidad completa de estudiantes, mentores y ex alumnos. También aprenderá a usar el lenguaje de programación Python, que es una habilidad comúnmente buscada por los científicos de datos. El campamento de Ciencia de Datos de Thinkful cuesta USD$8,550 por seis meses, con opciones de financiamiento y becas. Puede probar el programa con un curso de preparación de USD$500 , que se deducirá de la matrícula completa si es aceptado. El curso de preparación de tres semanas requiere alrededor de 20 a 25 horas por semana y sienta las bases para el programa de tiempo completo. Bit Bootcamp Bit Bootcamp ofrece programas a tiempo parcial y completo que duran de cuatro a ocho semanas. Los cursos incluyen programas de análisis de datos, ciencia de datos y aprendizaje automático, Hadoop, análisis de big data y análisis de datos avanzados con Spark. El curso completamente inmersivo (ciencia de datos y aprendizaje automático en la Big Data) tiene lugar en el campus de la ciudad de Nueva York, cuesta USD$15,500 y dura ocho semanas. Los cursos a tiempo parcial, que tienen lugar en el campus por la noche, cuestan USD$4,500 y tienen lugar tres días a la semana. Data Application Lab Data Application Lab es otro campamento de entrenamiento en la ciencia de datos en persona y a tiempo completo ubicado en Los Ángeles y Silicon Valley, pero también ofrece opciones en línea si no puede llegar a esos lugares. Los programas se enfocan en instruir a los estudiantes sobre las necesidades prácticas de la industria junto con académicos tradicionales. Los cursos utilizan conferencias, prácticas y proyectos de laboratorio para ayudar a agilizar el proceso de aprendizaje. Si tiene menos experiencia en la ciencia de la computación, también ofrecen una clase de programación y una pasantía de 10 semanas para ponerlo al día. Los programas de ciencia de datos incluyen ciencia general de datos, ingeniería de big data, analista de datos, y un programa completo sobre la ciencia de datos y soluciones de big data. Cada campamento tiene diferentes requisitos, por lo que querrá asegurarse de cumplirlos antes de presentar la solicitud. La matrícula varía según el programa, la ubicación o el curso que elija. Galvanize Galvanize ofrece cursos en persona, pero a diferencia de algunos de los otros campamentos mencionados, ellos están distribuidos por todo el país. Con programas en Seattle; San Francisco; Phoenix; Nueva York; Austin, Texas; y múltiples ubicaciones en Colorado, los cursos presenciales son más accesibles para quienes no vive en Nueva York o California. Puede tomar un curso de ciencia de datos a tiempo completo, o puede optar por tomar cursos de tiempo parcial o independientes. Tendrá que presentar una solicitud y el proceso incluye un ejercicio técnico, pero es más para medir su nivel actual y ver si tienes el potencial para tener éxito en el área. Los cursos, la matrícula y la disponibilidad varían para los cursos de tiempo completo y de medio tiempo, y dependerán de la ubicación que elija. Insight Insight ofrece un programa de becas de 7 semanas destinado a posgraduados para ayudarlos en la transición de la academia al mundo profesional. Los cursos se ofrecen en Silicon Valley, Boston y Nueva York, todos centros importantes para la ciencia de datos. El programa ofrece aprendizaje con proyectos, trabajando directamente con profesionales de la industria para ayudarle a construir su red y obtener una entrevista de trabajo una vez que el curso haya sido completado. Poseen un programa de becas, donde los aceptados asistirán de forma gratuita, pero los requisitos para aplicar incluyen experiencia en la física, astrofísica, matemáticas, estadística, bioinformática, ingeniería, computación o neurociencia, así como un título de doctorado. K2 Data Science K2 Data Science ofrece programas en línea, talleres y seminarios web en ciencia de datos y análisis de datos. Los programas incluyen un plan de estudios basado en videos combinado con tareas, proyectos guiados, tutorías individuales y la finalización de una cartera digna de empleo. Incluso incluyen orientación profesional para ayudarle a actualizar su currículum, cartas de presentación, perfil de LinkedIn y portafolio de GitHub. Los programas de ciencia de datos están enraizados en Python, con un enfoque en la ciencia de datos y algoritmos de aprendizaje automático. La matrícula varía según el programa que elija, pero comienza en alrededor de USD$ 3.000 y hay becas disponibles para los estudiantes que califiquen a ellas. Vea después: ¿Cómo explotar sus habilidades de desarrollador? Springboard Los cursos de Springboard son completamente en línea y se enfocan en enseñar habilidades demandadas para preparar su carrera para el futuro. Hay cursos para cada nivel de capacitación, desde el inexperto hasta el profesional experimentado. Tendrá acceso a la comunidad de Springboard, un mentor, un entrenador de carrera y un asesor estudiantil. Con un enfoque centrado en la experiencia práctica que se aplicará a situaciones del mundo real, Springboard desea ayudarle a crear un portafolio que impresionará a los reclutadores. Los cursos intermedios y de nivel básico cuestan USD$499 por mes, y la mayoría de los estudiantes completan el curso en dos o cuatro meses. La carrera profesional de Data Science, que cuesta USD$4.800, también viene con una garantía de trabajo, que promete un trabajo al finalizar el programa. General Assembly General Assembly ofrece cursos, talleres y eventos a tiempo completo y a tiempo parcial en persona y en línea, y el número de ciudades donde se ofrecen cursos en persona sigue aumentando. El catálogo completo del curso es extenso, y hay un programa para cada habilidad relacionada con la ciencia de datos que pueda imaginar. Los cursos van desde intensivos de una semana hasta programas de inmersión total de 10 a 13 meses, pero es fácil encontrar algo que se adapte a su agenda y presupuesto. El costo de los cursos varía según lo que elija, pero General Assembly ofrece uno de los catálogos de cursos más completos de esta lista. Ya sea que se haya graduado recientemente, esté buscando cambiar de trabajo o que sea un científico de datos experimentado que intenta expandir sus habilidades, aquí conseguirá el curso que mejor se adapta a usted. #actualizaciónprofesional #campamentos #cienciadedatos

  • 10 errores en la nube que pueden hundir su negocio

    CIO Los optimistas disfrutan diciendo que el sol siempre brilla sobre las nubes. Lo que no mencionan es que debajo de las nubes a menudo hay fuertes vientos, aguaceros torrenciales, relámpagos y ocasionales lluvias de granizo del tamaño de una pelota de golf. Lo mismo es cierto con la computación en la nube. En el lado soleado, ofrece una variedad de beneficios, que incluyen la promesa de mayor fiabilidad, flexibilidad, capacidad de administración y escalabilidad. Mira hacia abajo y verás el lado oscuro, un lugar donde un solo error, descuido o mal cálculo puede llevar a una catástrofe total. Si desea garantizar una transición a la nube que traiga beneficios a su empresa en lugar de tinta roja y demandas judiciales, evite estos 10 errores comunes. Lea después: 6 tendencias que marcan las estrategias de computación en la nube 1.Moverse a la nube sin una estrategia de gobernanza y planificación Es absolutamente simple aprovisionar recursos de infraestructura en la nube, y es tan fácil pasar por alto las políticas, la seguridad y los problemas de costos en los que se puede incurrir. Aquí, la gobernanza y la planificación son esenciales. “Si bien el objetivo es la gobernanza y la planificación, no es necesario abordarlo de una sola vez. Usa pequeñas iteraciones compatibles con la automatización, de esta manera, puedes abordar las tres áreas críticas de la gobernanza: monitoreo/gestión, seguridad y finanzas, para resolver rápidamente los problemas y remediarlos”, dijo Chris Hansen, líder en las prácticas de infraestructura en la nube de SPR Consulting, una firma consultora de tecnología. Un error relacionado no es comprender por completo quién dentro de la organización es responsable de las tareas específicas con la nube, como la seguridad, las copias de seguridad de datos y la continuidad del negocio. “Cuando algo sale mal y estas cosas no se han resuelto, las empresas podrían encontrarse en una situación realmente difícil”, señaló Robert Wood, director de seguridad de SourceClear, un proveedor de plataformas de automatización de la seguridad. A medida que las expectativas de los clientes se elevan, está claro que uno de los mayores desafíos a los que se enfrentan las organizaciones actuales es mover el foco de los productos y enfocarse en la experiencia del consumidor. 2.Creer que cualquier cosa puede ir a la nube A pesar del gran progreso realizado en los últimos años, muchas aplicaciones aún no están preparadas para la nube. Una empresa puede dañar seriamente el rendimiento de una aplicación, la experiencia del usuario y las ventas si envías algo a la nube que no está totalmente preparado o requiere una integración compleja con sistemas heredados, mencionó Joe Grover, socio de LiquidHub, un especialista en compromiso del cliente digital. 3.Tratar a la nube como un centro de datos local Un error costoso que muchas empresas cometen es tratar su entorno en la nube como un centro de datos local. “Si tomas ese camino, tu empresa terminará enfocándose en el análisis del costo total de propiedad (TCO) para tomar decisiones cruciales sobre la migración”, indicó Dennis Allio, presidente del grupo de servicios de tecnología en la nube para el integrador de tecnología Workstate. Si bien los servicios en la nube pueden generar ahorros drásticos en los costos, también requieren un proceso de administración de recursos completamente diferente. Considere, por ejemplo, mover un servidor de una sola aplicación a un centro de datos a la nube. “Un análisis de TCO adecuado tendrá en cuenta cuántas horas al día el servidor estará en uso”, comentó Allio. Para algunas compañías, un servidor puede ser usado solo durante el horario comercial normal. En un centro de datos, dejar un servidor encendido 24 horas al día, 7 días a la semana, agrega solo un ligero costo adicional a la factura de servicios públicos de la instalación. Pero en la nube, los usuarios generalmente pagan por hora. “Su análisis de TCO en la nube probablemente asume ocho horas por día de uso de la nube, lo que puede traer una sorpresa no deseada, con un costo potencialmente triplicado, si tu grupo de administración de sistemas en la nube no incluye procesos para apagar esos servidores cuando estos no están en uso”, agregó Allio. 4.Creer que el proveedor de servicios en la nube se encargará de todo Los proveedores de servicios en la nube (CSP) de primer nivel suministran a todos los clientes, independientemente del tamaño, capacidades operativas equivalentes a un equipo de TI de Fortune 50, expresó Jon-Michael C. Brook, autor y consultor que actualmente es copresidente del grupo de trabajo para amenazas de seguridad en la nube de Cloud Security Alliance. Sin embargo, con base en el modelo de responsabilidad compartida , los CSP son responsables solo de lo que pueden controlar, principalmente los componentes de la infraestructura de servicio. Muchas tareas, particularmente implementar, mantener y hacer cumplir las medidas de seguridad, se dejan al cliente para que las proporcione y administre. “Tomate el tiempo para leer las mejores prácticas en la nube que estás implementando, sigue los patrones de diseño de la nube y comprende tus responsabilidades. No confíes en que tu proveedor de servicios en la nube se encargará de todo”, aconsejó Brook. 5.Suponer que “levantar y cambiar” es la única ruta clara de migración a la nube Las ventajas de los costos de la nube pueden evaporarse rápidamente cuando se toman decisiones estratégicas o arquitectónicas deficientes. Una transición de “levantar y cambiar” en la nube de (simplemente cargando imágenes virtualizadas de sistemas internos existentes en la infraestructura de un CSP) es relativamente fácil de administrar, pero potencialmente costoso, ineficiente y arriesgado a largo plazo. “El enfoque de levantamiento y cambio ignora la escalabilidad elástica para aumentar y disminuir la demanda. Puede haber sistemas dentro de un diseño que sean apropiados para ser una copia exacta, sin embargo, colocar toda una arquitectura empresarial directamente en un CSP sería costoso e ineficiente. Invierte el tiempo de anticipación en rediseñar tu arquitectura para la nube y te beneficiarás enormemente”, concluyó Brook. 6. Fallar a la hora de monitorear el desempeño del servicio No evaluar regularmente el servicio en la nube que realmente se recibe contra las expectativas planificadas es una forma rápida de desperdiciar dinero y degradar las operaciones comerciales esenciales. “Una organización debe revisar periódicamente los indicadores de rendimiento clave establecidos y tomar las medidas adecuadas para manejar las desviaciones reales y potenciales de los resultados planificados”, dijo Rhand Leal, analista de seguridad de la información de la consultora de estándares globales Advisera Expert Solutions. 8.Asumir que el personal de TI existente puede manejar de inmediato una migración a la nube Azure, AWS y todas las demás plataformas en la nube son radicalmente diferentes de los días de una red interna plana que puede ser administrada por casi cualquier persona, “incluso el sobrino del CEO”, indicó Chris Vickery, director de investigación de riesgos cibernéticos de UpGuard, proveedor de servicios de evaluación de seguridad cibernética. “Si no hay un presupuesto para contratar a alguien especializado en administración en la nube, debería hacer una inversión de tiempo considerable para capacitar al personal de TI, antes de mover cualquier bits o ciclos de computación hacia una solución en la nube”, añadió Vickery. La ignorancia de la nube puede conducir fácilmente a una catástrofe de seguridad. Vickery afirmó que ha descubierto cientos de millones de registros comerciales confidenciales procedentes de empresas que no tenían idea de que estaban exponiendo sus datos al Internet público. “Si un actor malintencionado hubiera tenido acceso a esta información, la gran mayoría de esas entidades podrían haber enfrentado de todo, desde la extorsión hasta comprometer completamente la red interna. Los ejecutivos pueden evitar este desastre potencial gastando un poco más en conseguir a la persona adecuada para hacer el trabajo o asegurándose de que el departamento de tecnología tenga suficientes conocimientos y servicios disponibles para hacer bien el trabajo”, dijo Vickery. 8. Confiar ciegamente en scripts automatizados Uno de los principales beneficios de pasar a un entorno basado en la nube es el aprovisionamiento y desaprovisionamiento automático de recursos informáticos. “En su mayor parte, las empresas se beneficiarán de cualquier tipo de automatización“, aclaró David R. Lee, director de operaciones de la firma de consultoría de TI, The Kastling Group. Sin embargo, los procesos automatizados que están mal escritos, que son demasiado complejos y no están bien documentados pueden llevar a tiempos de inactividad prolongados, lo que afecta significativamente las operaciones comerciales críticas. Realizar pruebas automatizadas para scripts automatizados en un entorno controlado y la capacitación de los empleados para la recuperación podrían ayudar a mitigar este riesgo. 9. Creer que la seguridad ya no es su problema Los servicios en la nube, en general, ofrecen una seguridad fantástica. Debido a que trabajan con todos los tipos posibles de compañías, piensan y resuelven problemas de seguridad que su propia empresa nunca enfrentará. Aun así, los CSP en general no hacen nada para corregir la mala administración del sistema de un cliente, procesos de desarrollo de software escabrosos o políticas de seguridad descuidadas. “Ese sigue siendo tu trabajo”, enfatizó Allio. Si Equifax hubiera migrado su aplicación a un servicio gestionado en la nube, esos parches habrían sido automáticos y habrían detenido la violación de seguridad. Esta falla al implementar incorrectamente los servicios en la nube puede dejar brechas en la seguridad. Vea luego: Soluciones en la nube, un atractivo en la transformación digital 10. Descuidar la continuidad del negocio y los planes de recuperación de desastres Todo lo que se pone en la nube está 100% seguro, ¿verdad? Bueno, no siempre. Si bien es cierto que los proveedores más grandes de la nube crean infraestructuras y servicios con porcentajes de tiempo de actividad que superan con creces los niveles que la empresa promedio puede lograr, eso no significa que sean inmunes a las interrupciones causadas por los sistemas y personas. “Si tiene procesos críticos para la empresa que se ejecutan en la nube, prepárese para manejar el tiempo de inactividad”, advirtió Tim Platt, vicepresidente de servicios empresariales de TI para Operaciones Virtuales, una firma de consultoría de TI. Incluso en la nube, el tiempo de actividad puede desaparecer rápidamente. El servicio de almacenamiento simple de Amazon (S3), por ejemplo, experimentó una interrupción importante en febrero de 2017 causada por un error de escritura simple. Muchos servicios en la nube ofrecen opciones automáticas de respaldo y recuperación. Pero no debe darse por hecho.  ¿Qué pasaría si un hacker malintencionado o un administrador de sistema disgustado borrara datos críticos? ¿Cómo se recuperaría?  ¿Existen mecanismos de respaldo adecuados? Todas las consideraciones que se aplican a los sistemas locales también se aplican a los sistemas basados ​​en la nube. #errores #negocio #nube

  • Tres roles ejecutivos diferentes que buscan la misma meta en los datos

    CIO La informática está cambiando a un ritmo rápido, y también lo están haciendo sus líderes. Con la transformación digital, una de las principales preocupaciones de muchas organizaciones y la revolución analítica en plena vigencia, las empresas están diseñando nuevos roles ejecutivos que de otro modo podrían estar bajo la tutela del CIO. Entre las adiciones técnicas más populares a la junta de gerentes se encuentran el director de datos, el director de análisis y el director de operaciones digitales. Aunque los tres títulos describen funciones claramente diferentes, hay más superposición entre ellos de lo que se podría pensar. Esto se debe a que estas nuevas posiciones surgieron por una sola razón: una gran organización que vive en un mundo rápidamente cambiante y enfrenta una disrupción tecnológica. Se vio la necesidad de un ejecutivo que pueda hacer que la organización en su conjunto se base más en el uso de los datos, sea más hábil digitalmente, y este mejor preparada para los desafíos del futuro. Lea luego: Directores de IT, es hora de transformarse “Si nos fijamos en el trabajo que todas estas personas están haciendo en general, hay elementos que se vinculan al producto, a la orientación del comportamiento y al modelo de ingresos. Las tres funciones se relacionan con el diseño y la infraestructura correctas para ejecutar en ellas “,  analizó Chris Galy, jefe de personal del mercado de bienes raíces Ten-X. Es posible que alguna vez esa tarea haya residido en el CIO y, en algunas organizaciones, todavía sea así. Pero en muchas empresas, los departamentos de TI sobrecargados y sus líderes están felices de superar los desafíos de extraer valor a partir de los datos y crear (y evitar) la disrupción digital de uno de estos nuevos roles. Aunque los tres títulos surgieron de la necesidad de crear una transformación digital y aprovechar el poder de los datos, cada uno aborda el problema desde una dirección ligeramente diferente. A continuación, se detallan los roles y responsabilidades de estos líderes emergentes de TI El papel y las responsabilidades principales del director de datos Los directores de datos supervisan los datos en sus organizaciones, pero lo que eso significa varía de una compañía a otra. En algunos, el director de datos maneja principalmente los datos, asegurándose de que sean de alta calidad y significativos, y creando la infraestructura para almacenarlos y manejarlos adecuadamente. Este tipo de director de datos deja el análisis de datos a un director de análisis o a otro cargo. En otras compañías, el director de datos es responsable del análisis de los datos y de obtener información útil de ellos. Él o ella también pueden supervisar la gestión y el almacenamiento de datos, o esas tareas pueden recaer en el departamento de TI. Los directores de datos más efectivos son aquellos que dejan la supervisión de la administración de datos a otra persona, explicó Andrew White, vicepresidente de investigación y analista distinguido de Gartner. “Los directores de datos que dicen que están agregando valor a sus negocios no tienen la responsabilidad de administrar los datos. Eso se mantiene firmemente con los tecnólogos. Ellos tienden a centrarse en la estrategia, priorización y los negocios. Actúan en nombre de otras oportunidades comerciales. Priorizan qué decisiones son prioritarias para la junta”, añadió White. White también consideró que, de los tres nuevos puestos, es más probable que el director de datos esté en uso a largo plazo. “Hace seis o siete años, los bancos tenían jefes de seguridad, directores de privacidad, directores de información. Pero a pesar de que tenían muchos directores, nadie estaba tomando la iniciativa de poner en funcionamiento el valor comercial de los datos. Se les ocurrió la función de director de datos como un intento de poner a alguien a cargo del uso comercial de los datos y otras empresas los copiaron”, dijo White. Aunque algunos CIO y CTOs vieron este nuevo rol como una incursión en su territorio, la mayoría se alegraron de entregar el desalentador trabajo de extraer valor de los datos. El papel y las responsabilidades principales del director de análisis ¿Cuál es la diferencia entre un director de análisis y un director de datos? Depende de a quién se le pregunte. Un director de análisis es responsable del análisis de datos y la inteligencia empresarial. Pero algunos expertos piensan que esto es parte del trabajo del director de datos. “No sé si hay una gran diferencia entre un director de datos y un director de análisis. Las empresas se enfocan en los títulos y no en lo que realmente están tratando de lograr con ellos”, comentó Mike Doonan, socio de la firma de reclutamiento de alta tecnología SPMB en San Francisco. Otros ven ambos roles como dos trabajos diferentes con distintos antecedentes. “El director de datos tiene que ver con la habilitación de los datos. El análisis está relacionado con cómo manejas las estadísticas de esos datos. ¿Cómo puedes hacer que esos datos sean procesables para los negocios? “, aseguró Justin Cerilli, jefe de la práctica de análisis y datos para la consultora Russell Reynolds Associates. El director de datos, no suele tener un trasfondo en la ciencia de datos , mientras que un director de análisis generalmente sí lo tiene. Al mismo tiempo, los buenos directores de datos quieren asegurarse de que estén trabajando con los datos correctos y de que estos sean de alta calidad. “Puede ser difícil lograr que una organización comprenda la parte de la administración de datos. He visto grandes líderes analíticos ir a organizaciones donde los datos aún no estaban listos para ellos y se han ido frustrados”, agregó Cerilli. Esta es la razón por la cual algunos directores de datos quieren la responsabilidad final de la administración de datos, y por qué algunos expertos recomiendan otorgar ambas funciones a un ejecutivo. Si el director de datos está haciendo bien el trabajo, él o ella tienen una alta probabilidad de revolucionar los procesos comerciales existentes. Eso significa que un buen director de datos debe tener relaciones sólidas dentro de la organización, un profundo conocimiento del negocio y excelentes habilidades de comunicación. “Las habilidades en ciencia de datos, las habilidades tecnológicas y todo eso son necesarias pero insuficientes. En última instancia, la organización necesita consumir análisis, y eso significa cambiar las decisiones comerciales “,  manifestó Chris Mazzei, director de análisis de EY. El papel y las responsabilidades principales del director de operaciones digitales Si ser el evangelista en jefe para extraer valor de los datos y cambiar los procesos comerciales es parte del papel del director de análisis, esa función es el centro de atención de los jefes digitales .Pero más allá de la necesidad de hacer un llamado a nuevos enfoques más digitales para resolver los problemas de negocios, el rol puede significar cosas diferentes en diferentes organizaciones. “Es un rol un tanto multifuncional. Significa cosas muy diferentes para diferentes personas. En algunos casos, es una función interna que tiene que ver con maximizar el marketing digital. En nuestro caso, se trata de ayudar a nuestros clientes a adoptar lo digital y brindar mejores experiencias a sus clientes “, declaró Curt Stevenson, director digital de la compañía de software de seguros Duck Creek Technologies. No se pierda: 5 especializaciones para directores de TI ¿A quién deberían reportar estos directores? ¿Dónde caben los directores de datos, los directores de operaciones digitales y los directores de análisis en la estructura informativa? En una encuesta reciente realizada por Gartner entre los directores de operaciones digitales y los directores de análisis, el 40% dijo que informaron al CEO. 16% reportó al CIO, y el resto reportó al CFO, CTO o un título que no es de la junta directiva. Para las organizaciones que esperan que estos nuevos títulos actúen como agentes de cambio, es más inteligente hacer que informen al ejecutivo principal, según los expertos. Colin Zima, director de análisis de la plataforma de análisis de datos Looker, dijo que conoce directores de análisis que informan al director financiero o al director de informática, así como al director general, pero las cosas están cambiando. Un director de análisis que no informe directamente al CEO puede crear valor para una organización, pero será más difícil para esa persona impulsar el cambio organizacional. Además de las líneas de informes correctas, también necesita los valores organizativos correctos y el apoyo adecuado del liderazgo para crear un cambio real. Es necesario que exista la expectativa de que los datos se utilicen para tomar decisiones, y eso viene absolutamente de arriba hacia abajo. Si las personas esperan que puedan utilizar los datos para tomar mejores decisiones, entonces usarán los datos para tomar mejores decisiones. Google es un gran ejemplo de una compañía donde la toma de decisiones basada en datos es la norma. #diferencias #directordeanálisis #directordedatos #directordeoperacionesdigitales

  • 8 herramientas gratuitas para el diagnóstico de redes Wi-Fi

    CIO He aquí ocho herramientas gratuitas, algunas para Windows y otras para Mac OS X, que brindan detalles básicos sobre las señales de Wi-Fi cercanas: SSID, potencia de la señal, canales, direcciones MAC y nivel de seguridad. Algunas incluso pueden revelar SSID “ocultas” o indicar los niveles de ruido de su conexión inalámbrica. Uno de ellos incluye herramientas de descifrado de contraseñas Wi-Fi, útiles para fines educativos o para realizar pruebas de penetración. La mayoría de estas herramientas son versiones gratuitas de herramientas de pago hechas por los mismos proveedores y carecen de algunas de las características incluidas en las versiones comerciales. Acrylic Wi-Fi Home 3.1 (Windows) Tarlogic Security ofrece Acrylic Wi-Fi Home , un stumbler de Wi-Fi que es una versión reducida de su versión comercial. La edición gratuita tiene una GUI simple pero atractiva. Siempre se podrá ver la lista de SSID y sus detalles en la parte superior de la aplicación. Muestra valores negativos de dBm para RSSI, puede detectar el estándar 802.11 (incluido 802.11ac), reconoce anchos de banda mayores y muestra los múltiples canales utilizados. No revela los SSID ocultos, pero sí muestra otros detalles sobre ellos. La aplicación tiene una función de inventario en la que se puede asignar y guardar nombres de SSID y/o clientes detectados. En la parte inferior se observan las clasificaciones de red del SSID seleccionado, y un gráfico que muestra la intensidad de señal de cada SSID. Lea luego: Distintos tipos de wifi ¿Cuál es su preferido? Aunque está un poco escondido, hay un modo avanzado que muestra dos gráficos adicionales, uno para las frecuencias 2.4GHz y otro para las de 5GHz. Da un vistazo del uso de la banda, incluida la vinculación de canales y la intensidad de la señal al mismo tiempo. Para exportar o guardar los datos capturados, la aplicación está limitada a copiar solo una fila de datos en el portapapeles y pegar el texto sin formato en un documento de texto o en una hoja de cálculo. También hay una función para publicar una captura de pantalla en Twitter. Cain & Abel (Windows) Es una aplicación de recuperación y craqueado de contraseñas multipropósito que también cuenta con herramientas Wi-Fi para hacer stumbling y sniffing. Al igual que Acrylic WiFi, también tiene un monitor o modo “promiscuo” para capturar más tráfico. Su GUI tiene un aspecto y un tacto más antiguos y simplistas. Tiene una barra de herramientas estilo antiguo en la parte superior con iconos para mostrar diferentes utilidades. La parte principal de la aplicación posee pestañas. La pestaña Wireless es donde se encuentra el stumbler de Wi-Fi. Además del típico SSID e información de señal, muestra una lista y detalles de los clientes conectados. Para los SSID y los clientes, el stumbler proporciona números de ciertos paquetes detectados: todos los paquetes, WEP IVs únicos y solicitudes ARP. Al igual que Acrylic WiFi, cualquier SSID oculto descubierto a partir de los paquetes se revela también en la GUI. La mayor parte de los estados y los datos capturados se pueden exportar a un archivo de texto simple. Debido a la falta de gráficos y la incapacidad de distinguir en APs de 802.11ac y anchos de banda más grandes, Cain & Abel podría no ser una gran opción para hacer stumbling y monitorear el Wi-Fi. Pero ciertamente sería útil para realizar pruebas de penetración. Ekahau HeatMapper (Windows) Es una herramienta gratuita de encuesta en el sitio basada en mapas para uso doméstico, una versión reducida de su producto profesional. Muestra detalles de la red de forma similar a un stumbler de Wi-Fi, pero también genera un mapa de calor en el que se puede visualizar los niveles de señal. La aplicación ofrece la opción de crear un plano o diseño del edificio que está siendo inspeccionando o un diseño de cuadrícula para tener una guía aproximada. El lado izquierdo de la pantalla principal muestra una lista de los SSID y sus detalles, los cuales se pueden ordenar por señal, banda, SSID, dirección MAC y método de seguridad. Incluye los detalles de la red principal, pero carece de un indicador de los niveles de señal en dBm y valores porcentuales. Solo muestra barras de señal en la lista y las redes 802.11ac y 802.11n. Al igual que en otras herramientas, se debe hacer clic en la ubicación en el mapa mientras se camina por el edificio para poder generar el mapa de calor. Estimará automáticamente las ubicaciones de los puntos de acceso (AP) y los colocará en el mapa. Después de capturar algunos datos, al pasar el cursor sobre los iconos de los puntos de acceso, se mostrarán sus coberturas individualmente. Al desplazarse sobre las áreas del mapa de calor, se muestra una ventana emergente con el nivel de señal en valores negativos de dBm. La única funcionalidad de exportación o de “guardar” de la aplicación es tomando un pantallazo simple del mapa de calor. Homedale (Windows) Homedale es un stumbler relativamente sencillo y portátil basado en Windows con una interfaz de línea de comandos opcional. Además de mostrar la red básica y los detalles de la señal, es compatible con GPS y otras formas de geolocalización. Esta utilidad tiene una GUI simple que se parece más a un cuadro de diálogo de múltiples pestañas que a una aplicación completa. La primera pestaña, ‘descripción general del adaptador’, muestra una lista de todos los adaptadores de red, su puerta de enlace IP y direcciones MAC. La pestaña de’ puntos de acceso’ indica muchos detalles esenciales. No muestra el estándar 802.11 de cada SSID, pero sí las velocidades de datos admitidas y los múltiples canales utilizados por todas las SSID con anchos de banda mayores. Además, no revela los SSID ocultos reales, pero muestra los otros detalles de red de los SSID ocultos. Una característica es que permite guardar notas sobre los SSID de forma individual, que luego se pueden incluir en los datos exportados. La pestaña ‘gráfico de las señales de los puntos de acceso’ muestra un gráfico de línea con los niveles de señal para cada SSID seleccionado. La pestaña ‘uso de frecuencia’ da un vistazo a las visualizaciones de banda para la banda de 2,4 GHz y cada subconjunto de la banda de 5 GHz. También muestra útilmente el uso de la banda (incluida la vinculación de canales) y la intensidad de la señal. Para ser una aplicación gratuita, Homedale ofrece excelentes capacidades de exportación. Es posible guardar la lista de redes como un archivo CSV, registrar las redes de cada exploración (útil si se mueve mientras se está escaneando) y guardar una imagen de cada gráfico. LizardSystems Wi-Fi Scanner (Windows) LizardSystems ofrece una edición gratuita de su escáner de Wi-Fi para uso no comercial, que tiene las mismas características y funcionalidad que su producto pago. Además de la funcionalidad de stumbler Wi-Fi, la aplicación ofrece algunas excelentes capacidades de análisis y de reporte. Tiene una interfaz gráfica de usuario moderna que es fácil de recorrer y entender. En la pestaña del escáner hay una lista de los SSID detectados. Junto con los detalles típicos, muestra la intensidad de la señal tanto en valores negativos de dBm como en porcentajes. Incluso muestra la cantidad de clientes conectados a cada SSID. Al lado de la especificación de los estándares 802.11, se detallan los múltiples canales utilizados por cualquier SSID con anchos de banda mayores. Puede usar la lista a la izquierda para filtrar los SSID que se muestran según el nivel de señal, el estándar 802.11, el método de seguridad y la banda de frecuencia. En la parte inferior de la pestaña de ‘escáner’, se permite alternar entre varios gráficos. Además de la típica información sobre el nivel de las señales y los gráficos de uso de la banda, es posible visualizar las velocidades de datos, la utilización de la banda y la cantidad de clientes. Los detalles de la red en la parte inferior muestran detalles de la conexión actual. La pestaña ‘detalles avanzados’ visualiza distintos detalles como los paquetes sin procesar. La pestaña ‘conexión actual’ brinda más detalles sobre la conexión inalámbrica del momento. Permite acceder y administrar la lista de perfiles de redes inalámbricas guardadas en Windows 10, lo que puede ser útil ya que Windows ya no permite el acceso nativo o la administración de esa lista. En la pestaña de ‘estadísticas inalámbricas’ hay gráficos y datos sobre diferentes tipos de paquetes de capa MAC y PHY, útiles para realizar un análisis de red avanzado. La función de exportación básica puede guardar la lista de redes en un archivo de texto sin formato. Además, genera un informe que enseña un resumen de los tipos de redes encontrados junto con todos los detalles de las SSID recolectadas, los comentarios que se haya agregado e imágenes de los gráficos. NetSpot (Windows y Mac OS X) Esta es la única herramienta reseñada aquí que está disponible tanto para Windows como para Mac OS X. Es una versión reducida de sus versiones pagas, Home y Professional. En la pestaña ‘descubrir’ de Netspot se encuentra su stumbler Wi-Fi. Aunque tiene una GUI simple, tiene un aspecto moderno, y los detalles de red de los SSID se muestran en negrita y de forma clara. Los niveles de señal se ven en valores negativos de dBm (nivel actual, mínimo y máximo) y en porcentajes. Sin embargo, no muestra ninguna red oculta en la lista de redes. Aunque hay un botón de exportación, no funciona en la edición gratuita. Al hacer clic en el botón ‘detalles’ en la parte inferior de la aplicación, se muestra un gráfico de señal combinado y un gráfico de uso de la banda para cada banda, que resalta convenientemente el SSID en los gráficos en función del cual se haya seleccionado de la lista de redes. Además, tiene una vista tabular de los detalles de la señal de cada SSID para ver los niveles exactos de cada escaneo en la aplicación. La edición gratuita de NetSpot entrega un buen Wi-Fi stumbler, aunque no admite redes ocultas. La aplicación muestra características que no funcionan, solo para usuarios de paga, pero brinda una mejor idea de las características disponibles en esa versión. WirelessNetView (Windows) WirelessNetView es una utilidad freeware de NirSoft, que se ofrece para fines personales o comerciales. Se trata de un stumbler Wi-Fi basado en Windows muy simple, disponible como una aplicación instalable o portátil. La GUI de WirelessNetView es muy simple, básicamente es solo una ventana que muestra la lista de redes. En cuanto a la intensidad de la señal, enseña los valores negativos de dBm y los porcentajes, vislumbra los valores de la última señal recibida y el promedio a lo largo del tiempo. Otro detalle único que ofrece es la frecuencia en la que se ha detectado cada SSID, lo que podría ser útil en determinadas situaciones. Al hacer doble clic en una red aparece un cuadro de diálogo con todos los detalles de esa red en particular, lo cual es útil, ya que ver todos los detalles en la lista principal requiere mucho espacio en las pantallas horizontales. Al hacer clic con el botón derecho en una red de la lista, se pueden exportar detalles de esa red en particular o de todas las redes a un archivo de texto o HTML. El menú de la barra de herramientas de opciones dispone de algunas configuraciones y características adicionales, como el filtrado, el formato de la dirección MAC y las preferencias de visualización. Ten en cuenta que esta utilidad carece de funciones avanzadas, como gráficos, compatibilidad total con 802.11ac y el reconocimiento de todas las bandas para los puntos de acceso que utilizan anchos de banda más grandes. Sin embargo, aún podría ser útil para hacer stumbling Wi-Fi simple, especialmente si encuentra valiosas algunas de sus características únicas. Wireless Diagnostics (Mac OS X Lion y posterior) Es más que solo un stumbler; también puede ayudarle a detectar y solucionar problemas de Wi-Fi. Lo mejor de todo, es que es una herramienta nativa incluida en el sistema operativo. Para comenzar, mantenga presionada la tecla opción y luego haga clic en el ícono de Aeropuerto/Wi-Fi en la parte superior de Mac OS X. Esto mostrará más detalles de su conexión Wi-Fi actual al mismo tiempo que ofrece un acceso a la herramienta Wireless Diagnostics. Al abrir Wireless Diagnostics, aparece un asistente que puede solicitarte detalles adicionales, como la ubicación, la marca y el modelo del enrutador. Luego comienza a ejecutar pruebas para detectar problemas. Muestra un resumen de los resultados, y al hacer clic en el ícono de cada resultado, se ven más detalles y sugerencias. Mientras el cuadro de diálogo del asistente está abierto, al hacer clic en ‘ventana’ en la barra de herramientas en la parte superior, se muestran utilidades adicionales. No se pierda: KRACK rompe con WPA2 de wifi La utilidad de escaneo es un stumbler Wi-Fi simple, que muestra los detalles habituales de las redes detectadas junto con un resumen de los tipos de redes y los mejores canales. Una ventaja importante es que muestra los niveles de ruido de los canales de Wi-Fi, que la mayoría de los stumblers de Windows no muestran. Sin embargo, sería bueno si visualizara todos los canales utilizados por los SSID que utilizan anchos de banda más grandes en lugar de solo mostrar los anchos de banda y la banda central. La utilidad de información muestra la conexión de red actual y los detalles de la señal. La utilidad ‘Logs’ permite configurar el registro de diagnóstico de Wi-Fi, EAPOL y Bluetooth. La utilidad de rendimiento muestra gráficos de la señal y el ruido, la calidad de la señal y la velocidad de datos de la conexión actual. La utilidad Sniffer ayuda a capturar paquetes inalámbricos sin procesar y puede exportar la información a un analizador de paquetes de terceros. Las utilidades de Wireless Diagnostics de Mac OS X son bastante impresionantes en comparación con las herramientas inalámbricas provistas por Microsoft en los sistemas operativos Windows. Sin embargo, falta un gráfico que muestre el uso de la banda para cada canal Wi-Fi. #diagnósticoderedes #wifi #conexiones #estatus #WiFi

  • Las 6 claves de la transformación digital de Matson

    CIO Matson (anteriormente Matson Navigation) es una organización con ambiciones globales. La empresa de transporte público de 135 años de edad ha seguido transformándose de una institución regional hawaiana a un jugador multirregional. Su expansión en el Pacífico (desde Alaska hasta Guam y desde Nueva Zelanda hasta China) ha sido rigurosa por donde se vea. Su éxito no solo se basó en establecer nuevas rutas comerciales, sino también en cumplir con la obligación corporativa de “hacerlo sin diluir nuestra marca, sin erosionar los márgenes y sin dañar la experiencia del cliente“, señaló Peter Weis, vicepresidente y CIO de Matson Inc. La expansión regional estaba unida en un nivel tecnológico con la necesidad de una “versión única de la verdad” a través de una plataforma unificada, dijo Weis. En esta plataforma, un único conjunto de reglas comerciales dictaría cada envío de Matson, desde el inicio de la orden hasta el cumplimiento y el pago. Lea luego: Nuevas exigencias para el CIO con la transformación digital Permitiría conciliar rápidamente los reclamos y los problemas del servicio al cliente, así como unificar los análisis de la empresa a lo largo de miles de millas náuticas. Hace casi una década, cuando el esfuerzo de consolidación de TI comenzó en serio, la compañía había confiado durante mucho tiempo en computadoras centrales de IBM, servidores de rango medio AS/400 y PC basados ​​en DOS. Weis y su equipo finalmente se decidieron por una plataforma Java 2 estándar, en gran parte de código abierto, Enterprise Edition (J2EE). “Pensamos de forma abierta. Pensamos estándar. Pensamos en no quedarnos encerrados. Resultó ser simplemente un conjunto espectacular de decisiones “, añadió Weis. El enfoque de Matson fue diseñado para minimizar los costos anticipados de cambiar la tecnología. Esta estrategia coincidió con la maduración del mercado de tecnología de la nube empresarial. En última instancia, Matson redujo sus costos operativos de TI en un 50%, cerrando sus cuatro centros de datos locales y moviéndose a Amazon Web Services (AWS) en 2016. Los 6 componentes de una transformación digital Weis explicó que hay seis componentes interrelacionados de cualquier transformación digital, que él define como “hacer cambios a un nivel de escala tal que casi nada sea igual”. Durante la expansión global de Matson y la consolidación de la plataforma, Weis necesitaba asegurarse de que su equipo de TI estuviese ejecutando los seis componentes simultáneamente. 1.El mapa de ruta Weis enfatizó que la transformación digital no puede ocurrir sin una visión comercial convincente e inquebrantable. Matson había sido una parte familiar del paisaje de negocios de Honolulu desde 1882. El CEO y la junta reconocieron, sin embargo, que el regionalismo histórico de la compañía solo ofrecía oportunidades de crecimiento limitadas. Ellos, por lo tanto, articularon una visión de expansión en el Pacifico A pesar de una plétora de marcos de industria flojos y una ráfaga de reglamentación, las grandes organizaciones de servicios financieros en los Estados Unidos operan esencialmente sin ningún estándar de riesgo para la ciberseguridad. El CEO y la junta directiva son los responsables principales de establecer y mantener la visión comercial. El CIO, a su vez, es responsable de identificar objetivos tecnológicos específicos basados ​​en esa visión. Para Weis, esto finalmente significó trasladar 15 grandes proyectos y 60 proyectos más pequeños a la nueva plataforma tecnológica de Matson, desconectando gradualmente las piezas de la batería tecnológica heredada de la compañía. 2.El conjunto de tecnologías Matson se benefició enormemente de su adopción de una plataforma J2EE, complementada con herramientas de código abierto siempre que fuera posible. Invertir en tecnología nunca debería ser una apuesta; es, sin embargo, un riesgo calculado. Para mitigar ese riesgo, Weis insistió en la necesidad de una conexión lógica entre la hoja de ruta de la empresa y un conjunto de características determinadas. También enfatizó en la importancia de la agilidad. En 2009, cuando la transformación de Matson estaba cobrando impulso, AWS tenía solo 3 años. No obstante, gracias a la flexibilidad de la arquitectura de su arsenal tecnológico, Matson pudo adaptarse más fácilmente y asociarse con AWS. “Cualquier empresa, después de definir su hoja de ruta, debe tener las tecnologías correctas sobre las cuales construir. No preveíamos que AWS vendría y haría lo que ahora está haciendo cuando comenzamos. Pero no es una coincidencia que la entrada en el alojamiento en la nube haya sido en gran parte sistemas con arquitectura J2EE de código abierto Java, porque ha demostrado ser la mejor plataforma sobre la que se puede construir “, afirmó Weis. 3.Conjuntos de habilidades organizativas Matson ha pasado por un ciclo de innovación de varios años. Weis dijo que este esfuerzo a largo plazo habría sido insostenible sin enfocarse en las habilidades que impulsarían el negocio, al tiempo que ha creado una sensación de comunidad auténtica para retener el talento. “La clave para ejecutar un ciclo de transformación tan largo se centraba realmente en lo que yo llamaría innovación sostenible. Esto no es innovación exhaustiva donde trabajas en un proyecto durante seis meses o un año, y todos quedan exhaustos o se dirigen a Maui durante dos semanas con la esperanza de rejuvenecer o actualizar su CV”, añadió Weis. A Weis le gusta interactuar con sus colegas, y esto proporciona el beneficio adicional de ayudar a mantener a personas calificadas dentro de Matson. Le gusta enviar notas escritas a mano para felicitar a los empleados: un arte perdido en la era digital. Y mantiene las cosas en perspectiva. 4.Gobernanza Weis reconoció plenamente la importancia de la gobernanza formal. En Matson, esto incluye el Comité Ejecutivo de TI, que establece la dirección y aprueba la financiación de alto nivel, así como los comités operativos de nivel medio y la supervisión a nivel de proyecto. Al mismo tiempo, para cada pieza formal del marco de gobernanza hay un elemento informal. En la mayoría de los casos, esto implica colaborar con compañeros que no pertenecen a la TI, sobre cómo aprovechar al máximo la tecnología o cómo proporcionar el patrocinio ejecutivo en un proyecto. Se debe educar a colegas y compañeros de forma privada y útil sobre los detalles. Este énfasis en la colaboración de TI entre empresas se ha extendido a la compensación. Durante la transformación de Matson, hubo un impulso exitoso de varios años para vincular las bonificaciones ejecutivas en parte a la finalización exitosa de los objetivos de TI. 5.Habilidad para las finanzas corporativas Durante cualquier transformación, los líderes de TI deben ser administradores sensatos de los fondos de la compañía. “Esto es muy importante cuando haces una transformación de varios años, porque tienes que ser despiadado para ahorrar dinero y luego tienes que ser un inversor sagaz que apuesta por la tecnología adecuada, contratando los tipos adecuados y eligiendo las herramientas tecnológicas apropiadas”, explicó Weis. Weis también reconoció que sin la aplicación práctica diaria de los principios de finanzas corporativas, los departamentos de TI corren el riesgo de ser relegados al segundo plano. Matson, por lo tanto, requiere que los empleados de TI tomen clases de finanzas corporativas para asegurarse de que están contribuyendo en las discusiones financieras internas. Además, el departamento de TI coloca libros de finanzas corporativas en los escritorios de los empleados. 6.Habilidades de gestión del cambio La mayoría de las transformaciones fallan debido a la incapacidad de adaptarse al cambio, así como a la imposibilidad de mantener el impulso. Para contrarrestar estas trampas potenciales, las transformaciones deben tener una estructura concreta. Matson se encuentra en una industria tradicional, y sus activos están geográficamente dispersos. En el día a día, y especialmente durante su transformación a largo plazo, Weis necesitaba comprender cómo la TI podría ayudarle a generar un cambio impactante de la manera más efectiva posible. Durante cinco años, envió una encuesta de 33 preguntas a sus colegas para evaluar la contribución de TI en los niveles tácticos y estratégicos. Vea después: 5 tecnologías claves para la transformación digital del negocio “Una vez que tuve los datos que mostraban que hicimos un buen trabajo para mantener las luces encendidas con un trabajo terrible de estrategia e innovación, utilicé esa información para impulsar los cambios. Tuve una serie de reuniones y discusiones difíciles cara a cara con la gente. Generas confianza al reunirte cara a cara, y fue un componente crucial para impulsar el cambio dentro de la organización de servicios de TI porque pasamos por una serie de reducciones de personal para contratar los conjuntos de habilidades que necesitábamos “, comentó Weis. En última instancia, a pesar de las transiciones dinámicas y a veces difíciles, Matson se comprometió a desarrollar y capacitar al talento adecuado. Matson nunca ha reducido sus habilidades y presupuesto de desarrollo, incluso durante la Gran Recesión. La transformación de Matson de PC basadas en DOS a la nube ha llevado a ahorros masivos y eficiencias competitivas. En el transcurso de este esfuerzo a largo plazo, las plataformas tecnológicas han evolucionado significativamente. Sin embargo, las seis claves del éxito de Matson han demostrado ser constantes confiables a lo largo del tiempo. #ideas #transformacióndigital #empresas #innovación #estrategia

  • ¿Cómo crear una contraseña segura?

    CIO Los expertos coinciden en que ya es hora de que las empresas dejen de confiar en las contraseñas tradicionales. Deben cambiar a métodos de acceso más seguros como autenticación multifactor (MFA), biometría y sistemas de inicio de sesión único (SSO). De acuerdo con el último Informe de Verizon Data Breach Investigations , el 81% de las violaciones de seguridad relacionadas con la piratería informática involucran contraseñas robadas o débiles. Primero, hablemos de las técnicas de piratería de contraseñas. La historia es diferente cuando el objetivo es una empresa, un individuo o el público en general, pero el resultado final suele ser el mismo. El hacker gana. Si todas las contraseñas de una empresa son descifradas al mismo tiempo, esto generalmente se debe al robo de un archivo de contraseñas. Algunas empresas tienen listas de contraseñas de texto sin formato, mientras que las empresas con conciencia de seguridad generalmente mantienen sus archivos de contraseñas en forma de hash. Los archivos hash se usan para proteger contraseñas para controladores de dominio, plataformas de autenticación empresarial como LDAP y Active Directory, y muchos otros sistemas, explicó Brian Contos, CISO de Verodin, Inc. Estos hashes, incluidos los hashes con sal, ya no son muy seguros. Los hashes codifican las contraseñas de tal manera que estas no se pueden descifrar de nuevo. Para verificar si una contraseña es válida, el sistema de inicio de sesión codifica la contraseña que ingresa un usuario y la compara con la contraseña hash previamente almacenada. Los atacantes que tienen en sus manos un archivo de contraseñas hash utilizan algo llamado “tablas de arcoíris” para descifrar los hashes usando búsquedas simples. También pueden comprar hardware especial diseñado para descifrar contraseñas, alquilar espacio de proveedores de nubes públicas como Amazon o Microsoft, o construir o alquilar botnets para procesarlos. Lea después: Las vulnerabilidades de los usuarios al crear contraseñas Los atacantes que no son expertos en descifrar contraseñas pueden subcontratar a otros. “Puedo rentar estos servicios por un par de horas, un par de días o un par de semanas, y generalmente también incluyen soportes”, comentó Contos. Con suficiente tiempo y recursos, se puede descifrar cualquier contraseña. La diferencia está en si tomará horas, días o semanas. Como resultado, los tiempos necesarios para descifrar las contraseñas hash, incluso las que antes se consideraban seguras, ya no son millones de años. “De acuerdo con mi experiencia de cómo las personas crean contraseñas, generalmente del 80% al 90% de ellas pueden ser craqueadas en menos de 24 horas. Con suficiente tiempo y recursos, puedes descifrar cualquier contraseña”, argumentó Contos. Esto es especialmente cierto para cualquier contraseña creada por humanos, en lugar de una generada aleatoriamente por computadora. Una contraseña más larga, como una frase-contraseña, es una buena práctica cuando los usuarios necesitan algo que puedan recordar, pero jamás reemplazará a una autenticación multifactor fuerte. Los archivos hash robados son particularmente vulnerables porque todo el trabajo se realiza en la computadora del atacante. No es necesario enviar una contraseña de prueba a un sitio web o aplicación para ver si funciona. “En Coalfire Labs preferimos Hashcat y tenemos una máquina de craqueo dedicada complementada con unidades de procesamiento de gráficos múltiples que se utilizan para reducir esas listas de contraseñas usando algoritmos hash criptográficos”, dijo Justin Angel, investigador de seguridad en Coalfire Labs. Para atacar los grandes sitios públicos, los atacantes usan botnets para probar diferentes combinaciones de inicios de sesión y contraseñas. Usan listas de credenciales de acceso robadas de otros sitios y listas de contraseñas que las personas usan comúnmente. Según Philip Lieberman, presidente de Lieberman Software Corp., estas listas están disponibles de forma gratuita o a bajo costo, e incluyen información de inicio de sesión de aproximadamente el 40% de todos los usuarios de Internet. “Violaciones de la seguridad realizadas en el pasado a compañías como Yahoo!, han creado bases de datos masivas que los delincuentes pueden usar”, expresó Lieberman. A menudo, esas contraseñas se mantienen válidas durante mucho tiempo. “Incluso después de la violación de seguridad, muchos usuarios no cambiarán su contraseña ya violada“, añadió Roman Blachman, CTO de Preempt Security. Digamos, por ejemplo, que un hacker quiere ingresar a cuentas bancarias. Iniciar sesión en la misma cuenta varias veces activará alertas, bloqueos u otras medidas de seguridad. Entonces, comienzan con una lista gigante de direcciones de correo electrónico conocidas y luego toman una lista de las contraseñas más comunes que usan las personas, aclaró Lance Cottrell, científico jefe de Ntrepid Corp. Intentan iniciar sesión con cada una de las direcciones de correo electrónico usando una de las contraseñas más comunes, entonces, cada cuenta solo registra un error. Esperan un par de días y luego prueban cada una de esas direcciones de correo electrónico con la siguiente contraseña más común. “Pueden usar su botnet de un millón de computadoras comprometidas, por lo que el sitio web objetivo no detecta que todos los intentos provienen de una sola fuente”, agregó Cottrell. La industria está empezando a abordar el problema. El uso de servicios de autenticación de terceros como LinkedIn, Facebook o Google ayuda a reducir el número de contraseñas que los usuarios deben recordar. La autenticación de dos factores (2FA) se está volviendo común en los principales proveedores de la nube, así en los sitios de servicios financieros y los principales minoristas. Los organismos de establecimiento de normas también están mejorando, afirmó James Bettke, investigador de seguridad de SecureWorks. En junio, NIST lanzó un conjunto de Pautas de identidad digital actualizadas que abordan el problema específicamente. “Reconoce que los requisitos de complejidad de contraseñas y los reinicios periódicos en realidad producen contraseñas más débiles. La fatiga causada por las contraseñas hace que los usuarios reutilicen contraseñas y reciclen patrones predecibles”, aseguró Bettke. Además de los estándares, también existen nuevas tecnologías “sin fricción”, como la bioetría conductual y el reconocimiento facial, que pueden ayudar a mejorar la seguridad de los sitios web y las aplicaciones móviles de los consumidores. Para atacar a un individuo, los atacantes verifican si las credenciales de ese usuario ya han sido robadas de otros sitios en el probable caso de que la misma contraseña o una contraseña similar hayan sido utilizadas. “La violación de seguridad de LinkedIn hace unos años es un buen ejemplo. Los piratas informáticos capturaron la contraseña de LinkedIn de Mark Zuckerberg y pudieron acceder a otras plataformas porque aparentemente la reutilizaron en otras redes sociales”, señaló Gary Weiss, vicepresidente senior y gerente general de seguridad, análisis e investigación en OpenText Corp. La persona promedio tiene 150 cuentas que requieren contraseñas, según una investigación de Dashlane, una compañía que ofrece una herramienta de administración de contraseñas. Esas son demasiadas contraseñas para recordar, por lo que la mayoría de las personas usan solo una o dos contraseñas, con algunas variaciones simples. Eso es un problema. “Existe un error común al afirmar que, si tiene una contraseña muy complicada, puede usarla en todas partes y permanecer protegido. Esto es categóricamente falso. Los hackeos son reportados después de que ya es demasiado tarde, momento en el que tu única contraseña muy complicada ya está comprometida, y también lo está toda tu información”, explicó Emmanuel Schalit, CEO de Dashlane Inc. Una vez que se piratea cualquier sitio y se roba la contraseña, se puede aprovechar para acceder a otras cuentas. Si los hackers pueden acceder a la cuenta de correo electrónico de sus usuarios, la usarán para restablecer la contraseña del usuario en cualquier otro lugar. “Puedes tener una contraseña muy buena en tu banco o cuenta de inversión, pero si tu cuenta de Gmail no tiene una buena contraseña, y ellos pueden entrar a través de ella, y ese es tu correo electrónico de recuperación de contraseña, ellos serán los dueños de ti”, declaró Cottrell. Si encuentran un sitio o una aplicación empresarial interna que no limite los intentos de inicio de sesión, también tratarán de aplicar fuerza bruta a la contraseña utilizando listas de contraseñas comunes, tablas de búsqueda de diccionarios y herramientas para descifrar contraseñas como John the Ripper, Hashcat, o Mimikatz. Los servicios comerciales están disponibles en la clandestinidad criminal que utilizan algoritmos más sofisticados para descifrar las contraseñas. Estos servicios han sido de gran ayuda debido a las continuas filtraciones de archivos de contraseñas. Cualquier cosa que un ser humano pueda pensar, reemplazar letras con símbolos, usar abreviaturas difíciles, patrones de teclado o nombres inusuales de novelas de ciencia ficción, alguien más ya lo ha pensado. “No importa cuán inteligente seas, las contraseñas generadas por humanos son completamente inútiles, pero los humanos no hemos mejorado mucho en la selección de nuestras contraseñas”, especificó Cottrell de Ntrepid. Para un objetivo de alto valor, los atacantes también investigarán para encontrar información que pueda ayudarlos a responder las preguntas de recuperación de seguridad. Las cuentas de usuario generalmente son solo direcciones de correo electrónico, agregó, y las direcciones de correo electrónico corporativo en particular son muy fáciles de adivinar porque están estandarizadas. La mayoría de los sitios web hacen un mal trabajo a la hora de decirle a los usuarios si la contraseña que eligieron es fuerte o no. Por lo general, están varios años desactualizados, y buscan cosas como una longitud de al menos ocho caracteres, una combinación de letras mayúsculas y minúsculas, y el uso de símbolos y números. “Los sitios de terceros evaluarán la fortaleza de tu contraseña, pero los usuarios deben tener cuidado con los sitios que utilizan. Lo peor que se puede hacer en el mundo es ir a un sitio web al azar y escribir una contraseña para que este la pruebe”, argumentó Cottrell. Vea luego: Administre sus contraseñas de forma gratuita Si se tiene curiosidad acerca de cuánto demoraría una contraseña en ser craqueada, un sitio web que le podría servir es HowSecureIsMyPassword.net de Dashlane .Otro sitio que mide la fortaleza de la contraseña, probando palabras del diccionario, escritura Leet y patrones comunes, es el medidor de entropía de prueba del ingeniero de software Aaron Toponce. Él recomendó elegir una contraseña con al menos 70 bits de entropía. Para la mayoría de los usuarios, y para los sitios web y las aplicaciones en las que inician sesión, esto es un problema. ¿Cómo se espera que los usuarios creen contraseñas únicas para cada sitio, y las cambien cada tres meses, el tiempo suficiente para garantizar su seguridad y recordarlas? “Una regla general es que, si se puede recordar, entonces no es una buena contraseña. Ciertamente, si puedes recordar más de una o dos de ellas, no es una buena contraseña, siempre son un par de palabras y el nombre del sitio web”, dijo Cottrell. El experto recomienda usar una contraseña generada aleatoriamente y de la mayor longitud que permita el sitio web, además de almacenarla usando un sistema seguro de administración de contraseñas. Luego, para la contraseña maestra de la bóveda, use una frase-contraseña larga. “Mi recomendación para recordar las contraseñas es que debería ser extraordinariamente obscena, lo que también hace menos probable que vayas y se la cuentes a alguien. Si tienes una frase de 30 caracteres, es efectivamente imposible de craquearla usando fuerza bruta. La combinatoria simplemente explota”, añadió Cottrell. Para las contraseñas individuales de los sitios web o aplicaciones, 20 caracteres es una longitud razonable, según Cyril Leclerc, jefe de seguridad de Dashlane, pero solo si son caracteres aleatorios. “Los crackers podrán descifrar una contraseña generada por humanos de 20 caracteres, pero no una contraseña generada aleatoriamente”, concluyó Leclerc. #informaciónsegura #hackers #craqueo #contraseña #seguridad

  • Claves para medir el éxito de la transformación digital

    CIO Pregúntele a un CIO cómo él o ella cuantifica el impacto de sus transformaciones digitales y podrá recibir a cambio una risa, como si hubiera dicho una broma de mal gusto. La realidad es que muchos CIO no tienen métricas para evaluar el éxito de los proyectos digitales, como nuevas plataformas de comercio electrónico, aplicaciones móviles y chatbots. Pero los CIO que no pueden cuantificar estas iniciativas pueden verse sobrepasados por rivales más ágiles, aseguran los analistas. Para medir el valor de los esfuerzos de transformación, los CIO deben tener a los indicadores clave de rendimiento (KPI) digitales como la “brújula de la empresa,” dijo Peter Sondergaard, jefe global de investigación de Gartner en el simposio de la empresa durante la ITxpo 2017. Pero hay un dilema del “huevo o la gallina” en el trabajo, ya que no se puede medir lo que no se ha definido . Lea luego: ¿Por qué iniciar el viaje hacia la transformación digital? “La mayor limitación de los KPI digitales es la falta de una ambición digital claramente definida. Tener una idea clara de tu ambición digital te dará algunas ideas de lo que debes medir para cuantificar tu progreso. No puedes medir algo para lo que no tienes una vara de medición”, explicó Paul Proctor, analista de Gartner. ¿Qué son los KPI digitales? Los KPI digitales son valores mensurables para evaluar el desempeño de las iniciativas comerciales digitales. Los KPI digitales pueden ayudar a una organización a determinar qué tanto ha avanzado en la estrategia digital y qué tanto está mejorando sus resultados comerciales en este sector. Las empresas tradicionalmente han medido el rendimiento comercial en función de las ganancias netas, las ganancias por acción y otras métricas de Wall Street, números que a su vez son respaldados por KPI más específicos, como los giros de inventario, las cuotas de producción y la satisfacción del cliente. Los KPI digitales, por otro lado, son más difíciles de definir, ya que las empresas de diferentes áreas tienen distintas formas de cuantificar sus iniciativas digitales. Ejemplos de KPI digitales Para algunas industrias, un KPI digital clave puede ser el porcentaje de ingresos generados a través de los canales digitales, como la web y las aplicaciones móviles. Una compañía de seguros de vida puede medir el porcentaje de ventas realizadas a través de canales digitales de autoservicio, mientras que una aseguradora de propiedades y accidentes puede medir el porcentaje de reclamos recibidos a través de los canales digitales. David Gledhill, managing director de DBS, creó instrumentos y métricas para rastrear la eficiencia operativa y el compromiso digital para los clientes del banco.”El compromiso digital incrementa los volúmenes de negocio y de ingresos y, por lo tanto, la simple medición de cuántas veces un cliente te contacta es importante”, dijo Gledhill a CIO.com a principios de este año. ¿Cómo lo digital está impulsando una mejor experiencia del cliente? A medida que las expectativas de los clientes se elevan, está claro que uno de los mayores desafíos a los que se enfrentan las organizaciones actuales es mover el foco de los productos y enfocarse en la experiencia del consumidor. ¿Cómo definir los KPI digitales? Paul Proctor de Gartner indicó que los CIO empresariales que buscan crear KPI digitales deberían comenzar por dos categorías amplias. El primer conjunto de KPIs debe evaluar el progreso de la compañía en la digitalización de su modelo comercial actual al medir los objetivos en ventas, marketing, operaciones, cadena de suministro, productos /servicios y el servicio al cliente. Varios restaurantes, como TGI Fridays y Wingstop, por ejemplo, están utilizando chatbots para ayudar a digitalizar la toma de pedidos y las transacciones. Starbucks, Target y varias otras organizaciones orientadas al consumidor ahora permiten que los consumidores paguen por los productos desde sus teléfonos en lugar de en la caja. Los CIO deben evaluar tales operaciones digitales usando métricas que evalúen las tasas de adopción y el impacto comercial en relación con los modos de funcionamiento tradicionales. Un segundo conjunto de KPIs debe evaluar las nuevas fuentes de ingresos generadas a partir de los recientes modelos comerciales digitales. Estos KPI deben representar crecimiento, ingresos, cuota de mercado y métricas de margen diferenciadas de los activos físicos. Procter & Gamble adquirió Dollar Shave Club , dándole una plataforma desde la cual vender afeitadoras en línea. Caterpillar adquirió Yard Club para el alquiler de maquinaria pesadas a través de un mercado en línea. Cleveland Clinic vende algoritmos para analizar los resultados cardiológicos y oncológicos a través del mercado en línea de Apervita. Estas nuevas fuentes de ingresos basadas en modelos digitales deben evaluarse por separado de los flujos de ingresos análogos para medir cómo afectan el resultado final. Mejores prácticas digitales relacionadas con los KPI Si bien muchas empresas están llevando a cabo transformaciones digitales, solo la mitad de los CEOs que Gartner ha encuestado tienen KPIs para medir sus logros digitales, afirmó Proctor. Él recomendó varios pasos que los CIO pueden tomar para analizar el valor de su negocio digital: – Trabaje con ejecutivos senior para cuantificar en qué medida sus áreas se beneficiarían de la digitalización. Un CIO podría trabajar con un director de operaciones para definir qué parte de las operaciones de manufactura de la empresa deberían digitalizarse y qué beneficios esperar. – Establezca KPIs y metas que tracen el camino del negocio digital y agudicen los resultados comerciales esperados. – Mida el progreso de su viaje digital y el valor comercial que este crea. Aquí, algunos KPI serán “transitorios”, mientras que otros se convertirán en métricas permanentes para el rendimiento empresarial a medida que se logre la transformación y el negocio digital se convierta en un procedimiento operativo estándar. – Use los KPI para respaldar las expectativas sobre los resultados específicos. – No sobredigitalice su negocio. Apuntar hacia tener demasiadas interacciones con los clientes a través de canales digitales puede generar impactos negativos. Por ejemplo, el hecho de esperar que todas las ventas pasen por un canal de ventas digital molestará a algunos clientes y brindará muy pocas oportunidades para lograr un alto nivel de interacción. Vea después: Pymes dominicanas deben apresurar su transformación digital Los beneficios de los KPI digitales No hay balas de plata o fórmulas mágicas para el éxito comercial digital, pero los KPI pueden ayudar. Los KPI digitales tienen que ver con entender dónde se está ganando dinero o mejorar un modelo de negocios existente, cómo medirlo y trabajar con los ejecutivos que no son del área de TI para lograr nuevos resultados comerciales que se establecieron en función del hecho de volverse digital. Fuera de eso, todo lo que se tiene es una colección de nuevos proyectos que usan tecnología para hacer cosas nuevas y, desafortunadamente, es ahí donde están la mayoría de las empresas hoy en día. #empresas #kpi #kpidigitales #transformacióndigital

  • Compruebe sus vulnerabilidades de seguridad con Crossbow

    CIO A veces, la mejor defensa es un buen ataque. Esa fue la filosofía detrás de los esfuerzos de la compañía de seguridad SCYTHE para crear la plataforma de evaluación de vulnerabilidades, Crossbow. Implementada utilizando software como servicio (SaaS) o mediante una instalación local, Crossbow es un entorno de amenazas virtual que permite a los administradores cargar e implementar ataques históricos reales como WannaCry , Goldeneye o Haxdoor, o crear nuevas amenazas desde cero . Una vez cargados o creados, esos ataques pueden enviarse contra una red protegida para detectar posibles vulnerabilidades. Crossbow es quizás uno de los programas defensivos más peligrosos que CSO haya revisado alguna vez. Todos los ataques que puede cargar o crear son reales, utilizando técnicas y tácticas reales que históricamente han roto las defensas de ciberseguridad en muchas organizaciones. Solo la carga útil se neutraliza, e incluso, esa parte es opcional. Esto convierte a Crossbow en una de las herramientas más realistas para acceder, probar y administrar vulnerabilidades. Para ponerlo en perspectiva, Crossbow es mucho más parecido a un ejercicio de disparo real en el ejército que a una simulación, porque las amenazas virtuales de Crossbow son reales. No se pierda: Episodios más difíciles para la ciberseguridad en 2017 Los ingenieros de SCYTHE crearon Crossbow para probar los tres pilares de las defensas de ciberseguridad que existen en casi todas las organizaciones: los empleados, los productos de seguridad y el personal de TI. Las campañas pueden diseñarse para probar las defensas individuales, como enviar un ataque de phishing a los empleados para ver cómo reaccionan, o implantar un agente corrupto en una máquina cliente utilizando credenciales de administrador para simular una cuenta de administrador comprometida y ver cuánto tardan los equipos de TI en notar y reaccionar. Debido a que Crossbow proporciona herramientas de ataque del mundo real, simplificadas en una interfaz fácil de usar, se pueden crear campañas para probar, y con suerte fortalecer cualquier aspecto de la ciberseguridad de una organización. La interfaz principal de Crossbow se asemeja más a un kit de ataque de malware artesanal, como el que puede encontrarse o comprarse en la dark web. Pero la mayoría de ellos solo ofrecen uno o dos métodos de ataque. Crossbow parece cubrir todas las vulnerabilidades que se pueden utilizar para infiltrarse en una red o poner en peligro a un host, además permite mezclarlas según se requiera. Cuando se utiliza un ataque previo, basta con un par de clics para armarlo. Crear su propia amenaza no es mucho más difícil que elegir una exitosa del historial. Todo está configurado con bloques de construcción fáciles de usar, sin necesidad de programar nada. Por lo tanto, puede mezclar y combinar capacidades, como instalar un keylogger y luego usar HTTP o DNS para extraer los datos. Crossbow está bien versado en las técnicas más avanzadas, como usar Twitter como servidor de comando y control, o imágenes para enviar el malware. A pesar de que la interfaz es extremadamente fácil de usar, los tipos de ataques que pueden construirse y desplegarse a través de Crossbow son las peores pesadillas para los encargados de la seguridad cibernética. Los ataques también se pueden configurar de forma muy precisa. Por ejemplo, podría crearse una cepa de malware existente en keydrives, que luego se distribuiría en un estacionamiento de empleados para ver cómo reacciona el personal. Vea también: Archivos maliciosos aumentaron un 11.5% más que en 2016 El panel de control de Crossbow permite a los administradores monitorear las pruebas, buscando cualquier signo de debilidad en sus defensas. Crossbow es minucioso durante el proceso de creación de malware. La mayoría de los programas maliciosos se implementan a través de agentes y se pueden configurar estrechamente. Un buen ejemplo son los agentes de ransomware que usan encriptación. Se pueden configurar para que hagan copias de todos los archivos encriptados para así tener una copia de seguridad. A los agentes también se les da un rango de fechas válido durante su creación, por lo que no pueden existir más allá de la hora establecida como fecha de vencimiento o antes de su hora de inicio. De esta forma, si ocurriera el escenario improbable en el que el malware de prueba se desatara más allá de la prueba, no durará mucho en la naturaleza o su red. Todo lo que los ataques de prueba hacen a sus objetivos es grabado por la consola principal de Crossbow. Debido a que los ataques exitosos involucran comunicaciones salientes, cualquier dato que llegue proporciona una confirmación sólida de que un ataque ha tenido éxito. El programa principal de Crossbow registra cada vez que un sistema se ve comprometido al usar una de sus amenazas. La forma de evaluación de vulnerabilidad de Crossbow es una de las más activas, y posiblemente, realistas, en el mercado. En lugar de confiar en simulaciones o escaneos de red, permite que los administradores se conviertan en probadores de penetración, dirigidos a amenazas persistentes avanzadas como un láser dirigido a cualquier parte de las defensas de ciberseguridad de una red. El único inconveniente es que esto requiere la participación activa de los administradores: alguien debe crear, planificar, ejecutar y monitorear los ataques para generar esos datos valiosos. Si una organización ya tiene un “equipo rojo” encargado de lanzar ataques, entonces Crossbow simplemente puede convertirse en un gran multiplicador de fuerzas para ellos. De lo contrario, alguien tendrá que ser puesto a cargo de los ataques de prueba. Las organizaciones que quieran probar sus defensas contra las amenazas del mundo real en un entorno seguro deberían probar Crossbow. Al igual que una ballesta real, el programa es una herramienta peligrosa que puede convertirse en un enlace invaluable en las defensas cuando es manejado por defensores capaces. #test #pruebas #empresas #vunerabilidad #seguridad

itnow-03.png

© Derechos reservados

Connecta B2B - 2025

Políticas de privacidad

ACERCA DE NOSOTROS

IT NOW es un espacio multiplataforma y un núcleo para conectar negocios que se compone de varios elementos: su sitio web con noticias de TI relevantes en la región, un newsletter semanal, su multiplataforma de redes sociales, por último, sus eventos enfocados en las verticales de TI y en donde destaca el aclamado Tech Day, la gira de actualización tecnológica más importante de la región.

24 / 7 Actualizaciones en nuestras Redes Sociales
  • Facebook
  • Instagram
  • LinkedIn
  • YouTube
  • X
  • RSS
bottom of page