Resultados de la búsqueda
Se encontraron 8249 resultados sin ingresar un término de búsqueda
- Los 7 ataques más severos a la infraestructura crítica
Adrián González Los ataques a la infraestructura crítica no solo replantean las medidas de seguridad de las instituciones y organizaciones, sino también de los gobiernos, quienes se ven obligados a implementar reglamentos y equipos para poder atender las emergencias de seguridad informática. Por otro lado, la preocupación por contar con un equipo de respuesta a incidentes de seguridad o CSIRT (computer security incident response team) ya es una realidad en algunos países de la región como Costa Rica, Panamá, Guatemala y El Salvador. De igual manera, muchas naciones centroamericanas ya poseen su estrategia nacional contra ciberdelitos y también se suman a convenios de cooperación internacional, por ejemplo, el Convenio Budapest. Según comentó Cecilia Pastorino, experta en seguridad informática para ESET Latam, existen grandes problemas en los sistemas que utilizan las plantas industriales, debido a su desactualización; también explicó las ventajas sobre la creación de órganos cooperativos ante los incidentes cibernéticos. A continuación una recopilación por parte de la profesional de ESET sobre los ataques a la infraestructura crítica más dañinos. 1. Queensland: No todos los ataques de esta índole son provocados por hackers. En el año 2000, un empleado descontento ingresó a un sistema de gestión automatizado y ocasionó el derrame de millones de litros de agua en los parques de Queensland, Australia. “Si bien no se trató de una infección de malware, podemos clasificar este incidente como un ataque, ya que se trató de un hecho intencional afectando los sistemas informáticos”, argumentó Pastorino. Lea también: ¿Qué puede realizar un hacker mediante Spectre y Meltdown? 2. SQL Slammer: Este hecho afectó grandes cantidades de computadoras mediante una vulnerabilidad en los servidores de SQL. La infección provocó daños en la red de monitorización de la planta nuclear Davis-besse, ubicada en Ohio, EE.UU. El ataque dejo sin funcionamiento el sistema que supervisa el comportamiento de dicha planta durante un lapso de un poco más de cinco horas. 3. DDoS a Browns Ferry: Otro suceso a una planta nuclear ocurrió en agosto de 2006 en Alabama. La planta nuclear Browns Ferry sufrió un ataque de denegación de servicio, el cual, afectó el sistema de recirculación del agua en la planta. 4. Espionaje: En 2009 se descubrió que un grupo de espías chinos y rusos estaba elaborando un mapa sobre la infraestructura crítica de Estados Unidos. Para poder llevar a cabo el mapa los implicados hicieron uso de herramientas de mapeo de red y análisis de vulnerabilidades. 5. Suxnet: Este código malicioso fue desarrollado para infectar los sistemas de control industrial. La propagación alcanzó más de 45 mil computadoras y, según la investigación realizada en 2010 por parte de ESET, el 52% de los ordenadores estaban ubicados en Irán. Nota relevante: Facebook bloqueó uso de fuentes de datos para herramientas de espionaje 6. BlackEnergy: Miles de hogares perdieron su suministro de servicio eléctrico por varias horas en distintas zonas de Ucrania a causa de un troyano llamado BlackEnergy. El virus le otorgaba un acceso remoto al hacker en los sistemas infiltrados, además, podía realizar ataques de denegación de servicio. “Este malware no manipulaba directamente los dispositivos del sistema de control industrial, pero les permitía a los atacantes penetrar las redes de empresas de distribución de energía eléctrica y dañar el software utilizado por los equipos de ese sistema”, informó Pastorino. 7. Industroyer: Un año después del ataque de BlackEnergy se ejecutó un ataque muy similar pero más sofisticado. En pleno invierno gran parte de Kiev, capital ucraniana, perdió el acceso al servicio eléctrico por más de una hora, esto debido a Industroyer, código maliciosos diseñado para afectar plantas de distribución eléctrica. A diferencia del ataque pasado, los ciberdelincuentes obtuvieron el acceso directo al control de los interruptores de la subestación de electricidad y los interruptores de circuito. “Industroyer se trata de la mayor amenaza para los sistemas de control industrial desde Stuxnet. Las implicaciones de este malware para el futuro de las amenazas a infraestructuras críticas son preocupantes. Agregando también, que el equipamiento industrial al que está dirigido Industroyer es amplio”, concluyó Pastorino. #ataqueDDoS #infraestructuracrítica #Malware
- Cualidades que debe tener un CMO en el área digital
Jose Durán La transformación digital de la que están siendo parte todos los sectores de la industria también está afectado sus áreas de mercadeo. Para la mayoría de las empresas es vital sacar el mayor provecho de las plataformas digitales y las facilidades que ofrecen; no obstante, ¿conocen sus CMO lo suficiente para accionar estas herramientas? “Como CMO tenemos la obligación de estar constantemente actualizados. Realmente nos debe gustar aprender. Esto porque cada día existen nuevas y mejores formas de hacerle llegar información sobre nuestra empresa a los potenciales usuarios y actuales clientes”, comentó Gabriela Hidalgo, gerente de marketing de GBM Para Hidalgo, un CMO actual debe contar con los conocimientos básicos en marketing digital y ejecutar funciones como la medición y el entendimiento de las analíticas generadas digitalmente, necesarias para la toma de decisiones, la gestión de bases de datos de clientes y el acercamiento a la audiencia por medio de las redes sociales. Si está en búsqueda de un CMO con estas características, tome en consideración las siguientes recomendaciones: #contratación #cmodigital #búsqueda #marketingdigital #mercadeodigital #CMO #Digital
- Guía para prevenir ataques a infraestructura crítica
Adrián González En diciembre de 2016, gran parte de los ciudadanos de Kiev, Ucrania, se quedaron sin servicio eléctrico durante una hora en pleno invierno, por si fuera poco, la temperatura puede alcanzar los -6°C durante este periodo. El error en la distribución de energía eléctrica ocurrió debido a una infiltración de un código malicioso conocido como Industroyer. La infección logró apoderarse directamente de los interruptores de la subestación de electricidad y los interruptores de circuito. Este no es el primer caso en el que los cibercriminales logran entrometerse en un sistema de infraestructura crítica y es probable que en 2018 estos ataques también estén muy presentes. Para Cecilia Pastorino, especialista en seguridad informática para ESET Latam, el mayor problema con los sistemas industriales son los protocolos de comunicación que utilizan debido a que son muy viejos. Además, fueron desarrollados en momentos en los cuales la seguridad no se tomaba en cuenta en lo absoluto y otra problemática es que son un modelo universal, lo que significa que se emplean en las distintas plantas industriales de muchos países. “Muchos de los equipos de un sistema de control industrial que aún se usan hoy en día no fueron diseñados teniendo en cuenta la conectividad a Internet, por lo que las medidas de protección son difíciles de implementar”, explicó Pastorino. Igualmente, la experta detalló cuatro consejos para evitar y prevenir los ataques a infraestructura crítica. Observe el infográfico para conocer cuáles son los puntos vitales a incorporar en la seguridad de la institución. #Ciberseguridad #infraestructuracrítica #Malware #pasos
- ¿Qué puede realizar un hacker mediante Spectre y Meltdown?
Adrián González Al inicio de este 2018 las fallas o vulnerabilidades, conocidas como Spectre y Meltdown, han despertado un gran interés mediático por el impacto y el riesgo que representan para la seguridad de los datos integrados en los dispositivos tecnológicos; sin embargo, ¿qué realmente puede ejecutar un cibercriminal por medio de estos vectores y qué grado de dificultad representa explotarlos? Ambas vulnerabilidades afectan los microprocesadores, pero poseen enfoques distintos. Para Stif Calvo, ingeniero preventa y arquitecto de seguridad de Soluciones Seguras en Costa Rica, Meltdown es más sencilla de explotar pero al mismo tiempo es más fácil de remediar. Además, esta vulnerabilidad afecta al kernel, que en palabras simples se puede definir como el núcleo de memoria de un dispositivo. Este se encarga de almacenar, en ciertos puntos de memoria, datos y procesos altamente valiosos como contraseñas, llaves de cifrado y otra información sensible del usuario. Esta información solo es visible y puede ser accedida por el Kernel por su grado de importancia. Nota relevante: Episodios más difíciles para la ciberseguridad en 2017 “Una vez que el software malicioso ingresa a estos puntos, el cibercriminal tiene la posibilidad de leer contraseñas, incluso leerlas en tiempo real. También puede ver las llaves de cifrado de procesos y aplicaciones, así como acceder a otro tipo de información altamente sensible almacenada en el Kernel”, explicó Calvo. Por otro lado, Spectre centra su objetivo en obtener información de las aplicaciones y procesos que corren en el sistema. También debido a su grado de dificultad para ser explotado es más complicado de reparar. Un código malicioso podría extraer la información relacionada con las aplicaciones, incluyendo contraseñas. Los errores fueron descubiertos por un grupo de investigadores de Google conocido como Project Zero. La investigación encontró las vulnerabilidades en varios fabricantes de procesadores, incluyendo los tres jugadores más grandes, Intel, Advanced Micro Devices (AMD) y ARM Holdings. De la misma manera, el impacto que podrían tener ambos fallos es muy severo, la consultora de tecnología IDC estimó que existen actualmente un total de 1.500 millones de computadoras en el mundo, entre PC de escritorio y portátiles. También mencionó que cerca del 90% de las computadoras funcionan con chips de Intel. Más información: 5 amenazas a la seguridad informática que dominarán el 2018 “Afectan billones de dispositivos que van desde computadoras, hasta servidores inclusive, hasta ahora se conocen como las mayores vulnerabilidades de la historia en el campo de la computación”, mencionó Calvo. Por último, muchos fabricantes de empresas como Microsoft, Google, Linux y Apple ya lanzaron sus respectivas actualizaciones para reparar los fallos de Meltdown y Spectre, igualmente, empresas de seguridad como Kaspesrky, ESET y Symantec ya presentaron una actualización para mayor seguridad. Además, Intel, AMD y ARM, es decir, los fabricantes de microchips más afectados están trabajando en remediar los errores. Algunos usuarios se han quejado porque las soluciones y actualizaciones para contrarrestar las vulnerabilidades han afectado el rendimiento de sus dispositivos. Por otra parte, Spectre le quitará el sueño a muchos por un lago periodo debido a que los parches liberados no cubren el 100% del riesgo que representa este error, ya que para solventarlo, según los investigadores de Google, se necesitaría de un rediseño en los procesadores. #Bug #hardware #robodedatos
- 10 reddits esenciales para profesionales de la seguridad
CSO Reddit no contiene solo noticias, memes virales o debates acalorados; aunque este contenido sea siempre el abundante, los profesionales de la seguridad y los interesados en este campo también pueden encontrar aquí una gran cantidad de consejos, contenidos y conversaciones que abarcan desde el trabajo forense profundo y sucio hasta lo último en ciber-leyes. Estos son los 10 mejores reddits de ciberseguridad: 1.Derrotar forenses con antiforenses Si ya es, o quiere ser en un ninja de la ciencia forense digital, este subreddit es para usted. Los temas se centran en derrotar herramientas y técnicas digitales forenses. Aquí encontrará hilos sobre el cifrado, la ocultación o el borrado de datos almacenados en lo más profundo, el escondite de los caminos de ataque y la configuración de trampas forenses. Lea después: IoT, Cloud y Ransomware: Tres principales objetivos de ciberseguridad para 2018 2.Criptografía Es el subreddit que le permite llegar a entender la ciencia, las matemáticas y la programación detrás de un fuerte cifrado, pues cubre tanto las aplicaciones prácticas como la teoría detrás de la criptografía. Debido a que el cifrado es transversal a la seguridad, la aplicación de la ley y la privacidad nunca dejan de estar en la palestra. 3.Ciber-ley Al igual que la criptografía, la delincuencia informática y las leyes de privacidad son fascinantes. Si también le gusta el punto en que se encuentran la ley, las computadoras y el internet; este es un subreddit adecuado. En el encontrará noticias sobre el crimen informático, la privacidad, la libertad de expresión, los derechos de autor y otros temas relacionados. 4.Malware Los virus y los datos de software malicioso parecen estar en todas partes. Aunque este subreddit no es un lugar para ir a buscar ayuda cuando se trata de virus personales, es el lugar adecuado para encontrar los nuevos reportes sobre malware e información relacionada. 5.Ingeniería inversa de software ¿Quiere estudiar el malware? ¿Sabe cómo funcionan ciertos programas o dispositivos? Revise cómo configurar de forma segura los sandboxes y las máquinas virtuales para que sea seguro ante las acciones de un virus, un ransomware u otro software malicioso. Además de temas avanzados de ingeniería inversa, hay otros para principiantes. 6.Netsec Este es un subreddit activo que se centra en las cuestiones técnicas que rodean la seguridad informática y las noticias relacionadas. 7.Hackers con esteroides Al igual que antiforenses, es un lugar para aquellos que quieren aprender sobre el arte de evadir las herramientas y técnicas forenses. / r /blackhat trata sobre la explotación de las vulnerabilidades de los sistemas y el software, así como de los controles que ponen las empresas para defender sus datos y aplicaciones. Si es un profesional de la seguridad y quiere tener una idea de cómo piensan algunos de sus adversarios, tiene que visitarlo. Vea luego: Tendencias de ciberseguridad en la era industrial 4.0 8.Arqueólogos del IR Aquí es donde va a aprender la ciencia de la informática forense y cómo investigar y recuperar materiales digitales y pruebas. La descripción del reddit explica que los temas no se limitan a las computadoras, sino que abarca a todos los medios de comunicación que también pueden caer bajo la fuerza forense digital, ya sean cámaras de vídeo, teléfonos móviles, tabletas, Internet de las cosas, etc. Los temas incluyen análisis forenses digitales, las respuestas a los incidentes, el análisis de malware y más. 9.Netsec para estudiantes Es el lugar para compartir los recursos, hacer las preguntas y ayudar a otros estudiantes a aprender las especialidades de seguridad de red. Aquí hallará discusiones sobre las experiencias de malware, cómo ejecutar una prueba de penetración, capacitación en seguridad informática y muchos otros temas de interés para aquellos que quieren aprender. 10.¿Qué seguridad? Se trata de un grupo activo que debe ojear constantemente si desea mantenerse al día con las últimas organizaciones que han sido hackeadas, cuyos registros de salud han sido expuestos, o las empresas que recientemente fueron atacadas con ransomware. Hay un montón de mensajes que no comenta la prensa, por lo que definitivamente vale la pena visitar. #Ciberseguridad #reddit #consejos #soluciones #ciberley
- Nueva app busca simular procesos electorales
Jose Durán (@mradler1) Electo – KAS, una aplicación de la fundación Konrad Adenauer Stiftung (KAS), permitirá a los usuarios de Costa Rica simular una votación presidencial, incluyendo la elección de los 57 diputados que integrarían la Asamblea Legislativa de este país en el período 2018 – 2022. La herramienta, disponible para los sistemas operativos iOS y Android, fue desarrollada por la empresa Red Couch con el software Xamarin y el lenguaje de programación C# (C Sharp). Esta app gratuita, además de recrear procesos electorales virtuales, también brinda información sobre los lugares de votación para los próximos comicios presidenciales que se realizarán en febrero del presente año, e incluye datos de elecciones anteriores. Lea también: App promete transparencia en conteo de votos salvadoreños “Utilizamos las mismas fórmulas que emplea el Tribunal Supremo de Elecciones para los cálculos de las curules. También tratamos de basarnos lo más posible en los diseños de las papeletas e incluir las muestras reales de la papeleta presidencial, para que el usuario se identifique por completo con la experiencia que va tener en febrero”, explicó Javier Chan, CEO de Red Couch. Seguridad de la app Chan añadió que la aplicación no compromete ningún tipo de información personal, ya que el único dato que podría solicitarse, y sólo si el usuario accede, es el número de cédula, con el cual podrá conocer su centro de votación. Por otra parte, al momento de realizar el sufragio virtual, sólo queda registrado un número de identificación que se asigna automáticamente y al azar a cada persona, el cual no está vinculado en absoluto con el dispositivo móvil del participante, por lo que es imposible conocer su identidad. “Nuestra backend se realizó en Microsoft Azure, por lo que la mayoría de la seguridad está basada en lo que nos brinda esta plataforma. De ahí seguimos las pautas que ellos nos han dado para mantener la aplicación segura”, señaló Hans Gatgens, CTO de Red Couch. Por otra parte, Electo – KAS permite a los usuarios realizar simulaciones privadas, generando un código que puede ser compartido entre un grupo determinado de individuos. Esto puede ser empleado para conocer las preferencias electorales de un sector específico de la población. No se pierda: Conozcan al primer sistema de voto electrónico incorruptible en Centroamérica Werner Böhler, representante de la KAS, mencionó que ya se tomó la decisión de ampliar el uso de esta app a Panamá. “Tenemos elecciones en ese país en 2019; como nuestra oficina también es responsable allá, vamos a desarrollar una misma aplicación, pero específica para Panamá y su proceso electoral”. Böhler también indicó que el objetivo de esta plataforma es motivar y fomentar la participación de la ciudadanía en las elecciones, enfocándose especialmente en la población joven; además de educar y formar a los votantes en materia electoral. #Aplicación #voto #CostaRica #app #presidenciales #elecciones
- ¿Cómo pilotear automáticamente su centro de datos?
CIO Cuando realiza un vuelo en un avión sucede algo extraordinario. La mayoría de las veces la aeronave es conducida por un piloto automático y el de carne y hueso es en realidad una especie de “meta piloto”, un guardián que mira para estar seguro de que su colega automatizado no haga algo estúpido. Cada año millones de personas confían sus vidas a este sistema, no tienen ningún problema con él, de hecho, se impresionan que un piloto automático pueda hacer esas cosas de manera eficaz. En ese contexto, considere ahora lo extraño que es no disponer de un software que pueda “pilotar” un centro de datos. No apueste a que permanecerá de esa manera. Eso está cambiando, lo que va a tener grandes consecuencias. Detrás de la nube: administración y gestión La importancia de la automatización de los centros de datos en la nube se debe a que no son entornos estáticos pre provisionados para ejecutar un conjunto finito y conocido de cargas de trabajo, con una demanda previsible; sino todo lo contrario. Son marcos altamente dinámicos en los que todo cambia todo el tiempo. Lea después: 3 pasos para obtener el data center de primer mundo ¿Cómo gestionar decenas o cientos de miles de servidores con redes asociadas, sistemas de almacenamiento, una amplia gama de software y los sistemas administrativos? ¿Cómo conseguir que esos componentes entreguen sus servicios con un clic a los impacientes y exigentes usuarios de la nube? La respuesta es la automatización, o al menos lo será cuando se haya descubierto cómo hacerla. Gestión de servicios para el centro de datos Las principales empresas de tecnología trabajan en esto desde hace muchos años. Un buen ejemplo es Microsoft y su sistema Autopilot. En palabras de Microsoft, “Autopilot es responsable de automatizar el aprovisionamiento y despliegue del software; monitorear el sistema y llevar a cabo acciones de reparación para manejar el software y el hardware defectuosos. Una supuesta clave subyacente al piloto automático es que los servicios construidos en él deben ser diseñados para ser manejables“. Servicios manejables, ese es el requisito. El piloto automático de un avión pierde su sentido si no puede ajustar las superficies de control (alerones, aletas, timones). Una pregunta interesante es acerca de dónde las empresas están en ese viaje en términos del centro de datos, en otras palabras, qué tan cerca están de tener al piloto automático del centro de datos conectado a sus “superficies de control”. Los principales temas de esta “gestión de servicios” son desacoplamiento y control basados en software. En términos generales, es necesario definir los servicios importantes con varios niveles de granularidad, aislarlos unos de otros y darles control y APIs de monitoreo. En algunas áreas de los centros de datos hay una gran sofisticación al respecto. La virtualización de los servidores ha desacoplado las aplicaciones de los servidores físicos y hay sistemas de gestión de VM capaces de gestionar los ciclos de vida y la salud de las máquinas virtuales. Los contenedores llevan esto considerablemente más lejos, pues incluyen elementos de gran alcance alrededor del empaquetado y de la independencia de la localización. En cuanto a la conexión a las redes, el progreso de las virtuales ha sido rápido. La concepción centrada en la aplicación de la red es análoga a la centrada en la aplicación de la máquina en la que se está ejecutando pero, en ambos casos, la concepción es errada (en el mejor sentido de la palabra), pues pretende ser un hardware real, pero en realidad desacopla la aplicación del mismo. En ambos casos tiene el control basado en API y sistemas de nivel superior que interactúan con ellas. Lo mismo ocurre con la virtualización del almacenamiento y el almacenamiento definido por software. El aumento de los sistemas híper-convergentes a nivel de servidor sigue un patrón similar: desacoplar los servicios y proporcionar mecanismos para el control basados en el software. Existe una buena “manejabilidad del servicio” y está progresando muy rápidamente. ¿Qué falta? Más allá de la virtualización: desacoplamiento en la capa de la base de datos -Hoy en día se puede tener una API que permita agregar o quitar una VM a su aplicación para soportar un aumento o caída de usuarios simultáneos e incluso permitir que una herramienta de orquestación, como Kubernetes, agregue o elimine la VM automáticamente cuando sea necesario. ¿Puede hacer esto con el sistema de su base de datos? -Hoy en día se puede tener una API que permita proveer y configurar una red privada de una manera totalmente automatizada. ¿Puede proporcionar y configurar una base de datos de esa manera? -Hoy en día se puede tener una API que permita mover un conjunto de micro servicios en ejecución a una máquina física diferente, para permitir el mantenimiento de la actual. ¿Su base de datos tiene ese tipo de API? -Hoy en día se puede tener una API que reconfigure su sistema de almacenamiento mientras está dando servicio a otras aplicaciones. ¿Su sistema de base de datos es compatible con eso? No olvide ver: Así serán los Data Center del futuro El diseño histórico del RDBMS es tan fundamentalmente antitético a la infraestructura elástica que, no importa lo inteligente que sea el piloto automático del centro de datos, no tiene acceso a las “superficies de control” útiles. Eso se debe a que los sistemas de base de datos tradicionales no pueden realizar las acciones que se esperarían de un centro de datos elástico. No puede llamar a una API para indicarle a Oracle o SQL Server que agregue 10 nodos más a una base de datos en ejecución. Introducción a la base de datos definida por el software El reto de proporcionar grandes APIs de automatización para las bases de datos está relacionado con el desacoplamiento. El diseño principal de los principales sistemas de bases de datos nació con el System-R de IBM a mediados de los años setenta, cuyo patrón dominante es el acoplamiento estrecho, especialmente entre la memoria y el almacenaje. Un diseño modular ligeramente acoplado sería mejor para la automatización, pero el RDBMS tradicional es monolítico. La próxima generación de sistemas de bases de datos, los llamados sistemas Elastic SQL deberían ser diseñados para ser modulares, ligeramente acoplados, componibles y programables por software. Tal vez deberíamos referirnos a las bases de datos Elastic SQL como bases de datos definidas por software, porque desde una perspectiva de automatización es el requisito central. #automatización #CentrodeDatos #modernización #softwareempresarial
- Facebook bloqueó uso de fuentes de datos para herramientas de espionaje
InfoWorld Los funcionarios encargados de hacer cumplir la ley están interesados en herramientas de software que les permitan escanear las fuentes de las redes sociales para obtener información que puedan utilizar en el monitoreo de potenciales criminales. Para disuadir a los desarrolladores de crear tales herramientas, Facebook e Instagram han incluido explícitamente en sus políticas la prohibición de utilizar los datos de sus usuarios. “Los desarrolladores no pueden ‘utilizar los datos obtenidos por nosotros para proporcionar herramientas que se utilicen para la vigilancia”, escribió en un post el subdirector de privacidad de Facebook, Rob Sherman, al anunciar la última actualización de los términos y condiciones. Lea también: Facebook afina sus herramientas de identidad para desarrolladores Sherman dijo que la nueva política es el resultado de meses de trabajo con organizaciones de defensa, como la American Civil Liberties Union (ACLU) de California, Color of Change y el Center for Media Justice. En octubre pasado, la ACLU advirtió que Geofeedia, una compañía que desarrolla software de monitoreo en redes sociales, usaba datos de Twitter, Facebook e Instagram para rastrear a los manifestantes en Baltimore y otros lugares. Geofeedia tenía acceso a la API de Instagram, que incluía cualquier dato de ubicación asociado con puestos de usuario; a la fuente API de temas de Facebook, que proporciona un feed clasificado de publicaciones que mencionan un tema específico, incluyendo hashtags, eventos y lugares; y a la base de datos de Twitter de los tweets públicos. Las autoridades policiales podrían usar el software para ver lo que la gente publicó con respecto a #BlackLivesMatter, a dónde iban y con quién se comunicaban. Poco después del informe, Facebook e Instagram eliminaron el acceso de Geofeedia a las API y Twitter cortó completamente la relación de datos con la compañía con sede en Chicago. “Proteja la información que recibe de nosotros contra el acceso, uso o divulgación no autorizados. Por ejemplo, los datos no pueden ser utilizados en el desarrollo de herramientas que sean utilizadas para la vigilancia “, señaló Facebook en la política actualizada. La decisión de Facebook parece oportuna, ya que parece que el Departamento de Seguridad Nacional de Estados Unidos (DHS, por sus siglas en inglés) está interesado en un software que le permita escanear automáticamente las plataformas de las redes sociales para identificar a individuos sospechosos. Un informe de la Oficina del Inspector General encontró que los Servicios de Ciudadanía e Inmigración de los Estados Unidos (USCIS) habían llevado a cabo tres programas piloto, en diciembre de 2015 y en abril y agosto de 2016; para buscar de forma manual y automática los perfiles en las redes sociales de los solicitantes de visas para detectar posibles pistas sobre alguna actividad problemática de los mismos. El informe encontró que la detección automatizada no era una “opción viable” y la revisión manual “era más efectiva en la identificación “. Si bien es posible asignar agentes para monitorear regularmente las plataformas de medios sociales, la automatización ayudaría a procesar grandes volúmenes de datos y asegurar que las pistas clave no se pierdan. En el informe, la Oficina de Inteligencia y Análisis del DHS señaló que “ni el sector privado ni el Gobierno de los Estados Unidos poseían las capacidades para el análisis a gran escala de las redes sociales”. DHS reinició el programa de pruebas e identificó 275 herramientas de software que pueden ser utilizadas para escanear. No es un gran salto suponer que esta institución pronto comenzará a pedir a los contratistas que construyan tal plataforma, si no lo han hecho ya. Sin embargo, los cambios bien intencionados en las políticas no tendrán mucho impacto pues se aplican solamente al software y el gobierno todavía podría demandar los datos del usuario a través de sus Cartas Nacionales de Seguridad o con cualquiera de los programas encubiertos de espionaje. Vea después: ¿Por qué Facebook sobresale en la eficiencia de su data center? Mientras que Facebook tiene procesos automatizados y manuales para comprobar que los desarrolladores siguen sus normas, los contratos con el gobierno son lucrativos y estos pueden encontrar una forma de evitarlas. El cambio de política de Facebook no aborda otro problema omnipresente, que es el de la localización por los anunciantes y las plataformas de mercadeo , ya que las entidades comerciales todavía tienen acceso a los canales públicos utilizados para monitorear tendencias y otros eventos públicos. Los desarrolladores que trabajan en herramientas que puedan supervisar la actividad en las redes sociales deben estar conscientes de los términos y condiciones respecto a lo que se les permite hacer con los datos. #redessociales #Facebook #Espionaje #Instagram #twitter
- Sepa por qué desarrolladores felices es igual a clientes felices
CIO En el mercado digital actual, impulsado por la tecnología, la mayor ventaja competitiva de una empresa es su capacidad para ofrecer una excelente experiencia al cliente. El primer paso para lograrlo lo tiene que dar el equipo de desarrollo de software. “A todos nos ha pasado, ¿verdad? Tratas de hacer tu trabajo y el software que usas no funciona bien, o tiene una falla que debes resolver, o no tiene las características adecuadas a tus necesidades; aunque podría estar cerca. Esto hace que todo sea frustrante, difícil y que no trabajes de una manera eficiente o eficaz “, explicó Greg Law, CEO y co-fundador de Undo, una starup desarrolladora de software. Eso significa que usted no satisface las necesidades y las demandas de los clientes tan bien como podría. El hiper conectado panorama de los medios de comunicación, saturados por las redes sociales, hace que los clientes puedan ventilar fácilmente esas inconformidades al mercado con unas pocas pulsaciones de teclas, lo que puede tener un impacto directo en sus resultados. Lea luego: Usar inteligencia artificial en el trabajo podría traer más felicidad Mantener a sus desarrolladores de software felices, comprometidos y trabajando productivamente, tiene una correlación directa con la satisfacción de sus clientes, agregó Law. El ambiente importa “Los seres humanos necesitan niveles muy altos de precisión, enfoque y concentración para escribir un código de calidad; y necesitan libertad para ser creativos y expresarse. Deben estar capacitados para tomar sus propias decisiones en un ambiente cómodo y en el que tengan fácilmente a su disposición los recursos necesarios para hacer bien su trabajo “, expresó Law. Los desarrolladores de software felices y comprometidos pueden producir resultados de alta calidad, lo que también afecta a todos los demás involucrados en el desarrollo, entrega, comercialización y ventas del producto. Siempre es mucho más fácil vender un producto de calidad que satisface una necesidad del cliente y es atractivo para el mercado. Tratamiento de Reyes Las empresas más inteligentes lo entienden y es por eso que, en un estrecho mercado de talentos de TI, los desarrolladores de software son tratados como integrantes de la realeza. Son habituales los salarios lucrativos, la posibilidad de trabajar a distancia, ventajas como el masaje en el sitio, alimentos, PTO ilimitado y similares. Las compañías que lo comprenden y tratan bien a su gente, van a recibir un retorno de esa inversión atrayendo al talento tecnológico de élite. Si bien estos beneficios y privilegios pueden parecer excesivos, lo cierto es que pagan dividendos a largo plazo. “Un desarrollador de software un poco mejor que el de la competencia puede generar rendimientos exponenciales, no lineales, en cualquier inversión que haga. Es algo similar a los deportes profesionales, en los que si su talento es sólo el 1% mejor que el de su competidor, tendrá una enorme ventaja“, añadió Law. Las organizaciones que no están dispuestas a hacer estas inversiones se engañan a sí mismas, según Chris O’Malley, director ejecutivo de la empresa de servicios de tecnología de mainframe, Compuware. Es casi imposible tener suerte y encontrar estas habilidades especializadas a través de la subcontratación, por lo que, si se quiere competir, debe elevarse la apuesta. Incluso las startups con presupuestos limitados pueden ofrecer beneficios atractivos para los desarrolladores, pues no se trata solo de la remuneración. Actuar Adecuadamente “Los CIO tienen que entender que este mercado ha evolucionado. Estos desarrolladores son esenciales para su capacidad de competir, por lo que necesitan ser capaces de aumentar la apuesta e invertir en ellos. El entorno del trabajo es importante. Quieren cosas interesantes para hacer y la naturaleza del trabajo vale tanto como cuánto se les paga “, señaló O’Malley. No se pierda: Software empresarial impulsa el gasto en TI Una startup no siempre puede ir cabeza a cabeza en el salario con sus competidores más grandes. Un ambiente de lanzamiento, los proyectos nuevos e innovadores y la capacidad de hacer una diferencia demostrable para los clientes, ayuda a atraer el talento de la élite. Eso se traducirá en una gran experiencia para el cliente. “Tienes que ser creativo, innovador y encontrar maneras de hacer que esto funcione y diferenciarte para tener clientes felices y cautivados, porque si no lo haces, darás mala fama a tu empresa y un mal servicio a tus clientes y desarrolladores; eso es prácticamente un suicidio “, concluyó O’Malley. #felicidad #desarrolloweb #clientes #cambios #mejoras
- Las 10 compañías top en el ámbito de las redes empresariales
Este es el análisis de Network World sobre las compañías de redes empresariales más poderosas; fundamentado con investigación propia, consultas a analistas de la industria y el trabajo de periodistas internos. Aquí se entenderá el término “poder” como la participación en las áreas clave de las redes corporativas del mercado, específicamente, las redes centrales, monitoreo, administración y WLAN. Estas son las 10 compañías top en el ámbito de las redes empresariales 1. Cisco Cisco sigue siendo el mayor actor individual en las redes empresariales, y la brecha no es particularmente pequeña. La compañía ofrece una ventanilla única para adquirir casi cualquier cosa que se pueda necesitar para la red y se asegura de que sus productos funcionen bien entre ellos. Aunque es posible que no funcionen tan bien con las herramientas de otras empresas y algunos de los precios pueden asustar, Cisco sigue teniendo una base tecnológica fuerte y confiable, y es la compañía a vencer en las áreas más importantes de las redes empresariales. A principios de 2017, adquirió la firma de análisis datos Saggeza, el competidor en SD-WAN, Viptela, y ganó una batalla legal con su rival Arista por una demanda de patentes. Actualmente mantiene una participación del 60% en el mercado de enrutamiento y conmutación, de acuerdo con las cifras más recientes de IDC. Aunque posee desafiantes en muchos frentes, nadie puede pretender ofrecer la misma amplitud de soluciones que el gorila de 800 libras de redes empresariales que es Cisco. Lea también: Redes empresariales: ¿wireless o cableado? 2. HPE / Aruba Aruba es el nombre más grande, aparte de Cisco, en el espacio de LAN inalámbrica, y la única compañía que ocupa la sección de “líderes” del último informe Magic Quadrant de Gartner Research para la infraestructura LAN alámbrica e inalámbrica. Esta empresa, adquirida por HP meses antes de que la compañía se dividiera en dos entidades a fines de 2015, ahora es el brazo inalámbrico de HPE. El exdirector ejecutivo de esta compañía, Dominic Orr, bromeó diciendo que Aruba realmente adquirió HP Networking , y no al revés. Según Gartner, representa alrededor del 20% de los ingresos en el ámbito de las redes inalámbricas a nivel mundial. Últimamente, Aruba ha estado presionando en el mercado de conmutación de núcleo, lanzando un nuevo hardware para su sistema operativo ArubaOS-CX, que se presenta como una solución todo en uno para la visualización y administración para empresas con redes cada vez más enfocadas en el Internet de las Cosas. La corporación se ha asociado con el instituto de transporte Texas A&M para un proyecto de seguimiento y optimización del flujo de tráfico, que afectará a 7.5 millones de transeúntes anuales del campus de College Station. La incursión en el mercado de conmutadores básicos podría afectar radicalmente la trayectoria de Aruba, aunque es improbable que su posición en el mercado WLAN cambie como resultado de ello. Aun así, las noticias recientes de IDC de que la participación de mercado de la compañía se redujo en su último informe trimestral, en un período en el que creció el mercado mundial de WLAN, podría ser motivo para preocuparse ligeramente. 3. Juniper Juniper es uno de los dos líderes de Cisco en el sector de redes de centros de datos. Sus soluciones de centros de datos están muy bien integradas, bien hechas y, en general, se cree que funcionan mejor que Cisco con los productos de terceros. Juniper fue más rápido en la adopción de redes de malla y otras topologías de red de nueva generación, y el software de la compañía es particularmente bien considerado, tendiendo a marcos abiertos que se integran sin problemas con otras partes de la red. La empresa contrató a un nuevo director de tecnología, el ex trabajador de Google, Bikash Kolay, y anunció que había superado sus objetivos de ganancias para el segundo trimestre del año 2017. En 2016 esta corporación registró un crecimiento anual de 3.5% en el mercado de switching y enrutamiento, según IDC. La compañía perdió una pequeña cantidad de participación en el mercado durante este año, pero su trayectoria parece ascendente, y los analistas creen que Juniper está bien posicionada para tener éxito en el cambiante mercado de las redes empresariales. 4. Huawei La gigante asiática llega a muchos segmentos en el mercado de las redes empresariales, desde la red principal hasta la WLAN y WAN. (También hace básicamente de todo, incluidos teléfonos inteligentes y tabletas.) La presencia de la compañía en los EE. UU. ha estado un poco limitada debido a asuntos sobre la seguridad de sus productos y su relación con el gobierno chino, pero no existen tales limitaciones en muchos otros mercados alrededor del mundo. Huawei ocupa el segundo lugar detrás de Cisco en el mercado del switching y el enrutamiento, y está en tercer lugar detrás de Cisco y HPE/Aruba en WLAN. Así que ciertamente parece estar bien encaminada. También está abriéndose camino en la inteligencia artificial gracias a sus propiedades en la fabricación de chips. Su participación en el mercado WLAN creció un 77% entre 2015 y 2016, de acuerdo con las últimas cifras disponibles de IDC. 5. Arista Arista está muy concentrada en las redes de centros de datos y es una de las principales compañías del mundo en esa área. Es la única empresa que comparte el cuadrante de “líderes” con Cisco en el enrutamiento básico y el cambio de Magic Quadrant de Gartner, y dentro de ese espacio, sus ofertas son diversas y flexibles. Sin embargo, el tema ácido de Arista es un caso legal por infracción de patente presentado por Cisco, el cual no está resultando muy bien para Arista. No va a arruinar la empresa ni nada por el estilo, pero es una mancha bastante seria en su imagen pública y un dolor de cabeza para el diseño de sus productos. 6. VMware Hay una buena base para afirmar que la virtualización y los productos en la nube de VMWare son algunas de las cargas de trabajo de red más importantes que existen, y que la compañía, propiedad de Dell / EMC desde finales de 2016, se encuentra entre las más influyentes del mundo en el sector de redes empresariales. Sin embargo, con su producto de virtualización de red NSX, VMWare también actúa directamente como promotor en las redes definidas por software. Compatible con la mayoría del hardware de gran renombre, NSX permite a los usuarios administrar múltiples entornos de nube desde una única consola. Esta herramienta puede tener sus detractores, a muchos administradores de redes a nivel de campo no les gusta, ya que es difícil ver lo que sucede en una superposición virtual, pero también tiene aplicaciones de seguridad , y la base de usuarios podría crecer. VMWare amplió sus posibles casos de uso para NSX en febrero de 2017 mediante el despliegue de NSX-T 1.1, una versión del software que funciona con entornos de virtualización y nube no propios de VMWare. Las cifras de IDC muestran que VMWare genera alrededor USD$ 646 millones en ingresos anuales por su software de sistemas de administración en la nube, casi el doble que IBM, su competencia más cercana. 7. Riverbed Riverbed, gracias en parte a una serie de adquisiciones y fusiones de larga data, es el líder de importantes áreas secundarias de productos de redes, en particular, optimización de WAN y gestión del rendimiento de las aplicaciones. Recientemente se ha centrado en la integración de un grupo diverso de herramientas de gestión y visualización en un conjunto lógico, y en la ampliación de esas capacidades en algo más que una agrupación de herramientas de red auxiliares. La última adquisición de la compañía, Xirrus, fabricante de equipos inalámbricos de punta, señala un cambio agresivo de dirección, con ejecutivos de Riverbed haciendo ruidos belicosos sobre desafiar a Cisco en ciertos mercados WLAN en un evento de la compañía en abril de 2017. Desde que en 2015 se firmó un acuerdo público en el que la firma de valores Thomas Bravo compró Riverbed por unos USD$ 3.600 millones, la corporación no ha revelado cuánto pagó por ninguna de sus numerosas adquisiciones. El movimiento de Riverbed para trabajar en LAN y WAN es ambicioso, como lo es la retórica reciente de la compañía, pero eso no está comprobado en este nuevo mercado, y solo el tiempo lo dirá con certeza. 8. Netscout NetScout es una compañía de monitoreo y diagnóstico de rendimiento de red con una gran presencia en los segmentos de grandes empresas y proveedores de servicios. Todavía está pasando por una consolidación, dado el acuerdo de 2015 que combinaba la compañía con Fluke Networks, Arbor Networks y VSS Monitoring, en una complicada fusión. Esta agrupación tiene una gran presencia en el mercado de monitoreo y diagnóstico del rendimiento de la red (NPMD, por sus siglas en inglés), y es uno de los principales proveedores de centros de datos a hiperescala. Es uno de los tres líderes en el Cuadrante Mágico de NPMD más reciente de Gartner. También anunció que alcanzó un hito en la integración de su plataforma de información en tiempo real con la herramienta de análisis de amenazas de Arbor, fortaleciendo su monitoreo de red y sus capacidades de seguridad. Gartner indicó que NetScout tiene los mayores ingresos de NPMD en el mercado, entre USD$ 500 millones y USD$750 millones por año. Esta es una compañía con una gran base de usuarios y mucha tecnología considerable. Todavía necesita avanzar en la integración, pero su futuro parece bastante sólido. 9. Extreme Networks Extreme Networks es, de repente, una empresa con una cartera de productos impresionantemente para las redes empresariales. Después de comprar el negocio de centros de datos Brocade de Broadcom , hacerse con el negocio de redes de Avaya y adquirir el sector de LAN de Zebra Technologies en 2016, la conmutación y el enrutamiento existentes de esta empresa ahora constituyen una sorpresa en la escena de las redes empresariales. La adquisición antes mencionada del negocio de enrutamiento básico de Brocade es algo difícil de superar. Extreme pagó USD$100 millones por la adquisición recién cerrada del negocio de redes centrales de Avaya. No se pierda: Corero Network Security y Webroot lanzan solución para la defensa de redes empresariales 10. Dell / EMC Aunque es algo inusual para una empresa tan antigua, Dell es reconocido como un “visionario” en las redes de centros de datos según el último informe Magic Quadrant de Gartner, un hecho que tiene mucho que ver con la bienvenida de la compañía a los estándares abiertos y al hardware y software altamente interoperable. Si bien el hardware de la compañía puede no tener la misma reputación que algunos de sus competidores, el hecho de que se pueda ejecutar una amplia gama de software diferentes significa que hay una gran flexibilidad; una propuesta de valor sólida para los usuarios que buscan adoptar más tecnologías de red virtualizadas. Muy adecuado para una empresa que también posee VMWare técnicamente, aunque esta última empresa todavía opera con un alto grado de independencia. Dell recientemente reforzó su programa de socios, algo que Gartner citó como una debilidad potencial. La compañía recaudó USD$67 mil millones para EMC, que todavía es en gran parte propietaria de VMWare. Dell está utilizando tanto sus inversiones en VMWare como su propio equipo de redes abiertas para ofrecer una opción atractiva a las empresas que desean acceder a tecnologías avanzadas como la de las infraestructuras hiperconvergentes. #mejoresempresas #redesempresariales #top10
- La salud y la industria 4.0
Jose Durán La industria 4.o está cambiando la manera en que se realizan muchas cosas actualmente. Con ayuda de tecnologías en la nube, big data, Internet de las Cosas (IoT) e Inteligencia Artificial (IA), se están automatizando procesos y reduciendo costos operativos. El sector salud no queda exento de esta revolución industrial, pues técnicas como la telemedicina buscan romper las barreras que enfrentan decenas de países con escasez de personal médico. “Se podrá acceder a historiales médicos de manera inmediata, el monitoreo de pacientes crónicos se hará más sencillo por el uso de wearables que suben su información a la nube en tiempo real, los médicos podrán realizar consultas de manera remota y los equipos médicos se operarán desde dispositivos móviles”, explicó Marisol Capetillo, directora de VERSE Technology. Lea también: Industria 4.0: el futuro ya es el presente Actualmente ya se vislumbran las primeras innovaciones de este tipo, como el uso de IA para la búsqueda de alteraciones moleculares y la implementación de tratamientos de última generación, o la impresión biológica 3d, que permite crear células madre o tejido de piel. Capetillo afirmó que tan sólo en India, IBM Watson redujo en un 78% el tiempo necesario para la aplicación de estudios de detección del cáncer, coincidiendo en un 90% de ocasiones con el consejo de especialistas de Highlands Oncology Group y Novartis. Por otra parte, proyecciones a futuro de IDC indican que el uso de la tecnología en consulta cara a cara utilizará redes de datos y capacidades cognitivas para hacer pre-diagnósticos, lo que disminuiría para el año 2020 en un 30% el tiempo de consulta de los médicos. “Cada día vemos más desarrollo de aplicaciones tecnológicas capaces de mejorar la eficiencia de los servicios sanitarios, manteniendo al mismo tiempo el cumplimiento y la seguridad de los datos, y la calidad de la atención médica”, expresó Capetillo. Se espera que en la próxima década se efectúe una mayor apertura y adopción de tecnologías IoT. Según la consultora Mckensey& Co, el uso de Internet de las Cosas en el sector salud permitirá un ahorro de USD$63 mil millones, a nivel mundial, en costos y gastos médicos durante los próximos quince años. #industria40 #Inteligenciaartificial #Internetdelascosas #sectorsalud
- ¿Cuáles son los 4 navegadores web del momento?
CIO El navegador web es, por mucho, el software más importante de una PC, al menos para la mayoría de los usuarios. A menos que se esté en una estación de trabajo machacando números o editando la próxima Guerra de las Galaxias, es probable que pase la mayor parte de su tiempo en la computadora mirando una aplicación o un sitio web. Por eso, es importante asegurarse de tener la mejor herramienta para realizar el trabajo diario. Aunque hay muchos que continúan usando Internet Explorer o la versión mejorada Edge, es difícil no verse tentado por otras opciones, como Chrome de Google, Mozilla Firefox y Opera. A continuación se analizarán los cuatro navegadores principales (y modernos) para ver cómo se desempeñan. Recientemente Microsoft lanzó la actualización Fall Creators, que pareció tener un impacto significativo en los resultados de su navegador. Sin embargo, la motivación para este artículo es el lanzamiento de Firefox 57, también conocido como Firefox Quantum. El navegador modificó su interfaz y se supone que es dos veces más rápido, usando un 30 por ciento menos de memoria que Chrome. No olvide leer: La competencia entre los navegadores web El actual campeón del mundo, Google Chrome, encabeza los gráficos en StatCounter y NetMarketShare por un amplio margen. El navegador de Google ha creado una base de admiradores importante gracias a su enorme biblioteca de extensiones, y al hecho de que permite al usuario centrarse en el contenido web y no en los adornos del explorador. Chrome no es tan simple como lo era antes, pero sigue siendo muy fácil de usar. No tiene mucho más que una gran barra de URL, conocida como OmniBar, más un espacio para extensiones, un icono de marcadores, pestañas, y eso es todo. Sin embargo, Google aún encuentra una manera de ocultar todo tipo de características dentro del navegador, incluida una integración profunda con los servicios de Google. Esto permite sincronizar marcadores, contraseñas y pestañas abiertas en todos los dispositivos. Chrome también posee un soporte para múltiples cuentas en caso de contar con una computadora familiar, un visor de PDF, Google Traductor incorporado, un administrador de tareas y el siempre práctico menú contextual con su opción de pegar y buscar. Si hay una queja que las personas tienen sobre Chrome, es que consume mucha memoria disponible. Para los usuarios que aman la extensibilidad pero desean mayor privacidad, el navegador de código abierto, Mozilla Firefox, es una gran opción. Firefox allanó el camino para que otros exploradores se hicieran extensibles, y se espera que la nueva arquitectura de extensiones de Firefox haga que el catálogo pronto iguale a la tienda web de Chrome. También tiene una función de sincronización que permite ver las pestañas abiertas y recientes, el historial de navegación y los marcadores de todos los dispositivos vinculados. Firefox 57 trae un diseño nuevo y actualizado, con íconos modernos, una sección que contiene el historial, la lista de lectura, las descargas y las pestañas sincronizadas. También hay una útil herramienta para la captura de pantalla. Donde realmente ha brillado esta herramienta en los últimos años es en el modo incógnito del explorador .Todos los navegadores tienen un modo privado que permite navegar sin que ninguna actividad quede registrada en el historial; no obstante, la mayoría de las veces estos modos privados aún permiten que los sitios web rastreen la actividad para esa sesión específica. Firefox elimina esto al incluir bloqueadores de anuncios y rastreadores cuando se usa el modo incógnito. Antes de Chrome, Opera era una opción popular entre los usuarios avanzados, una posición que el exdirector ejecutivo de Opera, Jon Stephenson von Tetzchner, intenta recuperar con Vivaldi. Hoy, Opera es uno de los navegadores más subestimados. Se basa en las mismas tecnologías básicas que Chrome (el motor de renderizado Blink y el motor JavaScript V8), lo que significa que puede ejecutar muchas extensiones de Chrome; incluso hay una para instalar extensiones desde Chrome Web Store. Opera también tiene algunas características inusuales como Turbo, que ahorra tiempo en la carga y ancho de banda al comprimir páginas web en sus servidores. También tiene una buena característica de seguridad llamada resaltado de dominio, la cual oculta la mayor parte de la URL para que los usuarios puedan ver de manera fácil y clara si están en Google.com o google.com.scam.com, siendo scam.com el sitio web real. Más recientemente, introdujo la barra lateral social con acceso a servicios como WhatsApp, Facebook Messenger y Telegram. Al igual que Chrome y Firefox, Opera también tiene su propia función de sincronización entre dispositivos. En el caso de Microsoft Edge, su biblioteca de extensiones es pequeña pero está en crecimiento. Su funcionalidad de sincronización todavía está restringida a favoritos y lista de lectura, y no recibe las actualizaciones de manera rápida, aunque eso puede cambiar ahora que Microsoft puede actualizar Edge por separado de Windows. Vea también: Los navegadores más peligrosos de la web A pesar de sus deficiencias, Edge tiene varias funciones útiles que atraerán a algunos. Está profundamente integrado con las capacidades enlace de Windows 10, así como con OneNote, por lo que es fácil recortar una página web, anotarla y guardarla en una computadora portátil. Cortana también es una gran parte de este explorador. Puede usar el asistente digital de Microsoft para buscar rápidamente información, comparar precios u obtener un cálculo rápido. También hay una función de pestañas ingeniosas para guardar una colección de sitios web, la capacidad de leer libros electrónicos (ideal para tabletas) y una nueva página de pestañas estilo MSN.com. En la Actualización Fall Creators, Edge recibió varias funciones nuevas, incluida la capacidad de anotar archivos PDF y libros electrónicos, fijar fácilmente sitios web en la barra de tareas, editar URL en sus favoritos, navegar en pantalla completa, ver y administrar permisos del sitio web, y también la herramienta de “leer en voz alta” para el contenido web. Sin embargo, la mejor característica es la opción “Continuar en la PC”, que permite enviar páginas web a la computadora desde el teléfono por medio de una aplicación. #web #mejores #explorador #navegador #cuatro


