Resultados de la búsqueda
Se encontraron 7820 resultados sin ingresar un término de búsqueda
- Crece el uso de las TI en las exportaciones de la región
Luis Fernando Arévalo El crecimiento de la TI a nivel regional continúa abarcando diferentes campos de la economía y pese a que la eliminación del papel en las aduanas pareciera ser algo imposible, diferentes software y aplicaciones ya permiten que los comerciantes locales controlen sus exportaciones desde un dispositivo móvil o PC. El principal beneficio de la innovación de los procesos de exportación por medio de las nuevas tecnologías, según Adolfo Méndez, director ejecutivo de la Comisión Portuaria Nacional de Guatemala (CPN), es lograr procesos más ágiles y puertos más eficientes, reflejándose en un crecimiento de las exportaciones o de las operaciones en general que se realizan en aduanas. Además: Se estanca el avance tecnológico de Guatemala En el caso de Centroamérica y el Caribe, un ejemplo se observa en APM Terminals, desarrolladas en Costa Rica, Guatemala y puerto Cortés en Honduras, tres terminales que se encuentran implementando sistemas de TI innovadores. En el caso de Costa Rica, se empleará un sistema de manejo automatizado de inventario de contenedores por medio de tecnología geo-referenciada (DGPS), un sistema de prevención de colisiones de grúas de terminal (RTG) y un sistema de control global de asignación de los tractores basado en algoritmos de optimización de flujo. Mientras tanto en Guatemala, AMP Terminals ya implementó un importante sistema digital para controlar en tiempo real la carga y diferentes procesos que se deben desarrollar para las exportaciones, automatizando los servicios y evitando la intervención de terceras personas. Las empresas deben estar consientes de la necesidad de tener acceso a redes de Internet estables, equipo adecuado de computo y sistemas de seguridad informática eficientes, para que sus operaciones comerciales no sean blanco de piratas cibernéticos o virus que puedan poner en riesgo información sensible. También: Fintech y blockchain van cuesta arriba en Guatemala Por su parte, la Asociación Guatemalteca de Exportadores (Agexport), se encuentra impulsando diferentes plataformas para aprovechar las ventajas de las nuevas TI. Tal es el caso de Connecting Best Markets, que une la oferta de productos y servicios de Guatemala con la demanda de compradores internacionales de 75 países. Otra plataforma utilizada es la Ruta del Exportar, que más que una aplicación digital es una metodología que acopla y ordena experiencias para que emprendedores, pymes y grandes empresas, potencien sus capacidades exportadoras a través de nuevos procesos. #tecnología #TI #exportaciones #regiónCentroaméricana #puertos
- Avaya ahora cotiza en la NYSE
Jose Durán El pasado 17 de enero, Avaya Holdings Corp, empresa especializada en el área de telefonía y los centros de llamadas, empezó a cotizar en la Bolsa de Nueva York (NYSE, por sus siglas en inglés) bajo el símbolo bursátil AVYA. Lo anterior es otro paso que logra la organización tras enfrentar un arduo plan de reestructuración que culminó a finales del año pasado, con el cual consiguió reducir una carga de deuda aproximada a los USD$ 3000 millones y salir del capítulo 11 de la Ley de Quiebras de los Estados Unidos. “Hoy es el comienzo de un nuevo capítulo para Avaya; hemos reducido significativamente nuestra deuda, hemos fortalecido nuestro balance general y mejorado el flujo de efectivo para financiar mayores inversiones en innovación y desarrollo”, expresó Galib Karim, vicepresidente de Avaya Americas Internacional. Lea también: La segunda falla informática del día, ahora la Bolsa de Nueva York Karim también aseguró que sus plataformas ahora son más abiertas, con el fin de que sus clientes puedan integrar de manera eficaz y rápida nuevas tecnologías como la Inteligencia Artificial, el Internet de las Cosas y Blockchain, permitiéndoles alcanzar la transformación digital. Avaya se prepara para competir en el mercado con una propuesta de valor renovada y enfocada en los sectores de contact center, colaboración, servicios y soluciones basadas en la nube. Para Laurent Philonenko, vicepresidente senior y gerente general de Soluciones y Tecnología de Avaya, la proyección actual es una oportunidad para proporcionar nuevas formas de comunicación, añadir valores a esta área y brindar experiencias nuevas y fantásticas a sus clientes. #cotiza #Bolsadevalores #renovación #BolsadeNuevaYork #Avaya
- ¿Cómo incorporar una nube privada sin gastos excesivos en infraestructura?
Adrián González La nube, sin duda alguna, es una de las principales tendencias en las diferentes industrias de la región. Igualmente, muchas organizaciones han optado por elegir un modelo adecuado que satisfaga sus necesidades, por ejemplo, el modelo híbrido, privado o público. Por otra parte, la nube privada requiere de una mayor inversión debido a la necesidad de un espacio físico, la compra de equipo, mantenimiento, entre otras cosas; sin embargo, actualmente existen diversas soluciones para reducir el impacto económico que implica desarrollar un servicio como este. Un notorio ejemplo es la herramienta de VMware, la suite vCloud, la cual permite que cualquier canal, sin importar si es pequeño o grande, se convierta en un microcentro de datos virtual. Igualmente, esta tecnología otorga la capacidad de albergar grandes cantidades de computadoras, servidores y aplicaciones virtuales, de esta manera, los costos por el alojamiento de equipos y mantenimiento se pueden reducir. Nota relevante: ¿Por qué apostarle a la virtualización? “vCloud se trata de una solución completa con la que podrán implementar, por ejemplo, una nube privada para crear máquinas virtuales, sin gastar en equipos físicos, incurrir en costos excesivos de energía o la adquisición de grandes espacios para alojar servidores”, informó Alfredo Rodarte, product manager de VMware en Licencias OnLine México. De la misma manera, muchos proveedores de centros de datos, servicios en la nube e infraestructura, han diversificado su modelo de negocio y ahora utilizan mucho el método de cobro por uso como la infraestructura , software o plataforma como servicio (IaaS, SaaS, PaaS). De igual forma, la plataforma vCloud permite esta modalidad de cobro por uso pero mediante un formato diferente y basado en el espacio de memoria RAM utilizado. “Se trata de un esquema en el que el canal puede utilizar esta solución bajo un modelo de pago mensual, es decir, únicamente por el consumo de sus clientes, medido a través de la vRam o la memoria RAM que ocupen sus máquinas virtuales”, explicó Rodarte. Por último, el crecimiento en la virtualización de la infraestructura es una tendencia que se extenderá en 2018 y su cobro como servicio continuará en aumento. La adopción de cloud tiene un crecimiento acelerado en toda la región, por esta razón, Gina Sánchez, senior consultant de Frost & Sullivan para Latam, mencionó que la industria de la infraestructura sufrirá muchos cambios; además, estimó que le mercado de IaaS en América Latina pasará de USD $1,584 millones en 2017 a USD$2,176 millones en 2018. #Cloud #Iaas #nube #Virtualización
- Los 7 ataques más severos a la infraestructura crítica
Adrián González Los ataques a la infraestructura crítica no solo replantean las medidas de seguridad de las instituciones y organizaciones, sino también de los gobiernos, quienes se ven obligados a implementar reglamentos y equipos para poder atender las emergencias de seguridad informática. Por otro lado, la preocupación por contar con un equipo de respuesta a incidentes de seguridad o CSIRT (computer security incident response team) ya es una realidad en algunos países de la región como Costa Rica, Panamá, Guatemala y El Salvador. De igual manera, muchas naciones centroamericanas ya poseen su estrategia nacional contra ciberdelitos y también se suman a convenios de cooperación internacional, por ejemplo, el Convenio Budapest. Según comentó Cecilia Pastorino, experta en seguridad informática para ESET Latam, existen grandes problemas en los sistemas que utilizan las plantas industriales, debido a su desactualización; también explicó las ventajas sobre la creación de órganos cooperativos ante los incidentes cibernéticos. A continuación una recopilación por parte de la profesional de ESET sobre los ataques a la infraestructura crítica más dañinos. 1. Queensland: No todos los ataques de esta índole son provocados por hackers. En el año 2000, un empleado descontento ingresó a un sistema de gestión automatizado y ocasionó el derrame de millones de litros de agua en los parques de Queensland, Australia. “Si bien no se trató de una infección de malware, podemos clasificar este incidente como un ataque, ya que se trató de un hecho intencional afectando los sistemas informáticos”, argumentó Pastorino. Lea también: ¿Qué puede realizar un hacker mediante Spectre y Meltdown? 2. SQL Slammer: Este hecho afectó grandes cantidades de computadoras mediante una vulnerabilidad en los servidores de SQL. La infección provocó daños en la red de monitorización de la planta nuclear Davis-besse, ubicada en Ohio, EE.UU. El ataque dejo sin funcionamiento el sistema que supervisa el comportamiento de dicha planta durante un lapso de un poco más de cinco horas. 3. DDoS a Browns Ferry: Otro suceso a una planta nuclear ocurrió en agosto de 2006 en Alabama. La planta nuclear Browns Ferry sufrió un ataque de denegación de servicio, el cual, afectó el sistema de recirculación del agua en la planta. 4. Espionaje: En 2009 se descubrió que un grupo de espías chinos y rusos estaba elaborando un mapa sobre la infraestructura crítica de Estados Unidos. Para poder llevar a cabo el mapa los implicados hicieron uso de herramientas de mapeo de red y análisis de vulnerabilidades. 5. Suxnet: Este código malicioso fue desarrollado para infectar los sistemas de control industrial. La propagación alcanzó más de 45 mil computadoras y, según la investigación realizada en 2010 por parte de ESET, el 52% de los ordenadores estaban ubicados en Irán. Nota relevante: Facebook bloqueó uso de fuentes de datos para herramientas de espionaje 6. BlackEnergy: Miles de hogares perdieron su suministro de servicio eléctrico por varias horas en distintas zonas de Ucrania a causa de un troyano llamado BlackEnergy. El virus le otorgaba un acceso remoto al hacker en los sistemas infiltrados, además, podía realizar ataques de denegación de servicio. “Este malware no manipulaba directamente los dispositivos del sistema de control industrial, pero les permitía a los atacantes penetrar las redes de empresas de distribución de energía eléctrica y dañar el software utilizado por los equipos de ese sistema”, informó Pastorino. 7. Industroyer: Un año después del ataque de BlackEnergy se ejecutó un ataque muy similar pero más sofisticado. En pleno invierno gran parte de Kiev, capital ucraniana, perdió el acceso al servicio eléctrico por más de una hora, esto debido a Industroyer, código maliciosos diseñado para afectar plantas de distribución eléctrica. A diferencia del ataque pasado, los ciberdelincuentes obtuvieron el acceso directo al control de los interruptores de la subestación de electricidad y los interruptores de circuito. “Industroyer se trata de la mayor amenaza para los sistemas de control industrial desde Stuxnet. Las implicaciones de este malware para el futuro de las amenazas a infraestructuras críticas son preocupantes. Agregando también, que el equipamiento industrial al que está dirigido Industroyer es amplio”, concluyó Pastorino. #ataqueDDoS #infraestructuracrítica #Malware
- Cualidades que debe tener un CMO en el área digital
Jose Durán La transformación digital de la que están siendo parte todos los sectores de la industria también está afectado sus áreas de mercadeo. Para la mayoría de las empresas es vital sacar el mayor provecho de las plataformas digitales y las facilidades que ofrecen; no obstante, ¿conocen sus CMO lo suficiente para accionar estas herramientas? “Como CMO tenemos la obligación de estar constantemente actualizados. Realmente nos debe gustar aprender. Esto porque cada día existen nuevas y mejores formas de hacerle llegar información sobre nuestra empresa a los potenciales usuarios y actuales clientes”, comentó Gabriela Hidalgo, gerente de marketing de GBM Para Hidalgo, un CMO actual debe contar con los conocimientos básicos en marketing digital y ejecutar funciones como la medición y el entendimiento de las analíticas generadas digitalmente, necesarias para la toma de decisiones, la gestión de bases de datos de clientes y el acercamiento a la audiencia por medio de las redes sociales. Si está en búsqueda de un CMO con estas características, tome en consideración las siguientes recomendaciones: #contratación #cmodigital #búsqueda #marketingdigital #mercadeodigital #CMO #Digital
- Guía para prevenir ataques a infraestructura crítica
Adrián González En diciembre de 2016, gran parte de los ciudadanos de Kiev, Ucrania, se quedaron sin servicio eléctrico durante una hora en pleno invierno, por si fuera poco, la temperatura puede alcanzar los -6°C durante este periodo. El error en la distribución de energía eléctrica ocurrió debido a una infiltración de un código malicioso conocido como Industroyer. La infección logró apoderarse directamente de los interruptores de la subestación de electricidad y los interruptores de circuito. Este no es el primer caso en el que los cibercriminales logran entrometerse en un sistema de infraestructura crítica y es probable que en 2018 estos ataques también estén muy presentes. Para Cecilia Pastorino, especialista en seguridad informática para ESET Latam, el mayor problema con los sistemas industriales son los protocolos de comunicación que utilizan debido a que son muy viejos. Además, fueron desarrollados en momentos en los cuales la seguridad no se tomaba en cuenta en lo absoluto y otra problemática es que son un modelo universal, lo que significa que se emplean en las distintas plantas industriales de muchos países. “Muchos de los equipos de un sistema de control industrial que aún se usan hoy en día no fueron diseñados teniendo en cuenta la conectividad a Internet, por lo que las medidas de protección son difíciles de implementar”, explicó Pastorino. Igualmente, la experta detalló cuatro consejos para evitar y prevenir los ataques a infraestructura crítica. Observe el infográfico para conocer cuáles son los puntos vitales a incorporar en la seguridad de la institución. #Ciberseguridad #infraestructuracrítica #Malware #pasos
- ¿Qué puede realizar un hacker mediante Spectre y Meltdown?
Adrián González Al inicio de este 2018 las fallas o vulnerabilidades, conocidas como Spectre y Meltdown, han despertado un gran interés mediático por el impacto y el riesgo que representan para la seguridad de los datos integrados en los dispositivos tecnológicos; sin embargo, ¿qué realmente puede ejecutar un cibercriminal por medio de estos vectores y qué grado de dificultad representa explotarlos? Ambas vulnerabilidades afectan los microprocesadores, pero poseen enfoques distintos. Para Stif Calvo, ingeniero preventa y arquitecto de seguridad de Soluciones Seguras en Costa Rica, Meltdown es más sencilla de explotar pero al mismo tiempo es más fácil de remediar. Además, esta vulnerabilidad afecta al kernel, que en palabras simples se puede definir como el núcleo de memoria de un dispositivo. Este se encarga de almacenar, en ciertos puntos de memoria, datos y procesos altamente valiosos como contraseñas, llaves de cifrado y otra información sensible del usuario. Esta información solo es visible y puede ser accedida por el Kernel por su grado de importancia. Nota relevante: Episodios más difíciles para la ciberseguridad en 2017 “Una vez que el software malicioso ingresa a estos puntos, el cibercriminal tiene la posibilidad de leer contraseñas, incluso leerlas en tiempo real. También puede ver las llaves de cifrado de procesos y aplicaciones, así como acceder a otro tipo de información altamente sensible almacenada en el Kernel”, explicó Calvo. Por otro lado, Spectre centra su objetivo en obtener información de las aplicaciones y procesos que corren en el sistema. También debido a su grado de dificultad para ser explotado es más complicado de reparar. Un código malicioso podría extraer la información relacionada con las aplicaciones, incluyendo contraseñas. Los errores fueron descubiertos por un grupo de investigadores de Google conocido como Project Zero. La investigación encontró las vulnerabilidades en varios fabricantes de procesadores, incluyendo los tres jugadores más grandes, Intel, Advanced Micro Devices (AMD) y ARM Holdings. De la misma manera, el impacto que podrían tener ambos fallos es muy severo, la consultora de tecnología IDC estimó que existen actualmente un total de 1.500 millones de computadoras en el mundo, entre PC de escritorio y portátiles. También mencionó que cerca del 90% de las computadoras funcionan con chips de Intel. Más información: 5 amenazas a la seguridad informática que dominarán el 2018 “Afectan billones de dispositivos que van desde computadoras, hasta servidores inclusive, hasta ahora se conocen como las mayores vulnerabilidades de la historia en el campo de la computación”, mencionó Calvo. Por último, muchos fabricantes de empresas como Microsoft, Google, Linux y Apple ya lanzaron sus respectivas actualizaciones para reparar los fallos de Meltdown y Spectre, igualmente, empresas de seguridad como Kaspesrky, ESET y Symantec ya presentaron una actualización para mayor seguridad. Además, Intel, AMD y ARM, es decir, los fabricantes de microchips más afectados están trabajando en remediar los errores. Algunos usuarios se han quejado porque las soluciones y actualizaciones para contrarrestar las vulnerabilidades han afectado el rendimiento de sus dispositivos. Por otra parte, Spectre le quitará el sueño a muchos por un lago periodo debido a que los parches liberados no cubren el 100% del riesgo que representa este error, ya que para solventarlo, según los investigadores de Google, se necesitaría de un rediseño en los procesadores. #Bug #hardware #robodedatos
- 10 reddits esenciales para profesionales de la seguridad
CSO Reddit no contiene solo noticias, memes virales o debates acalorados; aunque este contenido sea siempre el abundante, los profesionales de la seguridad y los interesados en este campo también pueden encontrar aquí una gran cantidad de consejos, contenidos y conversaciones que abarcan desde el trabajo forense profundo y sucio hasta lo último en ciber-leyes. Estos son los 10 mejores reddits de ciberseguridad: 1.Derrotar forenses con antiforenses Si ya es, o quiere ser en un ninja de la ciencia forense digital, este subreddit es para usted. Los temas se centran en derrotar herramientas y técnicas digitales forenses. Aquí encontrará hilos sobre el cifrado, la ocultación o el borrado de datos almacenados en lo más profundo, el escondite de los caminos de ataque y la configuración de trampas forenses. Lea después: IoT, Cloud y Ransomware: Tres principales objetivos de ciberseguridad para 2018 2.Criptografía Es el subreddit que le permite llegar a entender la ciencia, las matemáticas y la programación detrás de un fuerte cifrado, pues cubre tanto las aplicaciones prácticas como la teoría detrás de la criptografía. Debido a que el cifrado es transversal a la seguridad, la aplicación de la ley y la privacidad nunca dejan de estar en la palestra. 3.Ciber-ley Al igual que la criptografía, la delincuencia informática y las leyes de privacidad son fascinantes. Si también le gusta el punto en que se encuentran la ley, las computadoras y el internet; este es un subreddit adecuado. En el encontrará noticias sobre el crimen informático, la privacidad, la libertad de expresión, los derechos de autor y otros temas relacionados. 4.Malware Los virus y los datos de software malicioso parecen estar en todas partes. Aunque este subreddit no es un lugar para ir a buscar ayuda cuando se trata de virus personales, es el lugar adecuado para encontrar los nuevos reportes sobre malware e información relacionada. 5.Ingeniería inversa de software ¿Quiere estudiar el malware? ¿Sabe cómo funcionan ciertos programas o dispositivos? Revise cómo configurar de forma segura los sandboxes y las máquinas virtuales para que sea seguro ante las acciones de un virus, un ransomware u otro software malicioso. Además de temas avanzados de ingeniería inversa, hay otros para principiantes. 6.Netsec Este es un subreddit activo que se centra en las cuestiones técnicas que rodean la seguridad informática y las noticias relacionadas. 7.Hackers con esteroides Al igual que antiforenses, es un lugar para aquellos que quieren aprender sobre el arte de evadir las herramientas y técnicas forenses. / r /blackhat trata sobre la explotación de las vulnerabilidades de los sistemas y el software, así como de los controles que ponen las empresas para defender sus datos y aplicaciones. Si es un profesional de la seguridad y quiere tener una idea de cómo piensan algunos de sus adversarios, tiene que visitarlo. Vea luego: Tendencias de ciberseguridad en la era industrial 4.0 8.Arqueólogos del IR Aquí es donde va a aprender la ciencia de la informática forense y cómo investigar y recuperar materiales digitales y pruebas. La descripción del reddit explica que los temas no se limitan a las computadoras, sino que abarca a todos los medios de comunicación que también pueden caer bajo la fuerza forense digital, ya sean cámaras de vídeo, teléfonos móviles, tabletas, Internet de las cosas, etc. Los temas incluyen análisis forenses digitales, las respuestas a los incidentes, el análisis de malware y más. 9.Netsec para estudiantes Es el lugar para compartir los recursos, hacer las preguntas y ayudar a otros estudiantes a aprender las especialidades de seguridad de red. Aquí hallará discusiones sobre las experiencias de malware, cómo ejecutar una prueba de penetración, capacitación en seguridad informática y muchos otros temas de interés para aquellos que quieren aprender. 10.¿Qué seguridad? Se trata de un grupo activo que debe ojear constantemente si desea mantenerse al día con las últimas organizaciones que han sido hackeadas, cuyos registros de salud han sido expuestos, o las empresas que recientemente fueron atacadas con ransomware. Hay un montón de mensajes que no comenta la prensa, por lo que definitivamente vale la pena visitar. #Ciberseguridad #reddit #consejos #soluciones #ciberley
- Nueva app busca simular procesos electorales
Jose Durán (@mradler1) Electo – KAS, una aplicación de la fundación Konrad Adenauer Stiftung (KAS), permitirá a los usuarios de Costa Rica simular una votación presidencial, incluyendo la elección de los 57 diputados que integrarían la Asamblea Legislativa de este país en el período 2018 – 2022. La herramienta, disponible para los sistemas operativos iOS y Android, fue desarrollada por la empresa Red Couch con el software Xamarin y el lenguaje de programación C# (C Sharp). Esta app gratuita, además de recrear procesos electorales virtuales, también brinda información sobre los lugares de votación para los próximos comicios presidenciales que se realizarán en febrero del presente año, e incluye datos de elecciones anteriores. Lea también: App promete transparencia en conteo de votos salvadoreños “Utilizamos las mismas fórmulas que emplea el Tribunal Supremo de Elecciones para los cálculos de las curules. También tratamos de basarnos lo más posible en los diseños de las papeletas e incluir las muestras reales de la papeleta presidencial, para que el usuario se identifique por completo con la experiencia que va tener en febrero”, explicó Javier Chan, CEO de Red Couch. Seguridad de la app Chan añadió que la aplicación no compromete ningún tipo de información personal, ya que el único dato que podría solicitarse, y sólo si el usuario accede, es el número de cédula, con el cual podrá conocer su centro de votación. Por otra parte, al momento de realizar el sufragio virtual, sólo queda registrado un número de identificación que se asigna automáticamente y al azar a cada persona, el cual no está vinculado en absoluto con el dispositivo móvil del participante, por lo que es imposible conocer su identidad. “Nuestra backend se realizó en Microsoft Azure, por lo que la mayoría de la seguridad está basada en lo que nos brinda esta plataforma. De ahí seguimos las pautas que ellos nos han dado para mantener la aplicación segura”, señaló Hans Gatgens, CTO de Red Couch. Por otra parte, Electo – KAS permite a los usuarios realizar simulaciones privadas, generando un código que puede ser compartido entre un grupo determinado de individuos. Esto puede ser empleado para conocer las preferencias electorales de un sector específico de la población. No se pierda: Conozcan al primer sistema de voto electrónico incorruptible en Centroamérica Werner Böhler, representante de la KAS, mencionó que ya se tomó la decisión de ampliar el uso de esta app a Panamá. “Tenemos elecciones en ese país en 2019; como nuestra oficina también es responsable allá, vamos a desarrollar una misma aplicación, pero específica para Panamá y su proceso electoral”. Böhler también indicó que el objetivo de esta plataforma es motivar y fomentar la participación de la ciudadanía en las elecciones, enfocándose especialmente en la población joven; además de educar y formar a los votantes en materia electoral. #Aplicación #voto #CostaRica #app #presidenciales #elecciones
- ¿Cómo pilotear automáticamente su centro de datos?
CIO Cuando realiza un vuelo en un avión sucede algo extraordinario. La mayoría de las veces la aeronave es conducida por un piloto automático y el de carne y hueso es en realidad una especie de “meta piloto”, un guardián que mira para estar seguro de que su colega automatizado no haga algo estúpido. Cada año millones de personas confían sus vidas a este sistema, no tienen ningún problema con él, de hecho, se impresionan que un piloto automático pueda hacer esas cosas de manera eficaz. En ese contexto, considere ahora lo extraño que es no disponer de un software que pueda “pilotar” un centro de datos. No apueste a que permanecerá de esa manera. Eso está cambiando, lo que va a tener grandes consecuencias. Detrás de la nube: administración y gestión La importancia de la automatización de los centros de datos en la nube se debe a que no son entornos estáticos pre provisionados para ejecutar un conjunto finito y conocido de cargas de trabajo, con una demanda previsible; sino todo lo contrario. Son marcos altamente dinámicos en los que todo cambia todo el tiempo. Lea después: 3 pasos para obtener el data center de primer mundo ¿Cómo gestionar decenas o cientos de miles de servidores con redes asociadas, sistemas de almacenamiento, una amplia gama de software y los sistemas administrativos? ¿Cómo conseguir que esos componentes entreguen sus servicios con un clic a los impacientes y exigentes usuarios de la nube? La respuesta es la automatización, o al menos lo será cuando se haya descubierto cómo hacerla. Gestión de servicios para el centro de datos Las principales empresas de tecnología trabajan en esto desde hace muchos años. Un buen ejemplo es Microsoft y su sistema Autopilot. En palabras de Microsoft, “Autopilot es responsable de automatizar el aprovisionamiento y despliegue del software; monitorear el sistema y llevar a cabo acciones de reparación para manejar el software y el hardware defectuosos. Una supuesta clave subyacente al piloto automático es que los servicios construidos en él deben ser diseñados para ser manejables“. Servicios manejables, ese es el requisito. El piloto automático de un avión pierde su sentido si no puede ajustar las superficies de control (alerones, aletas, timones). Una pregunta interesante es acerca de dónde las empresas están en ese viaje en términos del centro de datos, en otras palabras, qué tan cerca están de tener al piloto automático del centro de datos conectado a sus “superficies de control”. Los principales temas de esta “gestión de servicios” son desacoplamiento y control basados en software. En términos generales, es necesario definir los servicios importantes con varios niveles de granularidad, aislarlos unos de otros y darles control y APIs de monitoreo. En algunas áreas de los centros de datos hay una gran sofisticación al respecto. La virtualización de los servidores ha desacoplado las aplicaciones de los servidores físicos y hay sistemas de gestión de VM capaces de gestionar los ciclos de vida y la salud de las máquinas virtuales. Los contenedores llevan esto considerablemente más lejos, pues incluyen elementos de gran alcance alrededor del empaquetado y de la independencia de la localización. En cuanto a la conexión a las redes, el progreso de las virtuales ha sido rápido. La concepción centrada en la aplicación de la red es análoga a la centrada en la aplicación de la máquina en la que se está ejecutando pero, en ambos casos, la concepción es errada (en el mejor sentido de la palabra), pues pretende ser un hardware real, pero en realidad desacopla la aplicación del mismo. En ambos casos tiene el control basado en API y sistemas de nivel superior que interactúan con ellas. Lo mismo ocurre con la virtualización del almacenamiento y el almacenamiento definido por software. El aumento de los sistemas híper-convergentes a nivel de servidor sigue un patrón similar: desacoplar los servicios y proporcionar mecanismos para el control basados en el software. Existe una buena “manejabilidad del servicio” y está progresando muy rápidamente. ¿Qué falta? Más allá de la virtualización: desacoplamiento en la capa de la base de datos -Hoy en día se puede tener una API que permita agregar o quitar una VM a su aplicación para soportar un aumento o caída de usuarios simultáneos e incluso permitir que una herramienta de orquestación, como Kubernetes, agregue o elimine la VM automáticamente cuando sea necesario. ¿Puede hacer esto con el sistema de su base de datos? -Hoy en día se puede tener una API que permita proveer y configurar una red privada de una manera totalmente automatizada. ¿Puede proporcionar y configurar una base de datos de esa manera? -Hoy en día se puede tener una API que permita mover un conjunto de micro servicios en ejecución a una máquina física diferente, para permitir el mantenimiento de la actual. ¿Su base de datos tiene ese tipo de API? -Hoy en día se puede tener una API que reconfigure su sistema de almacenamiento mientras está dando servicio a otras aplicaciones. ¿Su sistema de base de datos es compatible con eso? No olvide ver: Así serán los Data Center del futuro El diseño histórico del RDBMS es tan fundamentalmente antitético a la infraestructura elástica que, no importa lo inteligente que sea el piloto automático del centro de datos, no tiene acceso a las “superficies de control” útiles. Eso se debe a que los sistemas de base de datos tradicionales no pueden realizar las acciones que se esperarían de un centro de datos elástico. No puede llamar a una API para indicarle a Oracle o SQL Server que agregue 10 nodos más a una base de datos en ejecución. Introducción a la base de datos definida por el software El reto de proporcionar grandes APIs de automatización para las bases de datos está relacionado con el desacoplamiento. El diseño principal de los principales sistemas de bases de datos nació con el System-R de IBM a mediados de los años setenta, cuyo patrón dominante es el acoplamiento estrecho, especialmente entre la memoria y el almacenaje. Un diseño modular ligeramente acoplado sería mejor para la automatización, pero el RDBMS tradicional es monolítico. La próxima generación de sistemas de bases de datos, los llamados sistemas Elastic SQL deberían ser diseñados para ser modulares, ligeramente acoplados, componibles y programables por software. Tal vez deberíamos referirnos a las bases de datos Elastic SQL como bases de datos definidas por software, porque desde una perspectiva de automatización es el requisito central. #automatización #CentrodeDatos #modernización #softwareempresarial
- Facebook bloqueó uso de fuentes de datos para herramientas de espionaje
InfoWorld Los funcionarios encargados de hacer cumplir la ley están interesados en herramientas de software que les permitan escanear las fuentes de las redes sociales para obtener información que puedan utilizar en el monitoreo de potenciales criminales. Para disuadir a los desarrolladores de crear tales herramientas, Facebook e Instagram han incluido explícitamente en sus políticas la prohibición de utilizar los datos de sus usuarios. “Los desarrolladores no pueden ‘utilizar los datos obtenidos por nosotros para proporcionar herramientas que se utilicen para la vigilancia”, escribió en un post el subdirector de privacidad de Facebook, Rob Sherman, al anunciar la última actualización de los términos y condiciones. Lea también: Facebook afina sus herramientas de identidad para desarrolladores Sherman dijo que la nueva política es el resultado de meses de trabajo con organizaciones de defensa, como la American Civil Liberties Union (ACLU) de California, Color of Change y el Center for Media Justice. En octubre pasado, la ACLU advirtió que Geofeedia, una compañía que desarrolla software de monitoreo en redes sociales, usaba datos de Twitter, Facebook e Instagram para rastrear a los manifestantes en Baltimore y otros lugares. Geofeedia tenía acceso a la API de Instagram, que incluía cualquier dato de ubicación asociado con puestos de usuario; a la fuente API de temas de Facebook, que proporciona un feed clasificado de publicaciones que mencionan un tema específico, incluyendo hashtags, eventos y lugares; y a la base de datos de Twitter de los tweets públicos. Las autoridades policiales podrían usar el software para ver lo que la gente publicó con respecto a #BlackLivesMatter, a dónde iban y con quién se comunicaban. Poco después del informe, Facebook e Instagram eliminaron el acceso de Geofeedia a las API y Twitter cortó completamente la relación de datos con la compañía con sede en Chicago. “Proteja la información que recibe de nosotros contra el acceso, uso o divulgación no autorizados. Por ejemplo, los datos no pueden ser utilizados en el desarrollo de herramientas que sean utilizadas para la vigilancia “, señaló Facebook en la política actualizada. La decisión de Facebook parece oportuna, ya que parece que el Departamento de Seguridad Nacional de Estados Unidos (DHS, por sus siglas en inglés) está interesado en un software que le permita escanear automáticamente las plataformas de las redes sociales para identificar a individuos sospechosos. Un informe de la Oficina del Inspector General encontró que los Servicios de Ciudadanía e Inmigración de los Estados Unidos (USCIS) habían llevado a cabo tres programas piloto, en diciembre de 2015 y en abril y agosto de 2016; para buscar de forma manual y automática los perfiles en las redes sociales de los solicitantes de visas para detectar posibles pistas sobre alguna actividad problemática de los mismos. El informe encontró que la detección automatizada no era una “opción viable” y la revisión manual “era más efectiva en la identificación “. Si bien es posible asignar agentes para monitorear regularmente las plataformas de medios sociales, la automatización ayudaría a procesar grandes volúmenes de datos y asegurar que las pistas clave no se pierdan. En el informe, la Oficina de Inteligencia y Análisis del DHS señaló que “ni el sector privado ni el Gobierno de los Estados Unidos poseían las capacidades para el análisis a gran escala de las redes sociales”. DHS reinició el programa de pruebas e identificó 275 herramientas de software que pueden ser utilizadas para escanear. No es un gran salto suponer que esta institución pronto comenzará a pedir a los contratistas que construyan tal plataforma, si no lo han hecho ya. Sin embargo, los cambios bien intencionados en las políticas no tendrán mucho impacto pues se aplican solamente al software y el gobierno todavía podría demandar los datos del usuario a través de sus Cartas Nacionales de Seguridad o con cualquiera de los programas encubiertos de espionaje. Vea después: ¿Por qué Facebook sobresale en la eficiencia de su data center? Mientras que Facebook tiene procesos automatizados y manuales para comprobar que los desarrolladores siguen sus normas, los contratos con el gobierno son lucrativos y estos pueden encontrar una forma de evitarlas. El cambio de política de Facebook no aborda otro problema omnipresente, que es el de la localización por los anunciantes y las plataformas de mercadeo , ya que las entidades comerciales todavía tienen acceso a los canales públicos utilizados para monitorear tendencias y otros eventos públicos. Los desarrolladores que trabajan en herramientas que puedan supervisar la actividad en las redes sociales deben estar conscientes de los términos y condiciones respecto a lo que se les permite hacer con los datos. #redessociales #Facebook #Espionaje #Instagram #twitter
- Sepa por qué desarrolladores felices es igual a clientes felices
CIO En el mercado digital actual, impulsado por la tecnología, la mayor ventaja competitiva de una empresa es su capacidad para ofrecer una excelente experiencia al cliente. El primer paso para lograrlo lo tiene que dar el equipo de desarrollo de software. “A todos nos ha pasado, ¿verdad? Tratas de hacer tu trabajo y el software que usas no funciona bien, o tiene una falla que debes resolver, o no tiene las características adecuadas a tus necesidades; aunque podría estar cerca. Esto hace que todo sea frustrante, difícil y que no trabajes de una manera eficiente o eficaz “, explicó Greg Law, CEO y co-fundador de Undo, una starup desarrolladora de software. Eso significa que usted no satisface las necesidades y las demandas de los clientes tan bien como podría. El hiper conectado panorama de los medios de comunicación, saturados por las redes sociales, hace que los clientes puedan ventilar fácilmente esas inconformidades al mercado con unas pocas pulsaciones de teclas, lo que puede tener un impacto directo en sus resultados. Lea luego: Usar inteligencia artificial en el trabajo podría traer más felicidad Mantener a sus desarrolladores de software felices, comprometidos y trabajando productivamente, tiene una correlación directa con la satisfacción de sus clientes, agregó Law. El ambiente importa “Los seres humanos necesitan niveles muy altos de precisión, enfoque y concentración para escribir un código de calidad; y necesitan libertad para ser creativos y expresarse. Deben estar capacitados para tomar sus propias decisiones en un ambiente cómodo y en el que tengan fácilmente a su disposición los recursos necesarios para hacer bien su trabajo “, expresó Law. Los desarrolladores de software felices y comprometidos pueden producir resultados de alta calidad, lo que también afecta a todos los demás involucrados en el desarrollo, entrega, comercialización y ventas del producto. Siempre es mucho más fácil vender un producto de calidad que satisface una necesidad del cliente y es atractivo para el mercado. Tratamiento de Reyes Las empresas más inteligentes lo entienden y es por eso que, en un estrecho mercado de talentos de TI, los desarrolladores de software son tratados como integrantes de la realeza. Son habituales los salarios lucrativos, la posibilidad de trabajar a distancia, ventajas como el masaje en el sitio, alimentos, PTO ilimitado y similares. Las compañías que lo comprenden y tratan bien a su gente, van a recibir un retorno de esa inversión atrayendo al talento tecnológico de élite. Si bien estos beneficios y privilegios pueden parecer excesivos, lo cierto es que pagan dividendos a largo plazo. “Un desarrollador de software un poco mejor que el de la competencia puede generar rendimientos exponenciales, no lineales, en cualquier inversión que haga. Es algo similar a los deportes profesionales, en los que si su talento es sólo el 1% mejor que el de su competidor, tendrá una enorme ventaja“, añadió Law. Las organizaciones que no están dispuestas a hacer estas inversiones se engañan a sí mismas, según Chris O’Malley, director ejecutivo de la empresa de servicios de tecnología de mainframe, Compuware. Es casi imposible tener suerte y encontrar estas habilidades especializadas a través de la subcontratación, por lo que, si se quiere competir, debe elevarse la apuesta. Incluso las startups con presupuestos limitados pueden ofrecer beneficios atractivos para los desarrolladores, pues no se trata solo de la remuneración. Actuar Adecuadamente “Los CIO tienen que entender que este mercado ha evolucionado. Estos desarrolladores son esenciales para su capacidad de competir, por lo que necesitan ser capaces de aumentar la apuesta e invertir en ellos. El entorno del trabajo es importante. Quieren cosas interesantes para hacer y la naturaleza del trabajo vale tanto como cuánto se les paga “, señaló O’Malley. No se pierda: Software empresarial impulsa el gasto en TI Una startup no siempre puede ir cabeza a cabeza en el salario con sus competidores más grandes. Un ambiente de lanzamiento, los proyectos nuevos e innovadores y la capacidad de hacer una diferencia demostrable para los clientes, ayuda a atraer el talento de la élite. Eso se traducirá en una gran experiencia para el cliente. “Tienes que ser creativo, innovador y encontrar maneras de hacer que esto funcione y diferenciarte para tener clientes felices y cautivados, porque si no lo haces, darás mala fama a tu empresa y un mal servicio a tus clientes y desarrolladores; eso es prácticamente un suicidio “, concluyó O’Malley. #felicidad #desarrolloweb #clientes #cambios #mejoras


