Resultados de la búsqueda
Se encontraron 7826 resultados sin ingresar un término de búsqueda
- IT Breaks: Seguridad informática en la era de los grandes ataques
Luego del éxito en República Dominicana, llega una nueva edición del seminario especial de IT NOW para quienes desean proteger su principal activo: la información del negocio. El evento está dirigido a CIO, directores de tecnología, gerentes de seguridad informática, plataformas digitales y medios de pago en Panamá y Costa Rica. Keynote speaker: Coronel Fredy Bautista García, Jefe Grupo Delitos Informáticos de la Policía Nacional de Colombia. Lea también: La IA no resolverá tus problemas de análisis de seguridad Oficial (reserva activa) Policía Nacional, criminalista y auditor forense, cuenta con una experiencia de más de 25 años en la investigación de crímenes complejos y delincuencia organizada, tuvo a su cargo la creación de la primera unidad de Cibercrimen en la Policía Nacional de Colombia y durante 18 años estuvo al frente del Grupo de Delitos Informáticos actual Centro Cibernético Policial. Participó en las mesas de trabajo para la redacción de la Política de Ciberseguridad y Ciberdefensa y su evolución a la Política de Seguridad Digital en Colombia. Fue presidente en dos ocasiones del Grupo de Trabajo de Jefes de Unidades de Cibercrimen de Interpol para las Américas, desde donde se articularon importantes operaciones transnacionales contra la Cibercriminalidad Global. Docente universitario en los programas de Maestría de Derecho Informático y especialización en Auditoria Forense en la Universidad Externado de Colombia. Nota relacionada: ¡Descargue las presentaciones del IT Breaks República Dominicana! Agenda: – Nuevas amenazas y crimen organizado: grandes ataques, ransomware, impacto de los grupos de hackers, threat intelligence, hacking demo: la mentalidad del ciberatacante. – Seguridad on demand: soluciones como servicio. – Inteligencia artificial y prevención. – Control de acceso en tiempo real. – Estrategia de mitigación contra ataques DDoS. – Administración de identidad privilegiada. Patrocinan: Telefónica, Cisco, VmWare, Symantec, AEC Networks, Cenfotec, Kwinana Tech, Anomali. Entrada: USD $150 Workshop: USD $150 Precio especial: USD $200 (Incluye Entrada y Workshops) Panamá: 18 Septiembre, Goledn Tower Costa Rica: 26 de Septiembre, Hotel Crowne Plaza #Ciberseguridad #itbreak
- Aplicaciones de viajes compartidos son vulnerables a ciberataques
Sergio Salazar Pacheco Kaspersky Lab, compañía mundial de seguridad cibernética, puso a prueba la seguridad de 13 aplicaciones para viajes compartidos desarrolladas por los principales fabricantes del mercado. Es importante recalcar que las apps de viajes compartidos, son todas aquellas en las que se presta un servicio de transporte compartido, como lo es Uber o Lyft. Sus expertos determinaron que todas las aplicaciones son deficientes a la hora de defender sus aplicaciones de ciberataques, ya que fácilmente se puede tomar el control de los vehículos compartidos. Accediendo de manera sigilosa o haciéndose pasar por otro usuario a la aplicación, se facilita un posible robo del auto, de su información e inclusive causarle daños. Puede interesarle: ¿Qué pasa cuando los cibercriminales utilizan IA para atacar? Entre las vulnerabilidades que se encontraron están: -Carencia de defensa contra ataques man-in-the-middle (MITM), estos ataques consisten en que el usuario cree estar conectado al sitio legítimo, pero en verdad está siendo redirigido a través del sitio del atacante, obteniendo de esta manera información personal y delicada. -Poca defensa contra la ingeniería inversa de la aplicación, permitiéndole al delincuente entender el funcionamiento de la aplicación, facilitándole encontrar una vulnerabilidad que pueda explotar. -Falta de técnicas para detectar el rooting, dejando la aplicación indefensa. -Ausencia de protección contra las técnicas de superposición de aplicaciones, permitiendo la aparición de ventanas de suplantación de identidad. -La mayoría de las aplicaciones no exigen contraseñas seguras a los usuarios. De realizarse un ataque exitoso, el criminal puede obtener el control del vehículo facilitándose a sí mismo viajes gratis, información personal del conductor o usuarios, inclusive en casos más extremos el robo del vehículo. Lea también: Google lanzó plataforma para educar sobre seguridad en línea “Nuestra investigación concluyó que, en su estado actual, las aplicaciones para servicios de viajes compartidos no están listas para soportar ataques de malware. Y aunque todavía no hemos detectado ningún caso de ataques avanzados contra este tipo de servicios, los cibercriminales comprenden el valor que tienen estas aplicaciones, y las ofertas existentes en el mercado negro apuntan al hecho de que los proveedores no tienen mucho tiempo para eliminar las vulnerabilidades”, aclaró Víctor Chebyshev, experto en seguridad en Kaspersky Lab. Por su parte, los investigadores de Kaspersky Lab aconsejan a los usuarios de este tipo de aplicaciones tomar en cuenta las siguientes medidas: -No acceder al root desde los dispositivos Android, por la vulnerabilidad que presenta este sistema operativo. -Mantener actualizado el sistema operativo del dispositivo. -Instalar una solución de seguridad probadas contra ataques cibernéticos. #Aplicacionesdeviajescompartidos #ciberataques #seguridad
- Llega Google Special Collects a Costa Rica
Jose Vargas Google anunció hoy la llegada de Special Collects a Costa Rica, gracias al apoyo de la marca país Esencial COSTA RICA y diferentes organizaciones, como la Coalición Costarricense de Iniciativas de Desarrollo (CINDE), el Sistema Nacional de Áreas de Conservación (SINAC), la Agencia de Protección de Datos de los Habitantes (PRODHAB), el Instituto Costarricense de Turismo (ICT), la Universidad de Costa Rica y la Municipalidad de San José, entre otros. Se logró capturar las imágenes en 360° de ciudades, así como del interior de teatros, aeropuertos, mercados, museos y muchos atractivos más. “La Costa Rica del Bicentenario requiere del impulso en la economía digital de manera transversal en todos los campos, en este caso, el sector turismo es fundamental. Este esfuerzo compartido entre el gobierno y el sector privado nos demuestran la efectividad de usar inteligencia artificial, realidad aumentada y otras tecnologías emergentes en el impulso por un mejor país”, dijo Luis Adrián Salazar, el Ministro de Ciencia, Tecnología y Telecomunicaciones. Costa Rica está entre los primeros países de la región de Centroamérica y el Caribe (seguido por Bermuda, Puerto Rico, parte de las Islas Vírgenes y Guatemala) en donde está disponible la funcionalidad de Special Collects. Google tiene el mapa mundial: más de 220 países y territorios. Durante siete meses, el equipo de Google trabajó en fotografiar el centro de la capital costarricense: San José y las demás provincias del país. La Isla del Coco y sus bellezas sobresalen dentro de los lugares registrados por los profesionales de Google. Le puede interesar:Tres consejos para atraer el turismo de negocios con ayuda del Internet “Al escoger Costa Rica, Google Special Collects está reconociendo y realzando el valor natural, histórico y cultural de una variedad de joyas nacionales. Para el Instituto Costarricense de Turismo, este es un maravilloso ejemplo de cómo poner la tecnología al servicio de la promoción turística. Las imágenes 360 de los 76 distintos destinos que fueron fotografiados permitirán a los usuarios emprender una travesía a sitios donde ni siquiera llegan los carros, gemas hasta ahora de difícil acceso, como la Isla del Coco, o bien, explorar desde otra perspectiva vistas panorámicas de lugares más conocidos que se han vuelto parte de nuestra vida diaria como La Sabana y museos capitalinos. Celebramos la alianza público-privada que posibilitó este proyecto”, expreso María Amalia, la Ministra de Turismo de Costa Rica y miembro del Comité de la marca país Esencial COSTA RICA. “Costa Rica tiene grandes atractivos a nivel turístico y cultural, sitios que hay que explotar y compartir con el mundo. En Google siempre ponemos al usuario en primer lugar, por eso trabajamos día a día en innovar y brindarles todas esas mejoras, reforzando nuestro objetivo de aportar al ecosistema digital de la región y seguir comprometidos con el país. La misión de Google es organizar la información del mundo y hacerla universalmente accesible y útil, un trabajo que vemos reflejado en este lanzamiento de hoy, con información que pueden ver y tener acceso desde cualquier parte de Costa Rica y fuera de ella”, comentó Giovanni Stella, Gerente General de Google para Colombia y Centroamérica y el Caribe. Sabía que:El turismo médico ya cuenta con plataforma en Costa Rica El uso de Special Collects es sencillo. Al ingresar a maps.google.com los usuarios podrán buscar o identificar el lugar que prefieran explorar, aparece el link a Maps o a la vista panorámica de 360 grados directamente. También, desde Google Maps podrán tomar el muñeco naranja llamado Pegman, ubicado en el costado izquierdo y arrastrarlo al lugar deseado, hasta que aparezca la línea azul para recorrer el sitio. ¿Que lugares se podrá conocer de Costa Rica a través de Special Collects? Se podrá disfrutar de la riqueza natural de: la Isla del Coco, Playa Hermosa, Playa Ocotal, Playa Panamá, Playas del Coco, entre otras. También de lugares culturales como las Ruinas de Cartago, Museo de Jade, Galería Nacional, Museo de Numismática, Museo de Oro Precolombino, Museos del Banco Central de Costa Rica, el Museo Nacional, Museo de Artes Visuales. También aparecen en la lista el Aeropuerto Internacional Juan Santamaría, la Iglesia de San Isidro de Coronado, la Basílica de los Ángeles, el Estadio Nacional, el Parque de Diversiones, Parque de la Paz, Ocean Ranch Park, Parque Fraijanes, Catarata Llanos del Cortés, Iglesia Católica de San Bartolomé Apóstol, el Bosque de la Hoja, Parque Recreativo Los Manantiales (Alajuela), y muchos sitios más. #Fotografía #tecnologiaparaturismo #turismo
- La IA no resolverá tus problemas de análisis de seguridad
CSO Administrar SOC no es algo bonito. Esta actividad involucra estrés constante debido a una avalancha de tickets y una gran cantidad de datos que analizar utilizando herramientas a menudo desactualizadas y en ocasiones anticuadas, combinadas con un personal de alta rotación y baja moral. Es comprensible que en ese ambiente todos busquen un milagro. Cualquier tecnología nueva que tenga la capacidad de automatizar un análisis y detectar anomalías llama la atención sobre la seguridad de las operaciones. Con tanta expectativa entorno a la IA, esto representa una excelente tentación para iniciar su adopción temprana. Antes de decidirte a adoptar cualquier nueva herramienta de análisis, debes hacer un análisis de los costos frente a los beneficios. El costo no necesariamente significa el dinero gastado en la adquisición, implementación y administración de una nueva solución, sino más bien el uso de recursos adicionales y la latencia adicional que la solución va a introducir. El principal problema que enfrentan muchos SOC es el volumen de la actividad analítica, ya sea debido a la definición deficiente de desencadenantes de investigación o la baja calidad de los datos introducidos. Esto dará como resultado múltiples falsos positivos que reducirán el tiempo del analista y disminuirán la moral del equipo debido a una rutina inútil. Hay una verdad en el argumento de que los sesgos cognitivos que afectan a los analistas pueden dar como resultado que se pierdan o descarten incidentes de seguridad reales. Sin embargo, una solución de reconocimiento de patrones automatizada no aborda ninguna de las causas principales. La IA, como tecnología de reconocimiento de patrones, es un paso evolutivo de las tecnologías de aprendizaje automático de última generación, como el análisis de comportamiento y el crudo análisis estadístico aplicado a principios de siglo. La gran ventaja de la inteligencia artificial sobre las tecnologías de última generación es un aprendizaje más rápido y menos datos necesarios para el mismo. Esto, sin embargo, no significa que la IA pueda tomar una decisión inteligente mejor que un analista humano. Hay tres cosas que debemos tener en cuenta al evaluar la generación actual de soluciones de IA: Lea también:“La inteligencia artificial está en pañales” 1. Estas soluciones emplean una inteligencia artificial estadística, en lugar de una conductual Se basa en la optimización de la retro propagación, un método en el que se usan “pesos” o ajustes lineales para ajustar cada una de las variables independientes que se utilizan para evaluar los datos de entrada. La idea es crear una ecuación para determinar qué tan cerca están los datos evaluados del patrón predefinido y proporcionar una respuesta con cierto grado de seguridad. Hay varios problemas con este enfoque, el más grande es la cantidad garantizada de falsos positivos, sin importar cuán bueno sea el algoritmo de reconocimiento de patrones. Esta es una de las razones por las que algunos científicos de la IA piden deshacerse de la propagación inversa como base para la inteligencia artificial estadística. 2. La calidad de los datos sigue siendo extremadamente importante para el aprendizaje de la inteligencia artificial La última generación de productos de análisis de comportamiento dependía en gran medida de la calidad de los datos en el ciclo de aprendizaje inicial y la inteligencia artificial no es tan diferente a eso. Un producto basado en la IA puede reconocer las anomalías como “normales” a través de dos mecanismos: la ingestión de datos incorrectos durante el ciclo de aprendizaje y el ajuste manual por parte de un usuario que marque algo como un falso positivo. Si tienes problemas con la calidad de los datos en la información que ingieres en tus problemas de análisis de seguridad, estos pueden amplificarse con el uso de IA, lo que resulta en una mayor carga analítica para el personal. Le recomendamos:Oracle lanza un Mapa del Internet 3. LaIA no tomará una decisión binaria: sí/no Si no que más bien decidirá con cierto grado de incerteza que identificó algo (que se ajusta a los modelos preestablecidos). Esto significa que tu equipo necesita establecer un umbral de incertidumbre que minimice la cantidad de falsos positivos (elevada utilización del personal), manteniendo al mismo tiempo el falso positivo (incidente de seguridad al realizar una tarea) lo más cercano posible a cero. Una vez que el producto basado en la IA ha identificado un patrón sospechoso por encima de su umbral, el equipo de SOC será contratado para un análisis posterior que puede derivar en investigación y posiblemente en la gestión de incidentes. Estas son las etapas en las que aún se basará en el análisis humano que está sujeto a numerosos sesgos cognitivos. La eliminación del reconocimiento de patrones falsos en el análisis de rutina tiene solo un efecto limitado ya que el riesgo permanece durante las actividades de investigación. Teniendo en cuenta todo lo anterior, la IA solo introducirá una mejora marginal en el análisis de seguridad tanto del rendimiento como de la calidad y la utilización de los recursos. La única forma de aumentar la utilidad de la IA es aumentar la efectividad del análisis de seguridad al abordar sus debilidades. La calidad de los datos introducidos es el mayor problema para el análisis de seguridad. A menudo, la seguridad se aprovecha de la supervisión empresarial para la recopilación de datos. Esto se traduce en una extracción de datos innecesarios, datos faltantes y poco detallistas que no sirven para tomar una decisión automática correcta. Además, los flujos de datos carecen de una ingestión sincronizada disponible casi en tiempo real, mientras que otros datos llegan en lotes en períodos de tiempo predefinidos. La discrepancia en el enfoque de recopilación de datos significa que parte de la correlación de datos no puede ejecutarse o se retrasa significativamente. Nota relevante:¿I.A. vs Humanos? Conozca cómo serán los trabajos en el futuro No existe una única solución al problema de la calidad de los datos que no sea el análisis individual de cada uno de los flujos de datos, tratando de imponer la estandarización y la coherencia. Esto también requiere una colaboración con equipos operativos no relacionados con la seguridad que a menudo es más débil de lo que se desea en muchas empresas. El aumento de la calidad de los datos generará un aumento significativo tanto en las plataformas analíticas basadas en inteligencia artificial como en la eficacia general de los análisis de seguridad. Para una mayor mejora, concéntrate en la salida que desencadena la investigación y la respuesta al incidente. La interpretación y validación de los resultados analíticos automáticos o manuales por parte de la investigación o el equipo de respuesta a incidentes requieren eliminar los riesgos de las decisiones sesgadas. La mejor forma de hacerlo es a través del análisis colaborativo, donde múltiples analistas verían los datos y resultados desde múltiples perspectivas (es decir, la red vs. Sistema vs. El comportamiento de la aplicación). Esto significa revisar los procesos de respuesta y los manuales de estrategias, así como también invertir en una plataforma de gestión de incidentes que pueda rastrear y coordinar las tareas de análisis y presentar los resultados a todos los miembros del equipo para su posterior revisión y escrutinio. Las tecnologías basadas en la IA continuarán evolucionando y proporcionarán un valor significativo a lo largo del tiempo. Por ahora, concéntrate en mejorar tu práctica analítica de seguridad como ejercicio de preparación para la adopción de la IA. #automatización #Ciberseguridad #inteligenciaarticial
- ¿Por qué es importante la infraestructura hiperconvergente?
CIO Dell Technologies, dio a conocer sus nuevos avances en infraestructura hiperconvergente (HCI) continuando su búsqueda por simplificar la transformación de la TI de sus clientes con sistemas más poderosos. Los nuevos dispositivos Dell EMC VxRail y los sistemas VxRack SDDC amplían los sistemas HCI de Dell, adoptando tecnologías avanzadas y las innovaciones más nuevas de Dell EMC VMware “Dado que los sistemas HCI se utilizan cada vez más para las aplicaciones principales del centro de datos, los clientes están adoptando VxRail y VxRack SDDC como base para la implementación de nubes de todo tipo […] Estas tecnologías, codesarrolladas por Dell EMC y VMware, ofrecen un camino simple y claramente definido hacia las entornos de nube privada, nube híbrida y varias nubes a fin de ayudar a los clientes a transformar la infraestructura de TI y a liberar tiempo valioso del personal, además de permitir que el equipo de TI acelere y agilice los negocios”, explicó Ashley Gorakhpurwalla, presidente y gerente general de Sistemas de Infraestructura y Servidores de Dell EMC. Lea también: 6 tendencias que marcan las estrategias de computación en la nube El estudio de madurez de la transformación de la TI de 2018 de ESG, arrojó los siguientes datos: *Un 98% de las empresas transformadas utilizan infraestructura convergente (CI) o HCI, donde un 86% afirma que utilizan ambas. *De las empresas transformadas, más del 35% de sus aplicaciones se ejecutan en CI/HCI, cuantificando los ahorros de gastos en un 25%. *Quienes ejecutan IaaS similares a la nube, gestionan la infraestructura en las instalaciones 2,5 veces mejor a las de las alternativas públicas. Dell EMC VxRail y VxRack SDDC adoptan tecnologías avanzadas Dell EMC VxRail, se ha vuelto cada vez más flexible y eficiente gracias a la incorporación de tecnologías más avanzadas. Mientras la VxRail, se ha establecido como la tecnología estándar para la simplificación y modernización de los entornos VMware. La integración del VxRail con el software VMware vSAN y vSphere, incluye los siguientes elementos: -Unidades de caché NVMe con un rendimiento mejorado en comparación a las unidades con caché SAS,además de una lactancia más baja. -Procesadores Intel Xeon ®, con 1,5 TB de RAM por socket de CPU, en total son hasta 3 TB por nodo. -Aceleradores de GPU nVIDIA Tesla P40 ® con doble rendimiento. -Redes de 25 GbE (Gigabits Ethernet) ofreciendo una mayor banda ancha que cualquier otro dispositivo de HCI, y un 50% de mayores opciones de conectividad de red que la generación pasada. Por su parte, a aquellos clientes que deseen crear un centro de datos utilizando VxRail como componente básico tienen la posibilidad de utilizar la orientación de los diseños validados por VMware. Dell VxRack SDDC es la base para lograr un enfoque híbrido de diversas nubes, con una infraestructura flexible y automatizada a nivel de rack. Además, es la única plataforma de nube preparada para utilizar servidores PowerEdge, redes integradas y tecnología VMware Cloud Foundation, además del software EMC de Dell. Por su parte, cumple una variedad de uso de nube de los clientes, a través de : -Configuraciones más poderosas cuya finalidad es acelerar la implementación de aplicaciones y servicios de TI. -Mejorar para VDI, incluyendo la compatibilidad con tarjetas NVIDIA. -Plataforma VMware Cloud Foundation 2.3 con automatización y administración de nube para la TI como servicio. Puede interesarle: Dell trabaja para lograr sus objetivos impuestos en el Legacy of Good de 2020 “Los sistemas hiperconvergentes continúan siendo el segmento de más rápido crecimiento del mercado de sistemas convergentes, ya que las empresas y los sectores de todo el mundo están impulsando las tasas de adopción para simplificar las infraestructuras de TI. El crecimiento de la HCI tiene una importancia clave para el ecosistema de nube más amplio, ya que crea posibilidades de mayor integración entre las tecnologías. Los avances más recientes de Dell EMC, el proveedor líder de sistemas de HCI a nivel global, en asociación con VMware, ofrecen beneficios aún mayores a los negocios que desean transformar entornos modernos de varias nubes”, aclaró Eric Sheppard, vicepresidente de investigación de Almacenamiento y Servidores Empresariales de IDC. #Dell #HCI #infraestructurahiperconvergente #TI
- Lo que los trabajadores realmente piensan sobre la automatización
CIO Se sabe que los fundadores y los expertos en tecnologías del Silicon Valley se vuelven poéticos con respecto a la promesa de la automatización del trabajo de conocimiento para restablecer el equilibrio trabajo/vida, mejorar la productividad e incluso crear millones de nuevos empleos. Para los economistas, la conversación sobre automatización tiende a centrarse en trabajos perdidos y otros posibles impactos negativos en las comunidades. El problema con estos argumentos es que a menudo tienen lugar entre los líderes del pensamiento en cualquier extremo del espectro, y no incluyen las voces de los trabajadores en primera línea, sintiendo el impacto de la automatización en su jornada laboral. Una encuesta a más de 1,000 trabajadores y gerentes sobre una variedad de temas relacionados con las operaciones, y hallazgos sobre la automatización se encuentra entre los más reveladores en el conjunto de datos. Resulta que algunas de las suposiciones más comunes sobre los sentimientos de los trabajadores a saber, que temen la automatización están fuera de la base. Desde las tablas basadas en la nube que los equipo de finanzas utiliza para rastrear los gastos e ingresos en tiempo real, hasta los botones de “clic para llamar” utilizados por las fuerza de ventas, existen automatizaciones que ahorran tiempo en casi todas las tareas comunes que se ejecutan. Y eso no incluye las Robotic Process Automations (RPA) que los trabajadores pueden “entrenar” para realizar tareas de software para ellos. Pero la encuesta, solo el 14% de los trabajadores dijeron estar “totalmente de acuerdo” en que su empresa emplea la automatización. Los gerentes eran más propensos a ver la luz, con un 25% de ellos muy de acuerdo. EsPuede interesarle: to puede significar que las empresas realmente no están utilizando la automatización en la medida en que deberían ser para mantenerse competitivas. Del mismo modo, a medida que la edad analógica se desvanece en la historia, los trabajadores no reconocen el grado en que la automatización ya está ocurriendo en su trabajo y no identifican herramientas como hojas de cálculo, gestión de relaciones con los clientes (CRM) o sistemas de gestión de contenidos. (CMS) como versiones automatizadas de trabajo que solían tomar cantidades impías de esfuerzo manual que entumecía la mente. Puede interesarle: La automatización se apodera de las redes Hace aproximadamente una década, el libro de Tim Ferris, The 4 Hour Work Week, explotó en la escena y explicó cómo los empresarios podrían comenzar negocios que usan la automatización y otras técnicas de outsourcing para ganarse la vida con un mínimo de horas trabajadas. El mensaje resonó lo suficientemente bien con los lectores para convertir el libro en un best-seller. Con eso en mente, asumí que el equilibrio trabajo-vida sería el beneficio clave que los trabajadores buscan de la automatización, dándoles la flexibilidad de trabajar desde casa, o incluso ser famoso en Instagram como una celebridad de Van Life. En verdad, el beneficio número uno que la gente espera obtener de la automatización es “liberar a mi equipo del trabajo repetitivo de bajo nivel”, con un 48% de gerentes y un 52% de no gerentes que lo dicen. Otros beneficios principales incluyen “Reducir las horas de trabajo” y “Reducir la cantidad de tiempo que paso corrigiendo errores” Igual de sorprendente es que los gerentes no hayan confirmado el temor ancestral de que la automatización reemplazará al trabajo humano y dará como resultado un futuro sin trabajo. Solo el 17% de los gerentes informaron “Reducir el número de empleados” como un beneficio de la automatización que les gustaría ver, por lo que es la respuesta menos popular en nuestra encuesta. No debe sorprender entonces que algunas de las tareas específicas que los trabajadores deseen ver automatizadas sean cognitivamente rutinarias y repetitivas. El encabezado de la lista fue “Copiar información entre sistemas” y “Preparar informes para ejecutivos” fue el segundo. Ambas tareas implican buscar y duplicar información, y una inversión modesta en software integrado puede automatizarlas utilizando tecnología ya disponible hoy en día. Además:¿Cómo alistar a profesionales de TI para la automatización? Nuestros encuestados dijeron que más del 40% de su trabajo es cognitivamente de rutina, y el 38% dijo que más del 40% de sus tareas podrían ser automatizadas. Creo que el empleo de la automatización para ayudar a los trabajadores a manejar ese volumen es esencial para las empresas que desean seguir siendo competitivas en la era digital. La automatización por sí sola no es una bala de plata para ganar su mercado. Es una pieza de un rompecabezas que requiere sistemas de pensamiento para construir procesos repetibles y escalables, para que su empresa pueda crecer rápidamente sin aumentar el caos en su oficina. La automatización sí aumenta el valor de las mentes en su fuerza de trabajo humana al darles más tiempo para pensar de forma estratégica y creativa, y ayudarlos a restablecer el equilibrio en sus vidas, lo que puede reducir el estrés y evitar el agotamiento. Con nuestra investigación, estábamos entusiasmados de disipar algunos de los mitos de la automatización y aprender que la mayoría de los trabajadores están listos para abrazar los beneficios. #automatización #sistemas
- Digital Transformation is Shaping the LATAM Business Communications Services Market
Register now here A decade ago, just 22% of the population of Latin America had access to the Internet. Today that number has leapfrogged to well over 50%, with much of that growth attributable to improved communications infrastructure and the introduction of smartphones. According to the GSMA, smartphones accounted for 55% of mobile connections in Latin America in 2016, a number that is expected to grow above 70% over the next few years. That exponential growth is fueling a surge of interest in digitalization in the region. However, while many markets in Latin America have seen economic and social progress over the last few years, others remain hampered by high rates of poverty and poor infrastructure, keeping consumers and businesses from capitalizing on opportunities in wealthier, more urban areas. lea también: La cinco claves de la transformación digital en la banca Digital transformation is changing that paradigm by opening the door to the development of new services and applications that can leverage ubiquitous connectivity. Telecom service providers, cloud operators, digital businesses, and application developers, among others, have already begun to emerge in Latin America, including in the following sectors: -Mobile banking: Well over half of Latin America’s population is “unbanked,” with no access to traditional financial systems, limiting their ability to securely conduct financial transactions and build financial stability. Digital technologies hold the potential to change that by enabling mobile-based money transfer and financing services, while bringing previously untapped revenue to financial institutions and banks. -Education: According to the nonprofit education association Worldfund, approximately 22.2 million children and adolescents in Latin America are either not in school or are at risk of dropping out of school each year, with students living in remote and/or poverty stricken regions most in jeopardy. Distance learning holds the potential to bridge the education gap, not only at the elementary/secondary school level, but also in the higher learning realm, making a university education attainable for more population. -Healthcare: High quality healthcare remains out of reach for all but the wealthy in many countries within Latin America, particularly rural areas that lack health facilities. Digital health initiatives such as telemedicine networks, virtual training for medical professionals and electronic immunization registries are already in place to extend healthcare services into more remote, poverty-stricken regions. -Smart cities: Latin America is characterized by high – and growing – urban concentration, which has led to challenging conditions around security, housing quality, air and water quality, and traffic congestion. Smart city initiatives such as traffic management, crime monitoring, online voting and smart energy can all contribute to more efficient use of urban resources, improved quality of life and reduced government bureaucracy. Nota relevante:Alístese para la transformación digital Many of these initiatives have already seen successful results. Telefonica Vivo, for example, offers health monitoring services in Brazil to chronic care patients that have reduced patient costs by 30% for private companies and healthcare providers, while Entel is working with local governments in Chile to develop Smart City solutions, including a Smart Parking project that has reduced vehicle congestion by 10%. For digital transformation to take hold throughout the region, it is critical for the trend of increasing broadband penetration to continue. In fact, broadband penetration remains below 50% in most Latin American countries. The good news is that service providers now have a broader range of cost-effective, proven technological choices to extend services to the business community. At SES Networks, we have recently upgraded our high-throughput satellite capacity in the region, enabling our service provider partners to reach underserved areas, improve network resiliency, and empower end-users with digital technologies. Register now here: https://goo.gl/RDgSW5 Written by: Shira Levine, Portfolio and Solutions Marketing. SES Networks. #digitaltransformation #disrupción #liderazgo
- ¿Qué novedades presentan lo procesadores Helio?
Jose Vargas MediaTek presentó hoy su serie Helio A, que amplía su familia Helio, un conjunto de chips potentes y repletos de funciones, el nuevo Helio A22 con metodología system on chip (SoC) de la compañía. El compromiso de MediaTek de continuar “cambiando todo” se puede ver a lo largo de la serie “Avanzada” de Helio A y su misión es impulsar teléfonos inteligentes más innovadores y capaces, diseñados para satisfacer las demandas del consumidor actual de mercado medio. “La Serie A de Helio continúa nuestra visión de un mercado móvil accesible para todos, donde las características de alta gama no están limitadas a dispositivos de alta gama. Como hemos visto, el crecimiento del mercado medio sigue explotando y el interés de los consumidores en dispositivos potentes y de calidad continúa ofreciéndoles el mejor valor. Con Helio A22, los fabricantes de dispositivos pueden llevar al mercado dispositivos innovadores que brindan a los consumidores experiencias móviles incomparables en el rango medio, que incluyen un rendimiento increíble, una batería de larga duración y fotografías avanzadas y mejoras de IA”, dijo TL Lee, gerente general de la unidad de negocios de comunicaciones inalámbricas de MediaTek. Lea también: Nuevos smartphones llegan a Centroamérica. ¡Conozca el futuro de las cámaras! El Helio A22 está construido con la avanzada tecnología de fabricación FinFET de 12nm para ofrecer un alto rendimiento con una mayor eficiencia energética. Equipado con la tecnología CorePilot de MediaTek, el chipset optimiza la potencia para cada tarea y extiende la vida útil de la batería del dispositivo, lo que permite a los usuarios hacer más con sus dispositivos por más tiempo. la herramienta también cuenta con funciones de IA para aprovechar las extensiones del kit de desarrollo de software MediaTek NeuroPilot (SDK) y las aplicaciones de IA de terceros. La conectividad avanzada es el corazón del Helio A22 con un innovador diseño de RF para la coexistencia de Bluetooth y Wi-Fi. El chipset Cat-4 y Cat-7 4G LTE rendimiento para una conectividad rápida y paquetes de una doble tarjeta SIM 4G con VoLTE y ViLTE. Además, A22 es compatible tanto con LPDDR3 como con LPDDR4 más nuevo y más rápido para una mayor flexibilidad de diseño del cliente. Las mejoras de ubicación GNSS del Helio A22 permiten un TTFF 57 por ciento más rápido, una mejora del 10 por ciento en la precisión y hasta un 24 por ciento menos de gasto de energía en comparación con los conjuntos de chips de la generación anterior. Con Wi-Fi de 802.11, Helio A22 de MediaTek ofrece mayor ancho de banda y rendimiento, lo que resulta en mejores experiencias de juegos, multimedia y comunicaciones en línea para los usuarios. Además, el chipset admite BT5.0 para una mayor distancia de transporte y velocidades más altas adecuadas para dispositivos domésticos inteligentes. #chipset #móvil #smartphone
- ¿Qué son las WAN y hacia dónde se dirigen?
Una WAN es una red que utiliza varios enlaces líneas privadas, Conmutación de Etiquetas Mutliprotocolo (MPLS), redes privadas virtuales (VPNs), inalámbricas (celulares), la Internet para conectar redes metropolitanas o universitarias más pequeñas en diversas ubicaciones en una única red distribuida. Los sitios que conecta pueden estar a algunas millas de distancia o en la otra punta del globo. En una empresa, el propósito de una WAN puede incluir conectar oficinas de filiales o incluso trabajadores individuales remotos con la sede o el centro de datos, para compartir recursos corporativos y comunicaciones. Inicialmente, las WAN se construían con redes interconectadas de líneas privadas compradas por empresas de telecomunicaciones, pero la arquitectura de las WAN ha avanzado para incluir servicios de conmutación de paquetes como frame relay, ATM y MPLS. Con estos servicios, una única conexión a un sitio puede ser conectada a muchas otras mediante conmutación dentro de la red del proveedor de servicios. Para ciertos tipos de tráfico, la Internet puede también ser tejida dentro de la mezcla para proporcionar conexiones WAN menos costosas. A medida que las empresas buscan mejorar las WAN, el uso de la tecnología definida por software está ganando impulso. Una WAN definida por Software (SD-WAN) toma conceptos de software-defined, especialmente la separación del plano de control del plano de datos, y los trae a la WAN. Lea también: Héroe de WannaCry se convierte en villano SD-WAN usa software para monitorear el desempeño de una mezcla de conexiones WAN —MPLS, circuitos dedicados, el Internet, y elije la más apropiada para cada tipo de tráfico. Entonces, la teleconferencia podría correr sobre un circuito dedicado, pero los mails podrían usar el Internet. Para tomar esas decisiones, el software SD-WAN toma en cuenta lo bien que cada enlace está funcionando en ese momento, el costo de cada conexión y las necesidades de cada aplicación. Muchos creen que una SD-WAN está a punto de despegar en 2018, pasando de una tecnología de vanguardia a una implementación prevaleciente. La firma de investigación IDC ha predicho que los ingresos de SD-WAN alcanzarán los 2.300 millones de dólares en 2018, con un objetivo potencial de ingresos de 8.000 millones de dólares para el 2021. La primera fase de SD-WAN apuntaba a crear WANs híbridas y añadirles MPLS y conexiones a Internet para bajar costos; la siguiente fase mejorará la gestión, monitoreo y tendrá mejor seguridad, de acuerdo a Lee Doyle, de Doyle Research. Un subconjunto de las SD-WAN llamado SD-Branch ayudará a reducir la necesidad de hardware dentro de las oficinas de las sucursales, reemplazando muchos dispositivos físicos con software corriendo en servidores listos para usar. La copia de seguridad móvil a través de una SD-WAN puede proveer un failover para conexiones de banda ancha a medida que baja el costo de tecnología WAN inalámbrica (4G, LTE, etc.) Protocolos WAN Uno de los primeros protocolos utilizados para entregar tráfico WAN es X.25, el cual utiliza nodos de intercambio de conmutación de paquetes (PSEs) para el hardware que envía tráfico a los cables que conectan sitios en paquetes de tamaño estándar, entregados en orden, e incluye corrección de errores. Los enlaces físicos incluyen líneas arrendadas, servicios telefónicos dial up o conexiones de Redes Digitales de Servicios Integrados (ISDN). Ya no se usa mucho. Frame Relay Frame Relay es un sucesor de X.25, Frame Relay coloca datos en marcos de diferente tamaño y deja la corrección de errores y retransmisión de paquetes perdidos a los extremos. Estas diferencias aceleran la tasa de datos general. Además, Frame Relay depende menos de conexiones dedicadas para crear redes malladas, lo que significa menos circuitos físicos y, por consiguiente, ahorra dinero a las empresas. De nuevo, Frame Relay, aunque alguna vez fue extremadamente popular, ya no lo es tanto. Modo de Transferencia Asincrónica (ATM) es similar a Frame Relay con una gran diferencia en que los datos son partidos en paquetes de tamaño estándar llamados células. Las células hacen posible mezclar diferentes tipos de tráfico en un único circuito físico, y así garantiza una calidad de servicio. La contra de ATM es que, como usa células relativamente pequeñas, los encabezados se comen un porcentaje relativamente grande del contenido de cada célula. De esta manera, el uso general de ancho de banda de ATM es menos eficiente que el de Frame Relay. ATM también ha perdido el favor de los clientes de negocios. Además:¿Cuál será el secreto de la seguridad y almacenamiento en los centros de datos? Hoy, la conmutación de etiquetas multiprotocolo se usa para llevar muchos datos corporativos a través de enlaces WAN. Dentro de una red MPLS, breves segmentos de encabezado llamados etiquetas permiten a los enrutadores MPLS decidir rápidamente dónde enviar paquetes y tratarlos con el tipo de servicio indicado por las etiquetas. Esto hace posible correr diferentes protocolos dentro de los paquetes MPLS mientras da a diferentes aplicaciones la prioridad adecuada a medida que el tráfico viaja entre sitios. Internet Protocol (IP), el cual se ha convertido en más extendido en los ’90, es un protocolo llevado habitualmente dentro de MPLS. El futuro de WAN Las tecnologías WAN no están limitadas solo a la Tierra. La NASA y otras agencias espaciales trabajan en crear una “Internet Interplanetaria” confiable, lo que apunta a transmitir mensajes de prueba entre la Estación Espacial Internacional y estaciones de tierra. El programa Red Tolerante a Demoras (DTN) es el primer paso para proveer una estructura parecida a Internet para comunicaciones entre dispositivos en el espacio, incluyendo comunicaciones entre la Tierra y la Luna, u otros planetas. Pero hasta que podamos alcanzar tecnologías más rápidas que la luz, las velocidades de red probablemente llegarán al límite de la velocidad de la luz. #Infraestructura #redinálambrica #WAN
- Data Transfer Project, la nueva plataforma de portabilidad de datos
Sergio Salazar Pacheco El Data Transfer Project (DTP) consiste en una iniciativa de código abierto creada en 2017 que busca alentar la participación de proveedores a toda costa. Este proyecto desea mejorar la portabilidad de datos, reduciendo la carga de infraestructura tanto para los proveedores como para los usuarios y aumentando el número de servicios que ofrecen portabilidad. El sitio web de DTP explica que la meta es ampliar la portabilidad de los datos más allá de la descarga de una copia de sus datos del proveedor de servicios, y más bien darle la capacidad al consumidor de transferir los datos directamente dentro y fuera de cualquier proveedor participante. Puede interesarle: ¿Cuál será el secreto de la seguridad y almacenamiento en los centros de datos? Los socios de DTP son fieles creyentes de que las personas deberían usar producto que proporcionen un valor y características únicas, si un usuario desea cambiar un producto o servicio por la razón que tenga, debe estar en la libertad de poder hacerlo tan fácilmente como sea posible. Este concepto de permitir a los usuarios elegir productos y servicios basados en la elección, en lugar de que estar encerrado, ayuda a impulsar la innovación y facilita la competencia. ¿Cómo funciona? DTP está conformada por tres componentes principales: Los modelos de datos son los formatos que por regla se deben establecer para lograr una comprensión común de cómo transferir datos, donde los adaptadores se utilizan para convertir los datos de propiedad y formatos de autenticación de cada proveedor en una manera que el sistema pueda utilizarlos. Los modelos de datos representan los datos cuando se transfieren entre dos compañías diferentes. Los modelos de datos usualmente se agrupan de manera industrial, formando Verticales, los proveedores pueden tener datos en uno o más verticales, donde cada vertical puede estar conformado por fotos, correos electrónicos, contactos o música. Cada vertical tiene su propio conjunto de modelos de datos que permiten la transferencia sin interrupciones de los tipos de archivos relevantes. Además: ¿Están preparando los Centros de Datos para velocidades de hasta 400Gb? Un vertica a su vez contiene un pequeña cantidad de Modelos de Datos definidos y adaptados, donde los idóneo sería utilizar el modelo de datos para cada vertical en específico en todas las empresas. El problema es que lo anterior no se da ya que los modelos de datos han surgido orgánicamente en un ecosistema en gran medida desconectado. El DTP insta a las organizaciones a utilizar modelos de datos comunes en sus sistemas, lo cual se puede lograr si las diversas organizaciones toman en cuenta la importación y exportación de datos al rediseñar sus sistemas o distribuir actualizaciones. Lo anterior reduciría de manera importante la necesidad de las empresas en mantener y actualizar las APIs. Casos en los que se puede utilizar La aplicación de este código abierto permite al usuario aplicarla para diferentes casos y situaciones, entre ellas: Si un usuario desea utilizar un servicio de impresión de fotografías y sus fotos están almacenadas en su cuenta de redes sociales, la transferencia de datos le permite iniciar una transferencia directamente desde su plataforma de redes sociales al servicio de álbumes de fotos. Si no se está de acuerdo con la política de privacidad de un servicio de música, un usuario puede aprovechar el software de código abierto para exportar del proveedor original una copia de sus listas de reproducción en la nube, e importarlas a un nuevo proveedor. Si una empresa desea acoger a los clientes de un proveedor heredado que está cerrando, tiene opciones limitadas para permitirle a los clientes mover sus datos. Su solución se encuentra en escribir un Adaptador para las Interfaces de Programa de Aplicación (API) del proveedor heredado, permitiéndole a los usuarios transferir datos a su servicio. ¿Es necesario el DTP? La capacidad de descargar datos ya se ha aplicado antes, un ejemplo es Microsoft Export o Takeout, y a pesar de ser un importante avance en empoderar a los usuarios a controlar sus datos; descargar los datos tiene sus desperfectos: Para comenzar, si el el ancho de banda es limitado, puede durarse mucho haciendo la carga de datos, significando una pérdida en términos económicos y de tiempo. La incompatibilidad de los formatos estructurados entre sí, dificulta a los usuarios volver a importar los datos que exportaron. Al exportarse los datos, no se puede saber con certeza a dónde se pueden llevar. El objetivo de DTP es solventar esos problemas permitiendo de manera más sencilla la transferencia directa de datos de un proveedor a otro, además un objetivo alterno es hacer que cada empresa se capaz de crear capacidades de transferencia directa con cada proveedor de servicios alternativo. Los cuatro grandes El proyecto ha recibido mucho apoyo y colaboración de parte de pequeñas y medianas empresas, pero ahora los gigantes del internet: Facebook, Google, Twitter y Windows; se han sumado al proyecto. Siendo esto un paso enorme para el proyecto. También lea: Baterías de litio revolucionan los centros de datos Actualmente el proyecto se encuentra en desarrollo. El sitio web de DTP advierte que si bien tienen un código que funciona para una variedad de casos, constantemente se encuentran haciendo mejoras que pueden ocasionar el funcionamiento defectuoso de alguna parte. Además, recalcan que muchos de sus problemas conocidos los pueden encontrar en las listas de errores y en la documentación del directorio de cada proveedor, también están abiertos a recibir denuncias de algún problema. #DataTransferProject #portabilidaddedatos
- Zero Trust, un nuevo modelo de seguridad
CIO Él modelo de Zero Trust Network, también conocido como Zero Trust Architecture, creado por John Kindervag en 2010, es actualmente implementado por CIOs, CISOs y demás ejecutivos; gracias a la creciente demanda para proteger los sistemas y datos empresariales. ¿En qué consiste Zero Trust? Es un concepto de seguridad basado en la creencia de que las organizaciones deben desconfiar automática de todo dentro y fuera de sus perímetros, y deben verificar todo lo que trate de conectarse a sus sistemas antes de darles acceso. “La estrategia en torno a Zero Trust se reduce a no confiar en nadie. Estamos hablando de: ‘Vamos a cortar todo acceso hasta que la red sepa quién es usted’. No permite el acceso a direcciones IP, máquinas, etc. hasta que sepa quién es ese usuario y si está autorizado o no “, comentó Charlie Gero, CTO del Enterprise and Advanced Projects Group en Akamai Technologies. Seguridad para un mundo cambiante Este modelo de seguridad deja de lado la vieja mentalidad que tenías las corporaciones de defender sus perímetros, asumiendo que todo lo que se encontraba dentro de ellas no presentaba amenaza alguna, autorizando su acceso. Expertos en seguridad son claros al decir que este tipo de enfoques no son funcionales, señalando que muchas de las violaciones de datos realizadas por hackers, utilizaron a su favor la facilidad con las que pueden mover a través de los sistemas internos casi sin resistencia luego de obtener acceso dentro de los firewalls. Lea también: Seis tendencias de seguridad de la nube que podrían afectar en 2018 “Uno de los problemas inherentes que tenemos en TI es que permitimos que demasiadas cosas se ejecuten abiertamente con demasiadas conexiones predeterminadas. Básicamente confiamos demasiado. Por eso despegó Internet, porque todos podían compartir todo el tiempo. Pero también es un punto clave de falla: si confías en todo, entonces no tienes la oportunidad de cambiar nada de seguridad”, agregó Chase Cunningham, analista principal de Forrester. Los departamentos de TI deben cambiar su manera de pensar, ya que el mundo digital está en constante cambio. Actualmente las empresas no cuentan con centros de datos corporativos que prestan servicios a una red de sistemas contenida, si no que tienen tanto aplicaciones tanto locales como en la nube, accediendo a aplicaciones desde una variedad de dispositivos. Las tecnologías detrás de Zero Trust Zero Trust se basa en tecnologías existentes y diversos procesos de gobierno con la meta de lograr un entorno de TI seguro. Exige que las empresas aprovechen la microsegmentación y la aplicación de perímetro granular en función de los usuarios, sus ubicaciones y otros datos para determinar si se debe confiar en un usuario, máquina o aplicación que busque acceder a una parte específica de la empresa. Para lograr lo mencionado anteriormente, se recurre a tecnologías como la autenticación multifactorial, el análisis, cifrado, clasificación y permisos del sistema de archivos. Además, se exigen políticas de gobernabilidad como lo es dar la menor cantidad de acceso a los usuarios del necesario para realizar una tarea específica. Cunningham dice que piensa en Zero Trust como organizaciones que retoman el control del campo de batalla. “Tomemos la segmentación de red y los firewalls de próxima generación y coloquémoslos en segmentos y controlemos quién, qué, dónde y cuándo alguien se conecta. Entonces diseñamos desde el interior de la red hacia afuera y de afuera hacia adentro. Como es el caso con las TI en general en estos días, Zero Trust no es solo tecnología; también se trata de procesos y mentalidad “, reiteró Bill Mann, vicepresidente senior de productos y director de productos en Centrify Corp. Comenzando con Zero Trust Diferentes empresas de TI ya están implementando herramientas de Zero Trust, como la autenticación multifactor, IAM y permisos de acceso a archivos funcionando. Sin embargo, la idea no es implementar las tecnologías individualmente, si no utilizar estas y otras tecnologías para lograr cumplir la meta de que nadie ni nada tiene acceso hasta demostrarse que son de confianza. Es importante recalcar que las empresas no van a llegar a Zero Trust de un día para otro, especialmente aquellas que heredaron sistemas que no se adaptan bien a los nuevos modelos. “Muchas empresas se están cambiando a la nube y, por lo tanto, a entornos de campo ecológico. Esos son los lugares perfectos para ir a Zero Trust. Allí es donde comienza su viaje de Zero Trust “, afirmó Cunningham. Otro aspecto importante que se debe tomar en cuenta al pasarse a Zero trust, es lograr que el personal piense de esta manera. Podría interesarle: ¿Cuál será el secreto de la seguridad y almacenamiento en los centros de datos? “La mayoría de los expertos en TI organizacionales han sido entrenados a confiar implícitamente en sus entornos, desafortunadamente. Todos han sido (enseñados) a pensar que el firewall está manteniendo a los malos fuera. La gente necesita ajustar su mentalidad y comprender que los malhechores ya están en su entorno “, expresó Cunningham. Kieran Norton, director de la práctica de Cyber Risk Services dentro de Deloitte Risk and Financial Advisory, explica que la complejidad que presenta la aplicación de Zero Trust a entornos heredados y existentes, reside en que las empresas no han sido capaces de implementar de manera completa este modelo. Norton a su vez aconseja que la innovación hacia el modelo de Zero Trust se debe implementar como parte de la estrategia global de transformación digital, implementando tecnologías que permitan una migración hacia el Zero Trust y hacia la nube. “Pienso en esto como una transformación de la infraestructura. La seguridad de la información no ha seguido el ritmo de esta transformación digital. Pero tienes que transformar la manera en que administras la seguridad. Deberías pensar en la seguridad ubicua, quieres ser predictivo, por lo que realmente debes pensar en eso de manera diferente “, concluyó Norton. #seguridad #ZeroTrust
- ¿Cómo avanza la ciberseguridad en la banca?
Históricamente el sector bancario ha sido uno de los más conscientes de la necesidad de ser parte de la transformación digital. No obstante, si bien esta digitalización abre camino a nuevos modelos de negocio, también lo hace a nuevos riesgos. El vasto y cambiante panorama de amenazas, junto con el desafío de mejorar los hábitos de seguridad de los clientes, ofrece a los delincuentes informáticos cada vez más vulnerabilidades a explotar en el ámbito de las finanzas. Según el Foro Económico Mundial, las pérdidas económicas por ataques informáticos en Latinoamérica ascendieron, en el 2017, a 87.940 millones de dólares, de los cuales los países más afectados fueron Brasil, con 22.454 millones de dólares en pérdidas, México con 14.324 millones de dólares, Venezuela con 10.526 millones de dólares y Argentina con 8.650 millones de dólares. En el caso los servicios financieros, de acuerdo con el reporte de 2017 de IBM Security, nuevamente se posiciona como la que ha sufrido la mayor cantidad de ataques (27%) de todas las industrias. Lea también: Zero Trust, un nuevo modelo de seguridad Esto habilita a pensar en un escenario en el que cual, mientras antes los ciberdelincuentes se enfocaban en los clientes, hoy los ataques más relevantes se cometen contra los propios bancos. Diariamente las empresas del sector deben enfrentarse a diferentes retos de seguridad impulsados por algunas tendencias muy marcadas. El auge de las operaciones a través de dispositivos móviles que trae aparejado también el aumento del fraude en dichos aparatos es una. A su vez, existen requisitos de seguridad específicos en cada país que se imponen para las empresas del sector financiero. Las instituciones a nivel global deben ser capaces de adaptar las políticas de seguridad a todas sus regiones. Otro reto importante es que un porcentaje muy alto de los incidentes de seguridad en el sector financiero provienen del personal existente, lo que demuestra que las instituciones implicadas deben poner mayor atención en la gestión de accesos e identidades, especialmente de usuarios privilegiados, y al monitoreo general de las actividades. Por último, teniendo en cuenta que el phishing y el fraude bancario son los ataques que mayores dolores de cabeza generan al sector, es clave la implementación de tecnologías que permitan hacer protección integral de la marca para que no sea utilizada para estos fines. Esta protección debe ser proactiva y ante este peligroso escenario, las instituciones y resellers deben acudir a los fabricantes, conocer su portfolio y estar capacitados para su uso e implementación. ¿Cuál es la oferta de los principales Vendors de Seguridad para la Industria de la Banca y Finanzas? Nota relacionada: Seguridad del software de código abierto se encuentra en constante amenaza Con una creciente gama de canales bancarios digitales disponibles, los clientes ahora cuentan con infinitas posibilidades para llevar a cabo negocios financieros. Al mismo tiempo, esta expansión de los canales bancarios aumenta el riesgo de fraude. RSA sabe que esta última es una perspectiva que pesa mucho sobre las instituciones financieras, es por eso por lo que su portfolio completo aplica para prevenir y solucionar todo tipo de necesidad que puedan tener, con Fraud & Risk Intelligence Suite, Secure ID, Netwitness Suite y Archer Suite. Con su completo conjunto de soluciones de seguridad, Sophos protege la red y sus sistemas de punto final; los empleados, datos, inversiones y procesos; y respalda los esfuerzos para cumplir con las regulaciones. El fabricante ofrece un amplio abanico de soluciones que responden a necesidades del sector de Banca y Finanzas, entre ellas se destacan: Sophos Safeguard Encryption, Sophos Mobile, Sophos Red, Sophos View y Endpoint Protection. Con Citrix, los bancos pueden modernizar la experiencia bancaria digital con su paquete de soluciones XenApp – XenDesktop – NetscalerADC – Sharefile – XenMobile – Citrix Workspace. Con ellas pueden transformar las sucursales para una experiencia de alto rendimiento y con gran interacción, a la vez que los empleados cuentan con la posibilidad de acceder de forma segura a las aplicaciones y datos desde cualquier parte y con cualquier dispositivo. Puede interesarle: Google lanzó plataforma para educar sobre seguridad en línea Check Point sabe que la seguridad cibernética financiera es un ecosistema profundamente complejo y multifacético que exige una protección avanzada contra ciber amenazas sofisticadas, es por esto por lo que ofrece soluciones integradas que abordan los desafíos únicos de la industria financiera. Su completo portfolio de soluciones incluye: Next Gen Threat Prevention/Next Gen Data Protection/Next Gen Secure Web Gateway/Endpoint Security/Check Point 1100 Appliances/Compliance Software Blade/Smart 1 Applicances/capsule. Las soluciones de seguridad de Forcepoint ofrecen visibilidad en tiempo real y una guía práctica para el equipo de TI y los usuarios finales; los ayudan a alcanzar el equilibrio correcto, brindándoles seguridad proactiva y potenciando a la empresa para que innove y crezca. Entre sus soluciones destacadas se encuentran NGFW/DLP/Email Security/Insider Threat/Web Security. VMware ofrece una cartera de servicios para que los Bancos modernicen su infraestructura TI y movilicen sus negocios de manera estratégica para mejorar el suministro de servicios. A su vez, soluciones y productos transforman la seguridad y automatizan el cumplimiento, a la vez que ofrecen integración de nubes públicas para acelerar la innovación. Otros temas: Smartwatch y app para localizar a los niños El fabricante brinda un servicio completo para innovar un sector tecnofinanciero y crear las sucursales del futuro. Proteja a sus clientes y su reputación frente a regulaciones estrictas y amenazas potenciales con Symantec. El fabricante cuenta con soluciones como VIP Access, DLP, Proxy y Security Analytics que tienen lo que necesita para proteger, automatizar, estandarizar y optimizar las operaciones y transacciones de la industria financiera. Veritas es otro fabricante con un portfolio muy completo de soluciones que la industria de Banca y Finanzas puede aprovechar, con sus soluciones Enterprise Vault, Information Map y E-Discovery. Sin dudas GFI con GFI Languard, Web Monitor y Exinda ofrece un paquete de soluciones muy atractivas para la industria de Banca & Finanzas. #Ciberseguridad #clientes #Proteccióndedatos
