Open Source And Security Services

Open Source And Security Services

La importancia de la Gestión del Dato.

¿En qué punto estamos?

 

Hoy en día en el mundo digital, una incidencia a nivel de IT puede tener afectación directamente a los procesos de negocio y en este sentido existen múltiples posibilidades de recuperación, tomando en cuenta los niveles de RTO (Recovery Time objective)  y RPO (Recovery Point Objetive) establecidos, pero la pregunta es ¿Qué pasa si perdemos los datos o no sabemos dónde están?, es evidente que es una tarea que en ocasiones puede resultar imposible, por eso nos surge la necesidad de tener bien definido e implementado lo que llamamos el CICLO DE VIDA DEL DATO.

En la era de la transformación digital los datos representan un valor incalculable en los procesos de negocio, en los últimos años nos encontramos con una masificación de datos e información a procesar, por lo que es importante categorizar y evitar la fragmentación de los datos.

Por consiguiente, nos encontramos con la imperiosa necesidad de tener los datos de una forma ordenada y coherente para tener un acceso rápido a ellos, en función de los requerimientos de nuestras aplicaciones y entornos que en definitiva determinarán el tipo de dato y la categorización a la que pertenecen.

Nuestra experiencia como integradores de soluciones en este ámbito, nos permite adaptar los diferentes modelos de arquitecturas en función de los requerimientos y necesidades de las organizaciones y de nuestros clientes.

Desde Open3s entendemos la importancia de la gestión del dato como algo crítico dentro de los procesos de transformación digital en la que se embarcan las organizaciones, saber determinar y categorizar los tipos de datos definiendo un ciclo de vida en función de su utilización e importancia supone una optimización destacable en los procesos de IT.

El problema de la Fragmentación de los Datos.

 

Este problema ya lo estamos viendo en las organizaciones, la falta de control sobre el estado de los datos, su utilización y la evolución dentro de los procesos de negocio, es uno de los puntos importantes a tomar en cuenta si se quiere acometer cualquier proceso de transformación digital. Desde nuestra experiencia, el problema de la fragmentación de los datos se debe a los siguientes puntos que detallamos a continuación.

Crecimiento de los Datos

Los datos están creciendo de una manera exponencial, esto produce un deterioro dentro de los procesos de IT y lo que es peor pone en relieve sus deficiencias. Es común encontrarnos con disrupciones de servicio por falta o mal manejo de la gestión de las capacidades en términos de espacio y la mala gestión de datos que consideramos obsoletos o en desuso. No teniendo control sobre ellos.

Operaciones de los Datos

Los datos son categorizados de acuerdo, a su uso y a los procesos funcionales que los requieren, por tanto, su utilización se diversifica en función de los despliegues, de las necesidades de testeo, desarrollo y como no, de los procesos de análisis que cada vez son más comunes dentro de las organizaciones. Esto supone tener un conocimiento más exhaustivo del estado de los datos y las operaciones que se realizan, de tal forma que tengamos una mayor visibilidad sobre ellos.

Protección de Datos

Hoy en día las organizaciones realizan copias de datos por muchas razones, no sólo para tener respaldos y protección de los datos, sino para la ejecución de tareas dentro de sus procedimientos de control, esto produce un crecimiento no controlado de los datos, sin importar la consistencia de estas copias, el problema es que se distribuyen en diferentes ubicaciones y los métodos de recuperación resultan ser lentos y tediosos.

Por tanto, podemos afirmar que:

 

“IT está limitada por infraestructuras de datos obsoletos y no controlados”
“No tener claro el ciclo de vida del dato empeora la adopción al Cloud”

 

Es hora de consolidar los datos y las operaciones

 

La mejor manera de dar solución a esta problemática es identificar los tipos de datos y distribuirlos en una solución integral que nos proporcione un nuevo enfoque en la gestión y en la manera de entender la importancia de los datos en los procesos de continuidad de negocio, dotando a las organizaciones de las siguientes características

Integración y eficiencia

Eliminando duplicidad y sobredimensionamiento de infraestructuras, con una gestión única e integrada que nos permita ejecutar procesos automáticos, eliminando así, tareas manuales y rutinarias. Obteniendo visibilidad sobre los datos y su evolución dentro de su ciclo de vida.

Rapidez y Flexibilidad

Soluciones definidas por software para mejorar considerablemente el acceso a los datos y a su distribución, en función de sus casos de uso, permitiendo la ejecución de aplicaciones y tareas desde cualquier ámbito de nuestra infraestructura. Teniendo la posibilidad de desbordamientos de datos a diferentes modelos de infraestructuras Multicloud.

Seguridad y Operación

Realizar búsqueda de los datos de manera rápida, segura y predictiva sin importar su ubicación, garantizando niveles de RTO/RPO óptimos y eficientes, por los tiempos de recuperación establecidos y los que demandan cada vez más los procesos de negocio dentro de las organizaciones. Garantizando en todo momento la continuidad de los procesos de negocio.

Escalabilidad y soluciones abiertas

Facilidad de crecimiento en función de necesidades y demandas de infraestructuras, soluciones explotables a partir de APIs para desarrollos e informes a medida, así como la integración con otras soluciones.

En resumen, el reto está servido, debemos poner foco y considerar que vamos a almacenar, gobernar, acceder, proteger y tener una responsabilidad importante sobre nuestros datos, es hora de ponerse manos a la obra para diseñar un plan eficiente de continuidad de negocio y gobierno de los datos y desde Open3s queremos ayudarte en este proceso.

Autor: Carlos Zavala Pasco, Area manager Sistemas, Virtualización y Cloud.

Open Data Madrid: Os contamos nuestra experiencia

Que vivimos en la era de la transformación digital es un hecho. Todos habréis oído hablar de ella y aplica en mayor o menor medida a diferentes ámbitos de nuestra vida: ámbito laboral, personal, compras, comunicaciones, entretenimiento… Una de las características principales de esta transformación es la generación de grandes cantidades de datos, que procesados y analizados de la manera correcta pueden aportar valor.

En este artículo queremos contaros cuál ha sido nuestra experiencia intentando explotar datos abiertos. Esta iniciativa surgió un día en una sesión de brainstorming del equipo de Big Data. Ese día dimos con la web de open data del Ayuntamiento de Madrid, la cual contiene colecciones de datos abiertos del ayuntamiento que puedes utilizar descargándolos e incluso explotándolos vía API. Tras analizar las fuentes que ofrecían y el potencial que podían tener se nos ocurrió que si esas fuentes se pudieran correlar podríamos generar contenido útil, valioso e interesante tanto para ciudadanos como para distintas áreas del Ayuntamiento.

A continuación os contamos nuestra experiencia.

Datos

Inicialmente pensamos en dos casos de uso: uno de ellos zonas calientes de accidentes de tráfico y multas, y el segundo análisis del impacto de la calidad del aire en la salud de la ciudadanía. Nos vamos a centrar en el primero de ellos, que es el que los datos nos han permitido crear de manera más óptima. Para ello contábamos con las siguientes fuentes:

  • Accidentes de tráfico.
  • Accidentes con implicación de bicicletas.
  • Multas de tráfico.
  • Intervenciones del Samur.

 

Retos

El primer reto al que nos enfrentamos fue el procesamiento de los datos. El hecho de que los datos en cada fuente no estuvieran normalizados hizo que se disparase el tiempo invertido en hacer de ellos datos útiles para aplicar lógicas y análisis, ya que dichos datos no siguen el mismo formato en los distintos conjuntos de datos. Por ejemplo, la ubicación no se detalla igual en los accidentes de tráfico que en las multas (calles con distintos formatos), o en las intervenciones de Samur que en lugar de especificar la calle se especifica únicamente el distrito.

Tras una labor de “cocinado” de los datos que los habilitara para incluirlos en Splunk, vino el problema de la correlación. Nos faltaban campos en algunas fuentes con las que relacionarlas con el resto de datos; y datos básicos como la fecha completa estaban ausentes en algunas de ellas. Esto hizo que el nivel de detalle que se puede llegar a obtener se viese disminuido, ya que sólo se puede analizar por mes y año, con lo que las conclusiones pueden ser distorsionadas.

Un claro ejemplo de diferencia entre formatos lo encontramos en la ubicación de accidentes y multas. En los datos de accidentes venía la calle, por lo que haciendo una correlación con datos de callejero pudimos obtener coordenadas para geoposicionamiento; sin embargo, en los de multas venían calles incompletas y cruces, lo cual dificultó la posibilidad de posicionar geográficamente.

Otro problema que encontramos fue la falta de datos actuales. Para poder materializar la idea que teníamos en mente lo óptimo hubieran sido datos actualizados de manera diaria, pero nos encontramos con que muchos de los datos que ofrece la web de open data se publican de manera anual a año vencido. Para hacer un “análisis forense” a tiempo pasado y analizar el histórico puede ser útil, pero pierde la versatilidad y el valor que te da tener datos cercanos a tiempo real.

No obstante, seguimos trabajando en ello para ver el potencial que podía tener la idea, y a continuación os contamos lo que conseguimos.

 

Resultado

Hemos conseguido desarrollar un dashboard de analytics sobre los datos obtenidos sobre accidentes de tráfico. Tenemos distintas visiones de los accidentes que se producen, pudiendo ver la segregación por distrito, tipo de accidente, edades y horas/días.

Como podemos ver, y sin aplicar ningún tipo de filtro ya podemos empezar a sacar conclusiones:

  • En cuanto a distritos, los accidentes de tráfico se reparten de manera bastante homogénea, no destacando ningún distrito sobre otro. Tiene un porcentaje ligeramente mayor el distrito de Chamartín pese a que cualquiera pensaríamos que sería el distrito centro.
  • Los accidentes que más se producen son colisiones dobles, acaparando así un 75% de todos ellos. Llama la atención una tipología de accidente con suficiente representación como para salir en el gráfico que es “Caída viajero bus”.
  • Los resultados de tramo horario son totalmente los esperados y deducibles por la afluencia de coches correlando los tramos horarios con las horas de trabajo.
  • El abanico de edades que se registran va de 0 a más de 74 años. Es curioso ver como la segregación de accidentes va en aumento en los tramos menores de edad hasta llegar a los 25-29 (un 12,44% de los accidentes), y a partir de ese tramo empieza a disminuir de nuevo.
  • El lunes gana por poco margen el día con más accidentes de tráfico, siendo el resto bastante equitativos.
  • Respecto a las horas, refleja que hay más accidentes por la tarde que por la mañana. Esto puede dar lugar a pensar que los desplazamientos para trabajar por la mañana pueden estar más escalonados que los de la tarde.

 

Los filtros superiores nos permiten “jugar” con la información, para obtener conclusiones curiosas como las siguientes:

  • Seleccionando accidentes cuyos implicados tienen una edad superior a 74 años vemos como la segregación por tipo de accidente aumenta considerablemente hacia “Atropello”, y que la tipología “Caída viajero bus” se ve incrementada.

  • Si queremos analizar los accidentes de tipo “Choque contra objeto fijo” llama la atención de éstos a qué hora se producen más, como vemos en el siguiente gráfico. Es el horario de madrugada y noche el que se lleva casi el 50% de estos accidentes.

  • Al seleccionar accidentes producidos de madrugada y por la noche, las edades que más aparecen son de los 21 a los 39 años. Sin embargo, la división por días de la semana es más homogénea de lo que se esperaría

  • Sorprende que seleccionando aquellos accidentes con bicicleta implicada, en tipología siga saliendo “Caída viajero bus”.

  • Analizando el geoposicionamiento de accidentes se aprecia una ocurrencia mayor por el barrio de Salamanca, siendo el resto repartido homogéneamente.

  • Si contamos los accidentes por día/tramo horario, tipo de accidente, gravedad y tramo de edad los accidentes que más se producen son los sábados de 00 a 00:59, la mayoría por colisión doble, sin heridos de gravedad y en tramos de edades bastante dispares.

  • Por último, algo de esperar, si vemos un gráfico con la evolución temporal de los accidentes por mes apreciamos que en el mes de agosto disminuyen drásticamente. Llama la atención el aumento en octubre sin mucha razón lógica a la que achacarlo.

 

Qué hubiéramos necesitado para conseguirlo

Para conseguir lo que teníamos en mente hubiéramos necesitado principalmente:

  • Campos para correlar las distintas fuentes.
  • Datos en real time o near real time.
  • Presencia de datos ausentes: por ejemplo, día del mes el cuál no está presente y dificulta aplicar ciertos análisis (por ejemplo, analizar los accidentes en función de medidas de contaminación activas).
  • Calidad en los datos, por ejemplo, en los de ubicación.

 

Conclusiones

Pese a que se ha avanzado mucho en estos temas y ya se ha dado un gran paso como crear un servicio de consumo de datos abierto de los ayuntamientos (presente no sólo en Madrid, sino también en ciudades como Barcelona), aún queda camino por andar.

Hemos extraído bastantes conclusiones, pero si hubiésemos contado con todo lo necesario se podría haber hecho algo con mucho más potencial permitiendo extraer todo el jugo que los datos y la correlación entre estos aportan.

 

Esperamos que el mundo de los datos siga evolucionando, ¡nosotros estaremos ahí para experimentarlo y vivirlo!

 

Autora: Nerea Sánchez Fernández, Area Manager Big Data.

 

Como optimizar el tráfico a internet con un Firewall NGFW

Hace ya tiempo que los Firewalls evolucionaron de esa barrera perimetral con secuencias de IPs y puertos a equipos con funcionalidades avanzadas. Integración con directorio activo, identificación de aplicaciones en capa 7, gestor de conexiones remotas VPN y una larga lista que dan forma a lo que se conoce como Next Generation FireWalls. Hoy vamos a hablar de una característica poco publicitada de algunos NGFW, la capacidad de gestionar múltiples líneas de conexión al exterior en general (y a internet en particular).

Situación de partida, ¿que necesidades de comunicación al exterior tienen las empresas?

En lo que respecta a comunicaciones hacia el exterior, a la persona en el puesto de Director técnico, CIO o responsable de comunicación se le exige varios de los siguientes puntos:

  1. Comunicación segura y confiable entre sedes
  2. Conexión a Internet con parámetros de rendimiento aceptables.
  3. Redundancia de todo lo anterior
  4. Con el menor coste posible.

Analicemos cada uno de los requisitos en mayor detalle

  1. Para la comunicación entre sedes la opción por defecto por la que optan muchas organizaciones es una red MPLS contratada a un ISP mayorista. Disponemos de una red privada donde la configuración y el mantenimiento la realiza un tercero y con unos ancho de banda garantizado. Todo muy bonito, ¿verdad? La realidad es que la red es compartida a nivel físico, los anchos de banda son muy bajos (especialmente cierto en MPLS internacionales), la privacidad depende de la confianza en el ISP de turno y la capacidad de realizar operaciones técnicas complejas está muy limitada.
  2. La navegación a internet siempre ha sido un tira y afloja entre las capacidades de las líneas ISP y los requisitos de las aplicaciones. En algún punto, este equilibrio se rompió por las nuevas necesidades corporativas en materia de seguridad. A día de hoy ocurre que parte o toda nuestra operativa IT está en formato cloud con aplicaciones SaaS pero nuestra conexión a Internet se basa en la tunelización de tráfico hacia una sede central donde controlo todo el flujo. A esto hay que sumar que muchas aplicaciones no solo requieren un ancho de banda mínimo, sino que además los parámetros de latencia y jitter deben permanecer en valores óptimos (pensemos en una llamada VoIP, una videoconferencia).
  3. Hoy día no se tolera perdida de servicio. A menos que seamos amanuenses en un convento, la mayor parte del tiempo requerimos conexión a internet para desempeñar nuestra tarea. De manera general, un corte de conexión a internet suele ser desastroso para la operativa de a empresa. Y porque no decirlo, una mancha en la imagen del departamento de IT.
  4. Y por supuesto, con el menor coste económico y operativo posible. Atención a la diferenciación, económico y operativo. El euro pesa mucho en las decisiones pero no debemos obviar que carga operativa nos va a suponer cada opción y por supuesto que flexibilidad técnica brinda.

El problema

Con todo esto, el esquema de partida de la mayoría de empresas comienza siendo un conjunto de sedes remotas unidas a una sede central por MPLS y un firewall y una salida a internet bien grandota en la central por donde pasa todo. Gráficamente algo así:

Si tu red esta representada por esta imagen o similar, habrás sufrido los inconvenientes que tiene:

  • Las redes MPLS son en general caras y lentas además de ser poco ágiles ante cambios.
  • La conexión a internet agregada en DataCenter no da respuesta a necesidades específicas.
  • No tenemos ningún mecanismo de seguridad en las sedes.
  • No existe visibilidad de lo que está ocurriendo en las tripas de nuestra red
  • La redundancia de conexiones al exterior no es fácil de gestionar desde un punto de vista técnico

La pregunta, ¿como gestionar el tráfico de salida a internet de forma eficiente técnica y económicamente?

De acuerdo, ya eres consciente de las deficiencias de la red de comunicaciones de tu empresa. Pero, ¿que alternativas tienes? No hay una respuesta unificada porque cada organización tiene sus necesidades particulares. Lo que sí hay es una serie de pautas a seguir como por ejemplo:

  • Añadir en las sedes al menos una segunda línea de conexión con la central por redundancia. En lugar de una MPLS puede ser una conexión a internet con un tunel IPSec para comunicación segura.
  • Descargar el control de seguridad en un firewall en la sede y derivar parte del tráfico directamente a Internet sin pasar por la sede central
  • Valorar la sustitución de la costosa línea MPLS por una línea genérica a internet con las medidas de autenticación y encriptación suficientes.
  • Aumentas el número de líneas de internet para asegurar la conexión al exterior con la mejor disponibilidad en todo momento.

Es decir, estamos pidiendo la capacidad de analizar y gestionar el tráfico de salida desde cada una de las sedes hacia el exterior. ¿Como lo conseguimos? Efectivamente, instalando un Firewall de tipo NGFW en cada una de las sedes.

La solución, SD-WAN de Fortinet

Llega el momento de aterrizar la idea. Somos conscientes de las carencias de nuestra red, queremos reducir costes y mejorar nuestra operativa. ¿Como lo hago? En este articulo os explicamos que aporta Fortinet y su tecnología SD-WAN. Te explicamos en que consiste.

SD-WAN de por si es un concepto marketiniano, algo parecido a lo que ocurre con SDN que cada vendor empuja su idea del concepto. Para Fortinet, SD-WAN es la tecnología que permite optimizar los flujos de conexión a internet de manera dinámica según las necesidades de cada usuario y aplicación. Ahí es nada. Dicho de otra manera, es capaz de sacar el tráfico por una u otra línea según los parámetros técnicos de la línea en cada momento. Pongamos un par de ejemplos reales para entenderlo mejor:

  • Nuestra empresa ha apostado por Office365 y la aplicación Teams de Microsoft requiere una latencia determinada en las sedes. En lugar de tunelizar el tráfico hacía la sede central y sacarlo a  internet, pasemos a un modelo donde identificamos el tráfico a nivel de aplicación en la sede en local con un NGFW y derivemos el tráfico directo a Internet. Y en caso que la línea a internet falle o tenga parámetros de latencia malos, derivemos el tráfico temporalmente a través de la conexión hacia la sede central.
  • Hemos apostado por reducir nuestra factura y desvincularnos de nuestro ISP sustituyendo la MPLS por dos líneas de fibra FTTH domésticas más una línea con radioenlace todo ello con conexión a la central con túneles IPSec. Por defecto voy a sacar todo el tráfico no crítico a través de la línea 1 de fibra, el tráfico critico a través de la línea 2 de fibra y me reservo el radioenlace en caso de problemas. Por ejemplo, si detecto una perdida de paquetes del 1% en la línea 1 de fibra considero que la línea ha dejado de ser confiable y comienzo a sacar todo el tráfico por el radioenlace que tiene menor capacidad pero me asegura la entrega de los paquetes. De manera continua se comprueba la línea de fibra hasta que vuelve a los parámetros de calidad aceptable y volvemos a enrutar el tráfico como anteriormente.

Este y múltiples ejemplos más se consigue gracias a la combinación de diferentes tecnologías punteras proveídas por Fortinet:

  • Funcionalidad SD-WAN para gestionar el tráfico de salida al exterior.
  • Identificación de aplicaciones para categorizar cada flujo.
  • Establecimiento de túneles IPSec de manera dinámica.
  • Gestión centralizada de NGFW mediante software específico como FortiManager.

Finalizando este artículo te estarás preguntando si esta solución realmente es tan buena y si es aplicable a ti. En Open3s nos gusta hacer una venta consultiva donde estudiamos cada caso en detalle. Si estás interesado, déjanos tus datos que estamos encantando de charlar contigo sobre este y otros temas.

Autor: Miguel Angel Corzo, Área manager Networking y Seguridad.


 

La evolución de los Centros de Datos y el Fútbol

En estos tiempos que corren, es una obviedad que hay sectores de actividad que han experimentado una profunda transformación, marcada por necesidades de evolución o por exigencias de los ámbitos en donde se desarrollan. En este sentido, la Tecnología y el Deporte, son dos de las actividades que han experimentado esta evolución y en donde se puede establecer paralelismos, a modo didáctico y explicativo, de lo que pueden significar por el lado de la tecnología, en los Centros de Datos y del deporte, en el Fútbol.

 INICIOS

Los Centros de Datos, desde sus inicios, han estado en constante evolución por los requerimientos que han tenido de soportabilidad de las infraestructuras donde se procesan los datos para obtener los resultados de una manera más eficiente, el Fútbol, de una manera cíclica, también ha tendido a evolucionar los esquemas o planteamientos por las exigencias y evolución del juego para mantener así, la competitividad necesaria en todo deporte.

Cuando hablamos de Centros de Datos nos podemos referir a niveles o capas que los conforman, en un sentido más genérico el hardware y el software, en sus inicios cada uno estaban perfectamente delimitados en sus funciones, unidos por el sistema operativo, que hacía de enlace para interactuar a través de interrupciones ambos elementos, cómo en el Fútbol de antaño, en donde teníamos posiciones rígidas, estáticas y jugadores especialistas de acuerdo a sus posiciones, un modelo, en ambos casos, efectivo, para alcanzar los objetivos de entonces con las herramientas que se disponía.

EVOLUCIÓN

En ambos casos, nos encontrábamos con modelos susceptibles a evolucionar, porque las tendencias así lo establecían, los elementos de software además de complementar descargaban de tareas al hardware y daban más visibilidad a los gestores y administradores de IT, para el análisis, los cambios y la resolución de problemas.

De la misma forma en Fútbol, se evolucionaba hacía un modelo basado en la posesión, a partir del talento en el mediocampo, para descargar a la zona defensiva de tareas duras, de destrucción, haciendo el juego más vistoso, no sólo para el espectador sino para los entrenadores, pudiendo a través de lo que sucedía en esa parcela del campo, entender, analizar y corregir cualquier momento del lance, es decir, en ambos casos tanto el software como los mediocentros se oficiaban como verdaderos «cerebros» de cada uno de los modelos, su interacción con los niveles inferiores y superiores les daban esas características y dotaban de esa eficiencia necesaria en toda actividad para llegar a los objetivos trazados.

CONCEPTOS Y COMPONENTES

Precisamente el software, a través de la Virtualización, produjo una revolución en los modelos de los Centros de Datos, la virtualización del hardware en las infraestructuras supuso alcanzar niveles de eficiencia y dotar de mejoras en las operativas en todos los componentes de un Centro de Datos. Las redes, el almacenamiento y los servidores, los entornos y aplicaciones y finalmente los procesos de negocio, eran susceptibles a ser integrados facilitando el procesamiento de los datos y optimizando los flujos de información entre infraestructura y aplicaciones de negocio, es como entender la interacción entre las tres líneas de un esquema de juego como son la defensa, el mediocampo y la delantera, integrar el esfuerzo con el talento para optimizar las transiciones del balón entre las líneas para que, de una manera eficaz y bien jugada, lleguen a los delanteros que son lo que, a través del «gol» puedan definir el juego, como así lo son las aplicaciones y los procesos de negocio. En ambos casos, la información y el balón deben fluir de una manera eficiente, mediante mecanismos o dibujos tácticos, diseñados para alcanzar los objetivos en las organizaciones y los equipos.

Entender que los modelos tienden a converger e integrarse parece ser una obligación, el software y los mediocentros deben ser las piezas claves para definir las operativas y las tácticas, siendo los conceptos de orquestación, automatización, simplicidad en la gestión y adaptación de manera rápida a los cambios, un denominador común entre los modelos en ambas actividades.

En los centros de datos, aplicar dichos conceptos llevará a las organizaciones a ser más eficaces y llegar a niveles de optimización y continuidad de negocio esperados. Orquestar los elementos de las infraestructuras o los jugadores, automatizar los procesos o los movimientos dentro de un terreno de juego, gestionar de una manera eficaz las aplicaciones o las plantillas y llegar a hacer cambios de diseños sin disrupción sin afectar a los procesos o cambiar el dibujo táctico en un partido de una manera rápida y eficaz para ganarlo, son los paralelismos entre un diseño de Centro de Datos y un equipo de Fútbol.

ANÁLISIS y RESULTADOS

Por tanto, es obvio que todo este planteamiento deriva en el análisis de los resultados finales, tanto en los procesos de negocio de las organizaciones como en los títulos obtenidos a final de temporada, dando visibilidad e importancia a aquellos puntos ejecutivos, donde el éxito depende de todos los mecanismos y procesos que hay por debajo, en el caso de los Centro de Datos en las infraestructuras y en el Fútbol en la solidez defensiva y de consistencia, en todas sus líneas, en la que se basa una estructura de plantilla.

Por eso, siempre se debe dar prioridad a los procesos de negocio de las organizaciones, así como se da a los grandes goleadores, que son los que deciden las competiciones, y que por lo general ganan los balones de oro, pero nunca sin un Centro de Datos eficiente y moderno ni un gran equipo detrás, al servicio de un objetivo común, un TRABAJO EN EQUIPO a todos los niveles y con letras mayúsculas.

En conclusión, la tendencia es clara, debemos ser capaces de entender como evolucionan los modelos y aplicarlos de acuerdo con nuestras necesidades, garantizando la continuidad de los procesos de negocio, dedicando esfuerzos en los puntos realmente claves y estratégicos para las organizaciones o en los momentos donde se juegan los títulos en la temporada.

Como decía el maestro J.Cruyff…

 “Todos los entrenadores hablan sobre movimientos, sobre correr mucho. Yo digo que no es necesario correr tanto. El fútbol es un juego que se juega con el cerebro. Debes estar en el lugar adecuado, en el momento adecuado, ni demasiado pronto ni demasiado tarde”

Autor: Carlos Zavala Pasco, Area manager Sistemas, Virtualización y Cloud.

Caminando hacia la Hiperconvergencia

Antecedentes

La Hiperconvergencia es la evolución de la convergencia, cuyos precursores fueron las soluciones basadas, por ejemplo, en «blades» , que consistía en integrar elementos de hardware a nivel de cómputo, red y almacenamiento en un único equipo o infraestructura vertical, optimizando capacidad de gestión, recursos en los centros de datos y consumo energético, con el paso a la hiperconvergencia se incluyeron niveles de software en sus diferentes elementos, para dotar de inteligencia y simplicidad a las infraestructuras en los centros de datos.

Adopción del concepto

En este sentido, se podría afirmar que el concepto de Hiperconvergencia en sí, no es algo nuevo en términos tecnológicos, pero si que su adoptación y por tanto su madurez y recurrencia a nivel de tendencia ya es una realidad, con un grado de evolución y crecimiento constante, que permite a las empresas realizar un cambio en la manera de entender sus infraestructuras presentes y futuras.

Engloba elementos virtuales y físicos controlados por software, principalmente a nivel de cómputo, redes y almacenamiento, integrando estas infraestructuras, con la finalidad de dotar de eficiencia a las aplicaciones y entornos, así como también, simplicidad de implementación, gestión y administración, reduciendo puntos de fallos e incidencias que afecten a la continuidad del negocio y disminuyendo disrupción de los servicios, en tareas de actualizaciones y mantenimiento.

Por tanto, a partir de un buen diseño y dimensionamiento de una solución de hiperconvergencia, se pueden realizar implementaciones de nubes privadas e integración con nubes públicas, formando infraestructuras híbridas hacia la evolución de procesos de transformación digital, análisis de datos en tiempo real, sencillez de despliegue y optimización de los entornos empresariales y de negocio.

Aportación tecnológica.

La principal aportación tecnológica de una solución de Hiperconvergencia es la optimización en cuanto a rendimiento, redundancia y alta disponibilidad de las infraestructuras virtuales, permitiendo eficiencias de acceso a los datos en términos de operaciones de lectura y escritura combinando conjuntos de discos de alta capacidad y alto rendimiento en cada uno de los nodos definidos por software y dotando eficiencia en el uso del almacenamiento con las funcionalidades de compresión, deduplicación y autotiering, en este aspecto también aporta redundancia, alta disponibilidad y resilencia de los datos en caso de caída a nivel de nodo o bloque dentro de un Cluster, además de aportar características de escalabilidad horizontal (webscale) ante demandas de crecimientos en las infraestructuras.

 A nivel de recursos de cómputo, por arquitectura, una solución de hiperconvergencia reduce y optimiza cargas de trabajo, distribuyendo los procesos a través del Cluster con la finalidad de evitar «cuellos de botella» en procesos y aplicaciones que requieran altos niveles de consumo de CPU y memoria, esto es debido a que la comunicación interna entre los nodos que conforman el Cluster se produce con altos niveles de tasas de transferencia y bajas en latencias, reduciendo considerablemente penalizaciones de rendimiento y contención de recursos.

Hacía el CPD definido por software

Una vez adoptado, entendido el concepto y conociendo su aportación tecnológica, la evolución de la hiperconvergencia tenderá a lo que sería un centro de datos automatizado e Inteligente, partiendo de la simplicidad de implementación y gestión de las infraestructuras, lo que permitirá centrar los esfuerzos en el despliegue y automatización de aplicaciones, en el análisis de los datos y en la mejora continua en los diferentes procesos de negocio en las empresas.

Desde Open3s, tenemos como misión, acompañar a nuestros clientes en esta transición hacía la adaptación de este modelo de infraestructura, a través de nuestra experiencia y conocimiento en las diferentes tecnologías, buscando sinergias entre ellas para que como integradores de soluciones podamos aportar el valor necesario para estrechar relaciones de confianza como socios tecnológicos.   

DomusVi implanta un entorno web scale con el apoyo de Open3s

DomusVi implanta un entorno web scale con el apoyo de Open3s

Hoy presentamos un caso de éxito que hemos desarrollado desde Open3s con un de nuestros clientes, DomusVi.

DomusVi es la mayor red de centros y servicios sanitarios y sociales de atención a las personas mayores y de salud mental del país. Con una amplia proyección nacional e internacional, la empresa gestiona en España más de 22.000 plazas disponibles en 162 centros residenciales y de atención diurna, a lo que se suman unidades destinadas a la atención en el hogar (servicio de ayuda a domicilio y teleasistencia).

Perteneciente al grupo DomusVi, cuenta con 28.000 empleados y 336 centros de atención a la tercera edad, discapacidad y de salud mental en Francia, España y China. Además, atiende anualmente más de 45.000 personas en sus domicilios, a través del Servicio de Ayuda a Domicilio y de Teleasistencia.

Un proyecto de transformación digital (antecedentes y requisitos)

Desde el inicio de su actividad, y a fin de consolidarse como referente en calidad y atención personalizada, DomusVi ha desarrollado diferentes iniciativas encaminadas a la mejora de sus servicios, además de otras relacionadas con la transformación digital de su negocio.

La tecnología aporta herramientas cada vez más sencillas y potentes, lo que en el ámbito sanitario o socio-sanitario se traduce en una oportunidad para ser más eficiente y ofrecer mejores servicios a clientes y empleados. Bajo este prisma y para seguir perpetuando dicha calidad a todos los niveles, la organización ha acometido recientemente un proyecto integral de renovación de su infraestructura de Red y CPD, donde se encuentran alojados los sistemas de información.

La comunicación de todos los Centros y Servicios de DomusVi se realiza a través de una red MPLS con conexión a dos Centros de Proceso de Datos que actúan como CPD principal y de contingencia, respectivamente.

Reto: mejorar rendimiento, disponibilidad y seguridad 

Por la propia evolución del negocio, propiciada por el crecimiento orgánico e inorgánico de la compañía, y buscando una optimización permanente de sus tecnologías, DomusVi lideró a finales de 2014 este proyecto tecnológico basado en la combinación de tecnologías líderes: Arista, Nutanix y Rubrik.

En todo el proceso, Open3s, empresa integradora española especializada en la provisión de tecnologías y servicios innovadores en las áreas de Seguridad e Infraestructuras IT, fue un aliado clave. Desde esta compañía se asesoró al cliente tanto en las labores de prescripción de la tecnología, como en los posteriores procesos de instalación, mantenimiento, desarrollo y servicio de soporte.

«Demandábamos un rendimiento superior de nuestras aplicaciones, además de una mayor agilidad, seguridad y el soporte de nuevos modelos de explotación que nos permitiesen ser más eficientes a nivel de CPD. También, buscábamos ahorrar costes por la disminución de la huella del CPD», explica Juan Francisco Sierra, Director del Departamento de Organización y Sistemas de DomusVi. «Con estos requerimientos sobre la mesa, nuestro partner Open3s nos recomendó la implementación de un bundle de tecnologías líderes sustentadas en el concepto Web Scale y software-defined, y gracias a las cuales nuestras necesidades quedarían cubiertas».

Un despliegue rápido y eficaz

Como partner tecnológico de referencia de la entidad, Open3s participó de forma activa en todo el proceso estructurado en varias fases, separadas en el tiempo. Open3s aportó un diseño innovador utilizando nuevas tecnologías y permitiendo una infraestructura escalable, fácilmente operable e integrada entre ella (red, sistemas, virtualización y seguridad).

Así, y tras una primera fase de implantación de la base de infraestructura hiperconvergente y SDN (Nutanix y Arista), a fin de obtener un entorno web scale que se adaptase a las necesidades del negocio y que derivase en un ahorro inmediato de costes recurrentes, tres años después se optó por desplegar la solución de backup de Rubrik, integrándola en la arquitectura hiperconvergente de Nutanix. Este paso se realizó entre el último trimestre de 2017 y el primero de 2018.

«Antes de arrancar el proyecto evaluamos más de seis soluciones diferentes en entornos tradicionales y en otros más actuales, realizando en más del 50% de los casos una Prueba de Concepto (PoC) para validar la funcionalidad. Destacar el papel de Open3s, fundamental en el soporte para una PoC de un entorno productivo crítico para la compañía», asegura Juan Francisco Sierra. «Huelga decir que, finalmente, la opción elegida fue la mejor, no solo desde el punto de vista técnico sino también, por la óptima integración e interrelación de las tres soluciones. Asimismo, se ha logrado un Retorno de Inversión (ROI) mucho más inmediato que con las soluciones tradicionales». 

A destacar que, tanto la primera instalación como las ampliaciones sucesivas, discurrieron de forma sencilla, máxime considerando lo que supone un cambio completo de la infraestructura de CPD.

Open3s tiene como misión aportar innovación a sus clientes. Por ello, esta empresa busca identificar nuevas tecnologías que ayuden a estos clientes a mejorar sus costes operativos y permitir seguir las necesidades del negocio con mayor facilidad.

«Un entorno web scale es aquel en el que los distintos componentes se van añadiendo de forma sencilla, transparente y bajo demanda, manteniendo igual de bajos los costes operativos independientemente del crecimiento necesario», explica Juan Manuel Pascual, CEO de Open3s. «DomusVi ha dado el salto a un nuevo estándar de centro de datos, en el que la hiperconvergencia, los estándares abiertos, la alta visibilidad y automatización que proporcionan un bajo nivel de gestión, y las soluciones que apenas requieren gestión como SDN, son la clave».

Beneficios obtenidos 

Con la integración de estas soluciones, DomusVi ha conseguido eliminar la barrera de complejidad que acompaña a un centro de datos tradicional, al combinar servidores, almacenamiento, virtualización y redes en una única plataforma cloud, lo que ha permitido que la infraestructura de su CPD sea invisible. De igual modo, el poder visualizar lo que ocurre en la red (información en tiempo real) y el alto nivel de disponibilidad (24/7) asegura a DomusVi no tener que invertir en soluciones o software adicionales, sin olvidar las tareas de backup y recuperación ante desastres, que son ahora mucho más simples y sin costes adicionales.

Asimismo, el contar ahora con todos los elementos hardware y software necesarios para proteger los datos almacenados en los CPDs, permiten a DomusVi asegurar la autenticidad, confidencialidad, integridad, disponibilidad y conservación de los datos, algo necesario teniendo en cuenta la cercanía de RGPD.

En el plano económico, y además de haber optado por la integración de tres soluciones con un TCO reducido (gracias a lo cual se consigue reducir el CapEx y el OpEx) se ha logrado también un importante ahorro de costes gracias, entre otros factores, a un reducido consumo energético directo e indirecto y a menores requisitos espaciales.

Tras la conclusión de este proyecto, DomusVi cuenta ahora con una infraestructura moderna, ágil, adaptable y que aporta un gran rendimiento a los sistemas, además de otras ventajas como disponibilidad, seguridad, y capacidad de recuperación frente a desastres. Es por ello que desde DomusVi tienen pensado volver a confiar en Open3s, como socio de referencia. «Durante este 2018 seguiremos ampliando la infraestructura de red y CPD», concluye Juan Francisco Sierra.