Open3s reconocida con el distintivo “NuMeRu” por sus fabricantes

Open3s reconocida con el distintivo “NuMeRu” por sus fabricantes

Los fabricantes Nutanix, Mellanox y Rubrik han distinguido a Open3s con la insignia “NuMeRu” como especialista reconocido oficialmente, en la integración de estas tecnologías punteras en  la modernización del Datacenter / CPD.

NuMeRu es una combinación de soluciones para el “Next Generation Cpd”. Consiste en una pila integrada de soluciones que facilita la migración desde la anterior generación de infraestructuras del datacenter.

NuMeRu está formada por varias de las soluciones más avanzadas que están liderando la renovación del clásico datacenter. Los componentes principales de esta pila integrada son tanto soluciones de hardware como de software y la conponen:

Nutanix (Nu): plataforma de virtualización y almacenamiento hiperconvergente más avanzada del momento. Proporciona una infraestructura de Cloud Privado / Híbrido ideal para cualquier empresa, en la que prime la seguridad y la rápida gestión unificada. Nutanix proporciona infraestructura de CPD consolidada, unificando en una sola plataforma de gestion las tres capas tradicionales que componen la infraestructura de virtualización: cómputo, virtualización y storage con elevados rendimientos.

Mellanox (Me): el hardware de la solución, que facilita la interconexión y switching Ethernet extremo a extremo. Pensado específicamente para la modernización del CPD, con indicadores de servicio y rendimiento. La tecnología de Mellanox está diseñada para poder integrarse de forma nativa con Nutanix y Rubrik.

Rubrik(Ru): infraestructura unificada de recuperación, contingencia y disaster recovery. Con visión unificada, facilidad de búsqueda y análisis de la información gestionada en un entorno híbrido.

Este reconocimiento es una demostración más de la confianza que los fabricantes  tienen con Open3s, la empresa de referencia en las áreas de Seguridad e Infraestructuras IT avanzadas y pionera en la implantación de estas tecnologías en España.

Mellanox anuncia las plataformas de conmutación más escalables del mundo

Mellanox anuncia las plataformas de conmutación más escalables del mundo

Mellanox ha presentado la nueva familia de Switches InfiniBand Quantum, dentro de esta gama se incluyen:

  • Quantum QM8700 – Top-Of-Rack 40-port 200Gb/s or 80-port 100Gb/s switch platform.
  • Quantum CS8510 – modular 200-port 200Gb/s or 400-port 100Gb/s switch platform.
  • Quantum CS8500 – modular 800-port 200Gb/s or 1600-port 100Gb/s switch platform.

Con hasta 1600 puertos en una sola plataforma, los sistemas de conmutadores cuánticos ofrecen un mayor rendimiento a la vez que reducen los gastos de red de los centros de datos en hasta 4 veces o incluso más

Esta nueva plataforma permitirá a los clientes y usuarios de Mellanox optimizar el uso de espacio y energía reduciendo los gastos del CPD en hasta 4 veces o más mientras que elevarán el rendimiento al doble. Para las implementaciones a escala departamental, un solo switch Quantum QM8700 es capaz de conectar 80 servidores que reflejan 1,7 veces más que los productos de la competencia.

A escala empresarial, una topología de switch Quantum de 2 capas conecta 3200 servidores, que es 2,8 veces más que los productos de la competencia. Para la hiperescala, una topología de switch Quantum de 3 capas conecta 128,000 servidores, o lo que es lo mismo, 4,6 veces más que los productos de la competencia.

Estas ventajas de escalado de CPDs permiten a las infraestructuras de computación de alto rendimiento hacer DeepLearning, almacenamiento en la nube y otras opciones para reducir el coste de sus equipos de red en 4 veces, su gasto de electricidad en 2 veces y mejorar el tiempo de transferencia de datos en 2 veces.

 

“Las plataformas de conmutación HDR 200G Quantum permitirán una escalabilidad mucho mayor al tiempo que reducirá drásticamente el consumo del CPD y los gastos operativos. Quantum permitirá a la próxima generación de computación de alto rendimiento el aprendizaje profundo o Deep Learning, grandes volúmenes de datos, almacenamiento en la nube y plataformas para ofrecer el máximo rendimiento y establecer un camino claro a la informática Exaescala.”

Según palabras de Gilad Shainer, vicepresidente de marketing de Mellanox Technologies

Por otro lado, Kash Shaikh, vicepresidente de gestión de productos y comercialización afirmó que cuando hablan con lo clientes de todo el mundo siguen escuchando los retos a los que se enfrentan en la aplicación de la potencia de la tecnología de computación de alto rendimiento para las nuevas y emergentes áreas que incluyen desde el análisis de datos hasta el Deep Learning

Dell y Mellanox tienen una relación desde hace mucho tiempo y van a seguir trabajando juntos, incluyendo el apoyo futuro de HDR, para ayudar a nuestros clientes a implementar las soluciones adecuadas para ayudarles a navegar en estas tecnologías emergentes.

“Las Nuevas plataformas de conmutación HDR 200G Quantum de Mellanox mantienen la promesa de darnos nuevos niveles de escalabilidad, además de ayudar a reducir los costes del centro de datos”, dijo Leijun Hu, vicepresidente del Grupo de Inspur. “Estamos encantados de ver la introducción de Quantum, que creemos que va a permitir a la próxima generación la aplicaciones de alto rendimiento.”

“La tecnología HDR y Mellanox InfiniBand HDR100 faculta a la innovación a escala”, dijo Li Li, vicepresidente, gerente general de ventas de productos y marketing de Nuevo Grupo H3C. “La incorporación de la tecnología HDR y Mellanox InfiniBand HDR100 en nuestra solución nos permitirá lograr la configuración óptima y tener un mejor control tanto de capital y los gastos operativos.”

“La tecnología de conmutación HDR InfiniBand de Mellanox Quantum proporciona el ancho de banda, escalabilidad y flexibilidad necesarias para ofrecer nuevos niveles de rendimiento y eficiencia para la próxima generación de Deep Learning acelerardo de este modo los sistemas de computación.”

Why iSER is the right high speed Ethernet all-flash interconnect today

The following is a guest blog post from Subjojit Roy, a Senior Technical Staff Member working out of IBM India Labs. 

All-flash storage is bringing change throughout the data center to meet the demands of modern workloads. Fiber Channel has traditionally been the preferred interconnect for all-flash storage. However, 21st century data center paradigms like cloud, analytics, software defined storage, etc. are driving a definitive shift towards Ethernet infrastructure that includes Ethernet connectivity for both server and storage. As Ethernet speeds rapidly increase to 25/40/50/100Gb, it becomes more and more lucrative as an interconnect to all-flash storage. While traditional iSCSI has gained significant ground as Ethernet interconnect to storage, inefficiencies in the TCP/IP stack don’t allow it to be the preferred interconnect to all flash storage.

In comes iSER (iSCSI Extensions over RDMA) that maps the iSCSI protocol to RDMA (Remote Direct Memory Access). iSER provides an interconnect that is very capable of rivaling Fiber Channel as the all-flash interconnect of choice. It leaves the administrative framework of iSCSI untouched while mapping the data path over RDMA. As a result, management applications like VMWare vCenter, OpenStack, etc. continue to work as is, while the iSCSI data path gets a speed boost from Remote Direct Memory Access. A move from traditional iSCSI to iSER would thus be a painless affair that doesn’t require any new administrative skills.

iSER retains all the enterprise class capabilities that are expected off Tier 1 shared storage. It also matches or beats Fiber Channel in terms of access latency, bandwidth and IOPS. Capabilities like multipath IO, SCSI Reservations, Compare and Write, vVols support, and offloaded data copy operations like XCOPY/ODX will work from day one on iSER. In addition, iSER benefits from all the SCSI error recovery techniques that have evolved over the years – things like LUN Reset, Target Reset, Abort Task, etc. In essence, all enterprise class applications will continue to work as reliably and seamlessly over iSER as they used to work over iSCSI.

The diagram below shows how iSCSI is involved in the iSER IO path only for the Command and Statusphases while the Data Transfer phase is totally taken care of by RDMA transfers directly into application buffers without involving a copy operation. This compares well with NVMeF in terms of latency reduction.

 

NVMe over Fabrics or NVMeF is a new protocol that promises to take all-flash interconnect technology to the promised land of extreme performance and parallelism and there are a lot of expectations from it. It is a protocol that is still evolving, and therefore not mature enough to meet the requirements of clustered applications running over shared Tier 1 all-flash storage. And it is a quantum jump that not only expects the user to move to high speed Ethernet technology from Fiber Channel but a totally new protocol with a new, unfamiliar administrative model. It is likely that NVMeF will take some time to mature as a protocol before it can be accepted in data centers requiring Tier 1 shared all-flash storage. In addition to that applications must adapt to a new queuing model to exploit the parallelism offered by flash storage.

That leaves iSER as the right technology to bridge the gap and step in as the preferred interconnect for shared all-flash storage today. iSER is ready from day one for latency, IOPS and bandwidth hungry applications that want to exploit high speed Ethernet technology, both as a north-south and east-west interconnect. IO parallelism may not be as high as promised by NVMeF, but it’s sufficient for all practical purposes without requiring applications to be rewritten to fit into a new paradigm.

By implementing iSER today, the move from Fiber Channel to high speed Ethernet can be tried out without ripping out the entire administrative framework or the need to rewrite applications. A gradual move from Fiber Channel to RDMA over Ethernet replaces the layer 2 transport protocol and helps assess the newer protocol in terms of its stability, resiliency and error recovery capabilities that are essential for a SAN storage interconnect. Once proven, the same RDMA technology can then be leveraged to bring in NVMeF which promises more in the future. Since iSER and NVMeF will work equally well on the same hardware, the infrastructure investment made in iSER is protected for the long term.

At IBM we are working toward enabling our customers to move to data center infrastructure that consists purely of Ethernet interconnects with speeds scaling rapidly from 10 – 100Gbps. Built over iSER, this capability is all-flash storage ready from day one. Agnostic of the underlying RDMA capable networking, it is likely to be very attractive to software defined storage infrastructure that is expected to be built from commodity hardware. It enables IBM Spectrum Virtualize products (IBM Storwize and IBM SVC) to be deployed on cloud infrastructure where Ethernet is the only available infrastructure. And in order to get there, we have partnered with multiple hardware and software vendors that are at the forefront of the high speed Ethernet revolution.

So get ready to experience all-flash storage connected over high speed Ethernet from IBM sometime in the near future!

Subhojit is Senior Technical Staff Member working out of IBM India Labs, Pune. He works as development architect for the IBM Spectrum Virtualize product. He has worked for 23 years in Data Storage, Storage Virtualization, Storage Networking etc. across organizations like IBM, Veritas, Brocade & Symantec etc. At IBM he has been driving Ethernet & IP Storage architecture and roadmap for the IBM Spectrum Virtualize products. Currently he is working on high speed Ethernet interconnect for all flash storage including iSER and NVMeF. Prior to IBM he has been responsible for key features for Enterprise Storage products in his earlier organizations. He is Master Inventor and Member Academy of Technology at IBM. He owns significant Intellectual Property in the form of patents and has more than 50 granted and filed patent applications. He can be found on Twitter @sroy_sroy and on LinkedIn at https://www.linkedin.com/in/roysubhojit/.