Open Source And Security Services

Open Source And Security Services

Mellanox anuncia las plataformas de conmutación más escalables del mundo

Mellanox anuncia las plataformas de conmutación más escalables del mundo

Mellanox ha presentado la nueva familia de Switches InfiniBand Quantum, dentro de esta gama se incluyen:

  • Quantum QM8700 – Top-Of-Rack 40-port 200Gb/s or 80-port 100Gb/s switch platform.
  • Quantum CS8510 – modular 200-port 200Gb/s or 400-port 100Gb/s switch platform.
  • Quantum CS8500 – modular 800-port 200Gb/s or 1600-port 100Gb/s switch platform.

Con hasta 1600 puertos en una sola plataforma, los sistemas de conmutadores cuánticos ofrecen un mayor rendimiento a la vez que reducen los gastos de red de los centros de datos en hasta 4 veces o incluso más

Esta nueva plataforma permitirá a los clientes y usuarios de Mellanox optimizar el uso de espacio y energía reduciendo los gastos del CPD en hasta 4 veces o más mientras que elevarán el rendimiento al doble. Para las implementaciones a escala departamental, un solo switch Quantum QM8700 es capaz de conectar 80 servidores que reflejan 1,7 veces más que los productos de la competencia.

A escala empresarial, una topología de switch Quantum de 2 capas conecta 3200 servidores, que es 2,8 veces más que los productos de la competencia. Para la hiperescala, una topología de switch Quantum de 3 capas conecta 128,000 servidores, o lo que es lo mismo, 4,6 veces más que los productos de la competencia.

Estas ventajas de escalado de CPDs permiten a las infraestructuras de computación de alto rendimiento hacer DeepLearning, almacenamiento en la nube y otras opciones para reducir el coste de sus equipos de red en 4 veces, su gasto de electricidad en 2 veces y mejorar el tiempo de transferencia de datos en 2 veces.

 

“Las plataformas de conmutación HDR 200G Quantum permitirán una escalabilidad mucho mayor al tiempo que reducirá drásticamente el consumo del CPD y los gastos operativos. Quantum permitirá a la próxima generación de computación de alto rendimiento el aprendizaje profundo o Deep Learning, grandes volúmenes de datos, almacenamiento en la nube y plataformas para ofrecer el máximo rendimiento y establecer un camino claro a la informática Exaescala.”

Según palabras de Gilad Shainer, vicepresidente de marketing de Mellanox Technologies

Por otro lado, Kash Shaikh, vicepresidente de gestión de productos y comercialización afirmó que cuando hablan con lo clientes de todo el mundo siguen escuchando los retos a los que se enfrentan en la aplicación de la potencia de la tecnología de computación de alto rendimiento para las nuevas y emergentes áreas que incluyen desde el análisis de datos hasta el Deep Learning

Dell y Mellanox tienen una relación desde hace mucho tiempo y van a seguir trabajando juntos, incluyendo el apoyo futuro de HDR, para ayudar a nuestros clientes a implementar las soluciones adecuadas para ayudarles a navegar en estas tecnologías emergentes.

“Las Nuevas plataformas de conmutación HDR 200G Quantum de Mellanox mantienen la promesa de darnos nuevos niveles de escalabilidad, además de ayudar a reducir los costes del centro de datos”, dijo Leijun Hu, vicepresidente del Grupo de Inspur. “Estamos encantados de ver la introducción de Quantum, que creemos que va a permitir a la próxima generación la aplicaciones de alto rendimiento.”

“La tecnología HDR y Mellanox InfiniBand HDR100 faculta a la innovación a escala”, dijo Li Li, vicepresidente, gerente general de ventas de productos y marketing de Nuevo Grupo H3C. “La incorporación de la tecnología HDR y Mellanox InfiniBand HDR100 en nuestra solución nos permitirá lograr la configuración óptima y tener un mejor control tanto de capital y los gastos operativos.”

“La tecnología de conmutación HDR InfiniBand de Mellanox Quantum proporciona el ancho de banda, escalabilidad y flexibilidad necesarias para ofrecer nuevos niveles de rendimiento y eficiencia para la próxima generación de Deep Learning acelerardo de este modo los sistemas de computación.”

La vulnerabilidad Krack WPA2

La vulnerabilidad Krack WPA2

SOBRE LA VULNERABILIDAD KRACK WPA2

Actualmente WPA2 es el protocolo que aporta una mayor seguridad en redes WiFi y recientemente se hizo pública información referente a ciertas debilidades en este protocolo.

Estas debilidades se han bautizado con el nombre de KRACK (key reinstallation attacks).

El alcance de dichas debilidades depende de la propia configuración de la red WiFi y de la implementación de los distintos fabricantes. Prácticamente todo dispositivo WiFi que implemente de manera correcta el protocolo está afectado.

CONSECUENCIAS DE KRACK

El alcance de esta vulnerabilidad puede permitir:

  • Descifrar tráfico de la red WiFi (permitiendo secuestrar conexiones TCP, capturar información sensible si los protocolos de transporte no usan cifrado, por ejemplo, HTTP en lugar de HTTPS, etc.)
  • Reproducir tramas de broadcast/multicast
  • Inyectar tráfico en la red WiFi (sólo TKIP o GCMP)
  • Forzar a utilizar una clave de cifrado predecible (sólo Android 6.0+ y Linux)

LO BUENO

  • Los fabricantes deberían asumir responsabilidad del problema y corregirlo mediante las actualizaciones pertinentes

LO MALO

  • Muchos dispositivos no dispondrán de una forma sencilla de aplicar actualizaciones
  • Mucha variedad de dispositivos, puede no ser sencillo encontrar actualización para todos los dispositivos
  • El ataque afecta a puntos de acceso y clientes, es importante actualizar ambas partes. Actualizar solo una de las partes no evita el problema

LO MÁS MALO

  • Ataques a plataformas Android 6.0+ son muy fáciles de realizar
  • Dispositivos IoT pueden no recibir actualización nunca

RECOMENDACIONES

  • Aplicar actualizaciones en el firmware de los puntos de acceso que solucionen el problema
  • Utilizar únicamente como protocolo/cifrado WPA2/AES-CCMP, lo cual minimiza el impacto del problema
  • Aislar las redes WiFi y evitar el uso de protocolos en claro en dichas redes, al menos, para acceso a recursos internos de la compañía. Generalmente se recomienda que los usuarios que trabajen por WiFi, lo hagan mediante VPN
  • Aplicar actualizaciones en los sistemas operativos (especialmente importante en plataformas Linux y Android 6.0+)
  • En dispositivos Android 6.0+, deshabilitar la WiFi hasta disponer de un parche que solucione el problema

LO QUE NO SE PUEDE HACER

  • Obtener la clave WPA
  • Inyectar paquetes (si se utiliza AES-CCMP)

Fuente: https://github.com/kristate/krackinfo

Para más información puedes contactar con nosotros en info@open3s.com.

Arquitectura híbrida con Nutanix y Google Cloud + Kubernetes

Hace poco Kubernetes anunció un strategic partnership con Nutanix para ayudar a eliminar las problemas en los despliegues de cloud híbridos para empresas:https://www.blog.google/topics/google-cloud/nutanix-and-google-cloud-team-simplify-hybrid-cloud/Los cloud híbridos, entendiéndose estos como la suma de un despliegue on-premise y en cloud público (como Google Cloud), permiten a las organizaciones correr aplicaciones en ambos y aprovecharse de sus ventajas:— Incrementar la velocidad de puesta en producción de nuevos productos y funcionalidades,— Incrementar los recursos para dar servicio a las demandas de los clientes,— Mover aplicaciones al cloud público al ritmo que ellos necesiten,— Reducir el tiempo que se dedica a infraestructura, e incrementar el tiempo que se dedica a escribir código,— Reducir costes al mejorar la utilización de los recursos y la eficiencia de computación. leer más…

UDS Enterprise fortalece su alianza con Nutanix

 

El Equipo de Alianzas de Nutanix ha reconocido el compromiso de VirtualCable por alcanzar la excelencia en el desarrollo de una solución VDI conjunta formada por el hipervisor Acropolis de Nutanix y nuestro broker de conexiones UDS Enterprise.

UDS enterprise a recibido la distinción Nutanix Ready AHV-Integrated technology validation, que se suma a la certificación Nutanix Ready para Virtualización de Escritorios otorgada hace dos años.

El fabricante de soluciones hiperconvergentes ha creado además un microsite dentro de su página web centrado en exclusiva en las ventajas y el óptimo funcionamiento de una plataforma de escritorios virtuales con UDS Enterprise y Nutanix Acropolis.

Novedades sobre AHV Networking

Nutanix

¿Se tarda demasiado en la implementación de aplicaciones?

Normalmente así es, en vez de horas lleva semanas. Y es que los procesos manuales y el intercambio continuo de mensajes entre el equipo de aplicación y el equipo de red suelen alargar de horas a semanas el tiempo que se tarda en desplegar una aplicación.

Si la red se acaba pareciendo cada vez más a una caja negra, o si la gestión de los proyectos de aplicación parece alargarse en el tiempo sin final, el conjunto de herramientas de red disponible en Nutanix AHV ayuda a simplificar las operaciones de red y poner los proyectos en funcionamiento de forma rápida y segura.

Hoy en día los programas dependen más que nunca de la red. Las best-practices del diseño de aplicaciones recomiendan separar las funciones más importantes utilizando múltiples contenedores, máquinas virtuales o hosts para proporcionar escalabilidad y un fácil mantenimiento, y después toca conectar cada una de las partes a la red. Independientemente de la plataforma de despliegue que se utilice, la red es parte de la aplicación.

Cuando hay un problema en la red, la aplicación es el primer lugar donde aparece el problema. Cuando hay que hacer crecer la aplicación o agregar un nuevo servicio, se debe configurar la red física y virtual para que las nuevas piezas puedan hablar con los componentes existentes. Cuando un atacante consigue un punto de entrada en una parte de la aplicación, puede utilizar esta misma red para explorar todas las piezas conectadas a la aplicación.

Entonces, para poder manejar toda esta complejidad que hay en despliegue y gestión de la red de las aplicaciones, hay tres cosas esenciales:

  • Visualización
  • Automatización
  • Seguridad

En esta serie de posts analizamos y nos centramos en estos requisitos de red, destacando las características de AHV anunciadas en Nutanix .NEXT que te ayudan a montar una red en un solo clic.

  • Parte 1: Visualización de la red AHV (este post)
  • Parte 2: Automatización e integración de red de AHV
  • Parte 3: Microsegmentación de la red AHV
  • Parte 4: Cadenas de la red de la red AHV

leer más…

Why iSER is the right high speed Ethernet all-flash interconnect today

The following is a guest blog post from Subjojit Roy, a Senior Technical Staff Member working out of IBM India Labs. 

All-flash storage is bringing change throughout the data center to meet the demands of modern workloads. Fiber Channel has traditionally been the preferred interconnect for all-flash storage. However, 21st century data center paradigms like cloud, analytics, software defined storage, etc. are driving a definitive shift towards Ethernet infrastructure that includes Ethernet connectivity for both server and storage. As Ethernet speeds rapidly increase to 25/40/50/100Gb, it becomes more and more lucrative as an interconnect to all-flash storage. While traditional iSCSI has gained significant ground as Ethernet interconnect to storage, inefficiencies in the TCP/IP stack don’t allow it to be the preferred interconnect to all flash storage.

In comes iSER (iSCSI Extensions over RDMA) that maps the iSCSI protocol to RDMA (Remote Direct Memory Access). iSER provides an interconnect that is very capable of rivaling Fiber Channel as the all-flash interconnect of choice. It leaves the administrative framework of iSCSI untouched while mapping the data path over RDMA. As a result, management applications like VMWare vCenter, OpenStack, etc. continue to work as is, while the iSCSI data path gets a speed boost from Remote Direct Memory Access. A move from traditional iSCSI to iSER would thus be a painless affair that doesn’t require any new administrative skills.

iSER retains all the enterprise class capabilities that are expected off Tier 1 shared storage. It also matches or beats Fiber Channel in terms of access latency, bandwidth and IOPS. Capabilities like multipath IO, SCSI Reservations, Compare and Write, vVols support, and offloaded data copy operations like XCOPY/ODX will work from day one on iSER. In addition, iSER benefits from all the SCSI error recovery techniques that have evolved over the years – things like LUN Reset, Target Reset, Abort Task, etc. In essence, all enterprise class applications will continue to work as reliably and seamlessly over iSER as they used to work over iSCSI.

The diagram below shows how iSCSI is involved in the iSER IO path only for the Command and Statusphases while the Data Transfer phase is totally taken care of by RDMA transfers directly into application buffers without involving a copy operation. This compares well with NVMeF in terms of latency reduction.

 

NVMe over Fabrics or NVMeF is a new protocol that promises to take all-flash interconnect technology to the promised land of extreme performance and parallelism and there are a lot of expectations from it. It is a protocol that is still evolving, and therefore not mature enough to meet the requirements of clustered applications running over shared Tier 1 all-flash storage. And it is a quantum jump that not only expects the user to move to high speed Ethernet technology from Fiber Channel but a totally new protocol with a new, unfamiliar administrative model. It is likely that NVMeF will take some time to mature as a protocol before it can be accepted in data centers requiring Tier 1 shared all-flash storage. In addition to that applications must adapt to a new queuing model to exploit the parallelism offered by flash storage.

That leaves iSER as the right technology to bridge the gap and step in as the preferred interconnect for shared all-flash storage today. iSER is ready from day one for latency, IOPS and bandwidth hungry applications that want to exploit high speed Ethernet technology, both as a north-south and east-west interconnect. IO parallelism may not be as high as promised by NVMeF, but it’s sufficient for all practical purposes without requiring applications to be rewritten to fit into a new paradigm.

By implementing iSER today, the move from Fiber Channel to high speed Ethernet can be tried out without ripping out the entire administrative framework or the need to rewrite applications. A gradual move from Fiber Channel to RDMA over Ethernet replaces the layer 2 transport protocol and helps assess the newer protocol in terms of its stability, resiliency and error recovery capabilities that are essential for a SAN storage interconnect. Once proven, the same RDMA technology can then be leveraged to bring in NVMeF which promises more in the future. Since iSER and NVMeF will work equally well on the same hardware, the infrastructure investment made in iSER is protected for the long term.

At IBM we are working toward enabling our customers to move to data center infrastructure that consists purely of Ethernet interconnects with speeds scaling rapidly from 10 – 100Gbps. Built over iSER, this capability is all-flash storage ready from day one. Agnostic of the underlying RDMA capable networking, it is likely to be very attractive to software defined storage infrastructure that is expected to be built from commodity hardware. It enables IBM Spectrum Virtualize products (IBM Storwize and IBM SVC) to be deployed on cloud infrastructure where Ethernet is the only available infrastructure. And in order to get there, we have partnered with multiple hardware and software vendors that are at the forefront of the high speed Ethernet revolution.

So get ready to experience all-flash storage connected over high speed Ethernet from IBM sometime in the near future!

Subhojit is Senior Technical Staff Member working out of IBM India Labs, Pune. He works as development architect for the IBM Spectrum Virtualize product. He has worked for 23 years in Data Storage, Storage Virtualization, Storage Networking etc. across organizations like IBM, Veritas, Brocade & Symantec etc. At IBM he has been driving Ethernet & IP Storage architecture and roadmap for the IBM Spectrum Virtualize products. Currently he is working on high speed Ethernet interconnect for all flash storage including iSER and NVMeF. Prior to IBM he has been responsible for key features for Enterprise Storage products in his earlier organizations. He is Master Inventor and Member Academy of Technology at IBM. He owns significant Intellectual Property in the form of patents and has more than 50 granted and filed patent applications. He can be found on Twitter @sroy_sroy and on LinkedIn at https://www.linkedin.com/in/roysubhojit/.