COVID-19 en datos

Tiempo de lectura: 6 minutos

Actualización 13/03/2020: Ya hemos publicado la web de actualización diaria con los indicadores y métricas más relevantes del COVID-19 en España. Puedes acceder a través de este enlace.

La situación actual a nivel mundial asusta bastante. Constantemente estamos recibiendo noticias sobre la magnitud del coronavirus (bautizado posteriormente como COVID-19).

Lo cierto es que en el mundo en que vivimos, con acceso a tantísima información, hay veces que se hace difícil dar con un sitio concreto donde encontrar la información que necesitamos de manera directa y resumida. Día a día, en España, sabemos el estado de la recientemente declarada pandemia gracias a distintos informativos, pero cuando intentamos buscar información resumida, visualmente comprensible y actualizada, la tarea es ardua.

Dada esta situación, en Open3s se nos ha ocurrido que dotar de esta información al ciudadano, con distintas métricas sencillamente comprensibles, mostrando tendencias y evoluciones, sería muy útil para cualquier persona. Hemos decidido generar un dashboard en el que se pudieran consultar datos actualizados de la situación actual y su tendencia tanto a nivel global como en España. Es cierto que a nivel global existen algunos recursos en los que encontrar información sobre la situación actual, pero en España excepto por informes que se publican de manera diaria no hay un lugar donde acceder a estos indicadores.

A continuación hablaremos sobre el trabajo realizado, conclusiones extraídas, así como los retos que hemos enfrentado.

 

Retos

El reto más importante ha sido obtener los datos. Nos hemos encontrado con que, tras mucho investigar, no había ninguna fuente de datos en crudo lista para consumir con toda la información sobre el COVID-19 en España. Mundialmente sí hay algunas fuentes e incluso APIs para consulta bajo demanda, pero para el caso concreto de España y sus comunidades autónomas no.

Finalmente hemos recurrido al Ministerio de Sanidad, que publica de manera diaria un reporte de casos por Comunidad Autónoma, pero con el trabajo previo de convertir los datos de su informe a un dataset que indexar en la plataforma. En esos datos hemos echado en falta el número de recuperaciones por Comunidad, dato que sí está en otros reportes globales. Un dato interesante publicado por el Ministerio es la IA (incidencia cada 100.000 habitantes), lo cuál nos puede dar una idea de la magnitud de los contagios.

 

Datos del COVID-19 en España

Por lo tanto, finalmente contamos con los siguientes datos de manera diaria por Comunidad Autónoma:
• Número total de casos
• IA
• Ingresados en UCI
• Fallecidos

Hemos tenido que procesar los datos para obtener de cada día nuevos casos, nuevos fallecidos, y nuevos ingresados en UCI ya que los datos publicados son totalizados.

 

Conclusiones obtenidas

 

Casos totales

En primer lugar, en el día de hoy, nos encontramos con que la cifra total de detecciones de las últimas 24 horas en España va subiendo muy rápidamente, y si nos fijamos en la evolución por Comunidad Autónoma vemos que Madrid tiene un ritmo de propagación mucho más alto que el resto. El día 6 de Marzo es el punto de inflexión en Madrid a partir del cuál aumenta significativamente día a día, aunque el 11 de Marzo se observa un descenso de contagios que no continua en el tiempo.

En España contamos ya con 2.950 contagios, y si nos paramos a analizar la evolución vemos que desde el día 5 de Marzo estamos experimentando una subida muy acelerada. Sin embargo, el crecimiento (% de subida respecto al día anterior) ha descendido de un 95% a un 47% de ayer a hoy (pese a que la cifra de contagios sigue aumentando).

De un vistazo rápido se puede apreciar que casi la mitad de los contagios se sitúan en la Comunidad de Madrid (46%), siendo el País Vasco la segunda Comunidad Autónoma más afectada (11%).

 

Fallecimientos

El número diario de fallecidos también empieza a aumentar de manera rápida, y al igual que los contagios, en Madrid la cifra asciende muy por encima y más rápido que en el resto de comunidades autónomas, llegando a día de hoy a duplicarse respecto al día de ayer.

En España han fallecido ya 84 personas, viviendo desde el 5 de Marzo una subida muy acusada diariamente. El crecimiento indica que del día 5 al 6 de Marzo se produjo el mayor porcentaje, pasando de 5 a 16 fallecidos (más del triple en un solo día).

Los fallecimientos en Madrid suponen un 67% del total (cifra más elevada que el % de casos totales de Madrid respecto al resto de comunidades), seguido por el País Vasco, con un 13%. Llama la atención que los % de fallecidos no se corresponden necesariamente con los % de contagiados por Comunidad Autónoma.

 

Estado crítico

Son 190 las personas que se encuentran en estado crítico ingresadas en unidades de cuidados intensivos. Analizando el crecimiento vemos que este número sufrió una subida drástica respecto al día anterior el 9 de Marzo, pasando de 11 a 68 pacientes en estado crítico.

Si nos fijamos en las cifras por Comunidad Autónoma llegamos a la conclusión de que el 71% de los pacientes críticos se encuentran en Madrid, con cifras mucho más bajas en el resto de comunidades autónomas.

 

IA (Incidencia cada 100.000 habitantes)

Un dato interesante para medir la magnitud de los contagios es la IA, que mide la incidencia cada 100.000 habitantes. Ahora mismo esta cifra se sitúa de media en España en casi un 8%, subiendo desde el 1% en que se situaba el 5 de Marzo.

El análisis de esta cifra por Comunidad Autónoma refleja hallazgos sorprendentes, puesto que en lugar de posicionarse Madrid con la IA más alta, está en primer lugar La Rioja. Dado que Madrid tiene muchos contagios, pero una población muy grande, esa cifra está en torno a un 21%. La Rioja, región muy afectada por COVID-19, tiene una IA de casi un 65%.

 

Valor aportado

Creemos que con el ejercicio realizado podemos aportar a los ciudadanos una visión que previamente no tenían. Queremos facilitar la extracción de conclusiones y el acceso a información sintetizada para toda la población de manera que puedan estar informados sin tener que bucear entre las miles y miles de noticias que se publican constantemente sobre la situación con el COVID-19.

Esperamos no tener que mantener este ejercicio durante mucho tiempo ya que significará que todo está controlado y que la población no sufre ningún riesgo. No obstante, mientras dure, nuestra intención es seguir informando basándonos en fuentes oficiales, posibilitando que Big Data y Analytics sean de utilidad para los ciudadanos de a pie.

Autora: Nerea Sánchez Fernández, Area Manager Big Data

Splunk, the Data-to-Everything Platform

Nos lo creamos o no, todas las cifras nos dicen que “Researches predict that by year…”. Lo que sí es cierto es que cada vez todo es más tecnológico y se generan más datos.

Si todos son útiles o no, dependerá de cada uno. Pero que una buena parte de ellos es esencial para que una empresa funcione, es indiscutible.

Y aquí es donde Open3s, como primer Partner en España, desde 2009, con TB de licencias vendidas, más de 1 PB de datos gestionados y más de 200 clientes multinacionales, IBEX 35 y PyMEs, apuesta por Splunk y su nueva filosofía Data-to-Everything.

To bring data to everything. Every question, every decision and every action.

Splunk, the Data-to-Everything Platform

Esta nueva filosofía viene, además, acompañada de nuevas opciones y precios, más predecibles y versátiles, relacionadas con los datos o la infraestructura.

Splunk: viendo el bosque y los árboles

Donde unos ven servidores y dispositivos, aplicaciones y registro, tráfico y nubes, nosotros vemos datos útiles y valiosos a través de la plataforma de Inteligencia Operacional líder del sector.

Splunk provides mobile friendly dashboards

Desde ITOps a DevOps e IoT, pasando por Seguridad. Como Líder del SIEM Magic Quadrant de Gartner por cuarto año consecutivo y como el que más ‘Completeness of Vision’ aporta, Splunk permite ver tanto el bosque como los árboles.

Splunk provides drilldown capabilities for dashboards and KPIs

Porque sin datos, solo existen opiniones

Sin datos solo se pueden dar opiniones. Pero las decisiones corporativas no deberían realizarse en base a opiniones, sino a datos reales. Datos que proporcionan una visión en Tiempo Real sobre todas las plataformas corporativas, sin silos, aunando Operaciones y Negocio, y haciendo a IT un partner imprescindible dentro de la corporación.

Splunk glasstable - Visibilidad total de los procesos

Porque con las Métricas podremos preguntarnos: ¿Tengo un problema?

Con las Trazas podremos preguntarnos: ¿Dónde está el problema?

Y con los Logs podremos responder qué nos está causando el problema.

Si cuando tengas un problema quieres saber qué lo está causando…aprovecha al máximo la información que te dan tus datos.

Monitorización al servicio del negocio (Parte II)

Hoy continuamos con la serie de artículos de Monitorización al servicio del negocio. En el artículo anterior hacíamos un recorrido sobre la necesidad de implementar este tipo de monitorizaciones y por qué. Hoy queremos hablar del nuevo enfoque que puede tener la monitorización ofreciendo una visión orientada a servicio, cubriendo los gaps que históricamente tenían las monitorizaciones tradicionales.

 

El enfoque que la monitorización debería tener hoy en día

Con la transformación digital cada vez se añaden más capas que deben ser monitorizadas, comprobando el estado de distintos servicios o flujos. Antes bastaba con monitorizar de manera aislada distintos componentes de tu ecosistema IT; ahora es necesario modelar la monitorización para que te ofrezca un control de todas las capas IT de manera holística; lo que llamamos monitorización E2E.

Tras la era de la digitalización, las maneras de operar han cambiado por completo. Cualquier compañía tiene ya aplicaciones móviles o portales web que dan servicio a sus clientes. Estos pueden comunicarse con asistentes virtuales que les facilitan la ejecución de acciones. Por ejemplo: abrir una nueva cuenta en un banco, contratar una nueva tarifa móvil e incluso buscar productos y añadirlos a la cesta en una tienda online.

Como vemos en la imagen, son capas tecnológicas que se van añadiendo y requieren su propia monitorización. No sólo existen las propias capas de tu ecosistema, también debemos monitorizar las de terceros (por ejemplo, pasarelas de pago).

 

¿Y si ponemos un ejemplo para contextualizarlo?

Imaginemos un cliente con aplicación móvil/site online cuyo negocio depende de éstos, por ejemplo de comida a domicilio. Para su negocio es totalmente crítico que el usuario reciba un error por el cual no pueda operar. Ese error, con tantas capas tecnológicas, puede tener su origen en múltiples puntos: una base de datos que está caída, un servidor de aplicaciones que devuelve un timeout, un problema de comunicaciones, etc.

Con una monitorización holística se puede identificar la causa raíz de una incidencia de manera muy rápida. Además, facilita el troubleshooting disminuyendo así los tiempos de recuperación y el impacto en negocio.

Este tipo de monitorizaciones permiten tener en cuenta todas las posibles casuísticas, cubriendo el gap de reproducibilidad que tienen las monitorizaciones tradicionales. Por ejemplo, pongamos el caso de un cliente con 3 aplicaciones móviles que dan servicio a sus usuarios.


Dichos usuarios, usan Android o iOS como plataforma, pudiendo tener hasta 50 versiones distintas de sistema operativo. No todos los usuarios actualizan las aplicaciones móviles, por lo que hay casuísticas con 34 versiones distintass. Un cálculo sencillo: si multiplicamos las variables para las distintas combinaciones que podrían desencadenar un error para el usuario nos encontramos con más de 10200 posibilidades. ¿Cómo plantearse replicar el comportamiento de cada una de esas combinaciones con monitorizaciones tradicionales o sondas? Además de tener en cuenta la navegación del usuario, que poniendo el caso de un cliente que tenga 10000/hora, hace que las posibilidades sean infinitas.

 

¿Qué permiten estos nuevos enfoques de monitorización?

Con sistemas de monitorización que permiten la recolección de grandes cantidades de datos real time (tanto estructurados como desestructurados) y que posibilitan la aplicación de lógicas complejas, podemos llegar a aplicar este tipo de monitorizaciones. Volviendo al ejemplo de las aplicaciones móviles, si la plataforma de monitorización permite recolectar en tiempo real todos los datos de navegación, usabilidad y errores de éstas, podemos tener una monitorización que cubra todas las posibilidades.

El hecho de tener en una plataforma distintas fuentes de datos hace posible la ejecución de monitorizaciones más avanzadas e inteligentes. Pasamos de levantar una alerta a aplicar lógicas complejas correlando distintas fuentes de datos. Por ejemplo, cruzar datos de consumo de recursos con el número de transacciones por minuto.

Estas monitorizaciones ofrecen un enfoque de servicio gracias a la capacidad para modelarlas con jerarquías, dependencias y ponderación de impactos. Si volvemos a la imagen anterior, tendríamos distintos elementos de IT que dan servicio a las aplicaciones móviles y a los bots. Un fallo en un componente IT que da servicio a las apps móviles se puede modelar para que tenga impacto en éstas. Así, podremos ver que el estado de nuestras aplicaciones móviles se ha visto degradado e identificar dónde está el fallo. Además de establecer dependencias, podemos modelar los impactos.

¿Un ejemplo?

Pongamos como ejemplo la monitorización de una web. Los usuarios podemos efectuar una reserva, hacer un pago, darnos de alta, solicitar una cancelación, etc… El negocio dependerá de todos esos servicios aunque no en la misma medida; un fallo en el servicio de pagos es mucho más crítico que un fallo en el servicio de cancelaciones. Todos estos servicios se pueden modelar de acuerdo a su importancia.

Si la monitorización se ha modelado para que el servicio de pagos tenga una importancia alta si este falla, degradará por completo nuestro negocio:


Sin embargo, si el que falla es el servicio de devoluciones, veremos que nuestro negocio está experimentando algún problema pero no crítico; el resto de servicios con mayor peso están OK:

 

 

¿Cuáles son los objetivos de estas monitorizaciones?

• Ofrecer una visión orientada a servicio.
Identificar causa raíz y mejora de tiempos operacionales. Permitir de una manera rápida identificar cuál es el origen del problema para trabajar en su resolución lo antes posible.
Minimización de impacto, el objetivo principal. Si se logra una rápida (incluso anticipada) identificación y actuación sobre los problemas el tiempo de impacto se ve reducido.
• Pasar de un comportamiento reactivo a proactivo. Tratamos de lograr identificar los problemas antes que los usuarios.
• Ofrecer servicios de calidad. Podemos detectar y resolver problemas de manera más óptima, y tener una visión de la salud de los servicios que previamente no teníamos.
Cubrir los gaps que tienen las herramientas de monitorización tradicional complementándolas (no tienen porqué sustituirlas).

Todos hemos vivido la situación de enfrentarnos a una incidencia crítica cuando las distintas monitorizaciones, de manera aislada, reflejaban que todo estaba bien. Lo que buscamos con estas monitorizaciones es evitar esas situaciones a nuestros clientes. Si buscas monitorizar tus procesos de manera avanzada, inteligente y con una visión de servicio y negocio, no dudes en contactar con nosotros para que te contemos más y ver cómo ayudarte en tu caso concreto.

¡Hasta la próxima!

Autora: Nerea Sánchez Fernández, Area Manager Big Data.

Monitorización al servicio del negocio (Parte I)

En los últimos tiempos se está produciendo una transformación digital que está cambiando el negocio y los procesos internos de todas las compañías. El principal objetivo es ofrecer un mejor servicio a los clientes, ser más ágiles y efectivos, obteniendo mayores beneficios. Este cambio que tienen que afrontar las compañías no es sencillo ni rápido; debe armonizarse con todas las piezas del puzzle IT, como por ejemplo, la monitorización la cual ha de soportar todos esos nuevos elementos y nuevas tecnologías que se van incluyendo a los procesos de las compañías.

Dicha transformación está presente en temas muy cotidianos. A continuación vamos a comentar algunos ejemplos de ello.

Compras

Hace años para efectuar una compra debías desplazarte a un comercio concreto, en un horario concreto y cargar con tu compra hasta casa.
Actualmente, tenemos las compras a golpe de click. Cuando se nos pasa por la cabeza la necesidad de adquirir cualquier artículo es tan sencillo como entrar en una web o aplicación móvil, seleccionar lo que se necesita comprar, efectuar el pago y el método de envío.

Banca

Probablemente el sector que más se está digitalizando sea este. Antes de la era de la transformación digital la única manera de operar en banca era desplazándote de manera física a una oficina para efectuar operaciones como la apertura de una cuenta o una transferencia de dinero.

Hace un año tuve que abrir una cuenta nueva (la verdad, llevaba años sin hacerlo); me sorprendí de la facilidad puesto que ya se puede hacer completamente en remoto, videollamada incluida de un gestor para verificar tu identidad.

Hoy en día poca gente se desplaza a una sucursal para efectuar una transferencia. En lugar de eso, entramos en nuestra aplicación móvil o portal web de cliente y operamos desde allí; cómodo, flexible, y supone un importante ahorro de tiempo.

Seguros

Cuando antes necesitabas contratar un seguro, debías desplazarte a una oficina; hablar con un asesor de las opciones disponibles, ver cuál se adaptaba mejor a tus necesidades, y firmar de manera física un contrato. En los tiempos que corren, tú mismo de manera autónoma podrías entrar en el site de una aseguradora y contratar de manera digital el seguro que mejor se adapta a lo que buscas. De hecho, las propias aseguradoras pueden ofrecerte el mejor seguro en función a algoritmos capaces de obtener el mejor resultado para tu perfil de cliente.

 

Y en la monitorización, ¿qué supone este cambio?

En Open3s hemos vivido este cambio. Nos dimos cuenta de que la monitorización debía avanzar y adoptar otro enfoque. Identificamos que la monitorización tradicional comenzaba a tener gaps no cubiertos, lo cual impactaba de manera negativa en nuestros clientes.

Veamos cómo era la monitorización antes de esta era digitalizada:

Imaginemos un call center de cliente, al cual llaman los usuarios para efectuar consultas o comunicar incidencias. Con los procesos antiguos, el foco era únicamente monitorizar IT de manera aislada. Se efectuaban monitorizaciones de los sistemas y si estos no funcionaban quien se percataba de la incidencia eran los propios operadores del call center.

La monitorización tradicional podía hacer saltar alertas que indicaban que: el servidor X se había caído, o que tenía la CPU saturada, o que el uso de RAM estaba por encima de un umbral establecido (por cierto, de manera manual y de acuerdo al criterio de la persona que definiese la alerta).

Ahora, con esa monitorización…

 

¿Cómo saber qué afectación estaba teniendo un fallo en el servicio de negocio?

Muchos clientes nos han mostrado una situación común a todos, independientemente del tipo de negocio o industria de éstos. La situación es que recibes una llamada de arriba: que tu servicio de venta no funciona, que las nuevas contrataciones han caído más de un 70% de lo que sería normal en este momento, que el servicio de citación online se ha parado, que las facturas no se han emitido…

Acto seguido: Gabinete de crisis… Sudores fríos… Busca de manera rápida la causa del problema… Llama a tus distintos proveedores para que confirmen que todo está bien…

 

Y, de repente, la respuesta que todos temen: las monitorizaciones nos dicen que todo está OK.

 

Ahora, ¿cómo sabes cuál es el problema?, ¿cómo sabes su origen? Porque lo importante para resolver el problema es identificar de dónde viene y por qué se ha producido, lo cual da la capacidad de actuar rápido y con foco. En este momento, surgen las dudas que una monitorización tradicional difícilmente nos puede ayudar a resolver:

  • ¿Es un problema tuyo?
  • ¿Es de terceros?
  • ¿Cuál es el origen del problema?
  • ¿Cómo identificar su impacto?
  • ¿Cómo minimizo los tiempos de resolución?

 

Esta es la situación que una monitorización orientada a negocio intenta evitar, gracias al enfoque a servicio, y a la monitorización avanzada no sólo de tus propios sistemas sino también de los sistemas de terceros que dan soporte a tu negocio.

Con este artículo comenzaremos una serie sobre cómo la monitorización puede aportar más valor teniendo un enfoque orientado a negocio. En este artículo hemos hablado del origen de esta necesidad de cambio de enfoque, y de cómo tradicionalmente se efectuaba una monitorización. En el siguiente artículo nos gustaría contaros cómo estamos enfocando a negocio esta monitorización IT siendo capaces de hacer una monitorización E2E contemplando todas las capas de transformación digital.

Si alguna vez has vivido una situación similar a la comentada, en la que has tenido incidencias cuando en teoría las monitorizaciones decían que todo estaba verde, no dudes en contactarnos a través de nuestra web para que podamos a ayudarte a hacer esa transformación de enfoque de la monitorización.

¡Hasta la próxima!

Autora: Nerea Sánchez Fernández, Area Manager Big Data.

Open Data Madrid: Os contamos nuestra experiencia

Que vivimos en la era de la transformación digital es un hecho. Todos habréis oído hablar de ella y aplica en mayor o menor medida a diferentes ámbitos de nuestra vida: ámbito laboral, personal, compras, comunicaciones, entretenimiento… Una de las características principales de esta transformación es la generación de grandes cantidades de datos, que procesados y analizados de la manera correcta pueden aportar valor.

En este artículo queremos contaros cuál ha sido nuestra experiencia intentando explotar datos abiertos. Esta iniciativa surgió un día en una sesión de brainstorming del equipo de Big Data. Ese día dimos con la web de Open Data del Ayuntamiento de Madrid, la cual contiene colecciones de datos abiertos del ayuntamiento que puedes utilizar descargándolos e incluso explotándolos vía API. Tras analizar las fuentes que ofrecían y el potencial que podían tener se nos ocurrió que si esas fuentes se pudieran correlar podríamos generar contenido útil, valioso e interesante tanto para ciudadanos como para distintas áreas del Ayuntamiento.

A continuación os contamos nuestra experiencia.

Datos

Inicialmente pensamos en dos casos de uso: uno de ellos zonas calientes de accidentes de tráfico y multas, y el segundo análisis del impacto de la calidad del aire en la salud de la ciudadanía. Nos vamos a centrar en el primero de ellos, que es el que los datos nos han permitido crear de manera más óptima. Para ello contábamos con las siguientes fuentes:

  • Accidentes de tráfico.
  • Accidentes con implicación de bicicletas.
  • Multas de tráfico.
  • Intervenciones del Samur.

 

Retos

El primer reto al que nos enfrentamos fue el procesamiento de los datos. El hecho de que los datos en cada fuente no estuvieran normalizados hizo que se disparase el tiempo invertido en hacer de ellos datos útiles para aplicar lógicas y análisis, ya que dichos datos no siguen el mismo formato en los distintos conjuntos de datos. Por ejemplo, la ubicación no se detalla igual en los accidentes de tráfico que en las multas (calles con distintos formatos), o en las intervenciones de Samur que en lugar de especificar la calle se especifica únicamente el distrito.

Tras una labor de “cocinado” de los datos que los habilitara para incluirlos en Splunk, vino el problema de la correlación. Nos faltaban campos en algunas fuentes con las que relacionarlas con el resto de datos; y datos básicos como la fecha completa estaban ausentes en algunas de ellas. Esto hizo que el nivel de detalle que se puede llegar a obtener se viese disminuido, ya que sólo se puede analizar por mes y año, con lo que las conclusiones pueden ser distorsionadas.

Un claro ejemplo de diferencia entre formatos lo encontramos en la ubicación de accidentes y multas. En los datos de accidentes venía la calle, por lo que haciendo una correlación con datos de callejero pudimos obtener coordenadas para geoposicionamiento; sin embargo, en los de multas venían calles incompletas y cruces, lo cual dificultó la posibilidad de posicionar geográficamente.

Otro problema que encontramos fue la falta de datos actuales. Para poder materializar la idea que teníamos en mente lo óptimo hubieran sido datos actualizados de manera diaria, pero nos encontramos con que muchos de los datos que ofrece la web de open data se publican de manera anual a año vencido. Para hacer un “análisis forense” a tiempo pasado y analizar el histórico puede ser útil, pero pierde la versatilidad y el valor que te da tener datos cercanos a tiempo real.

No obstante, seguimos trabajando en ello para ver el potencial que podía tener la idea, y a continuación os contamos lo que conseguimos.

 

Resultado

Hemos conseguido desarrollar un dashboard de analytics sobre los datos obtenidos sobre accidentes de tráfico. Tenemos distintas visiones de los accidentes que se producen, pudiendo ver la segregación por distrito, tipo de accidente, edades y horas/días.

Como podemos ver, y sin aplicar ningún tipo de filtro ya podemos empezar a sacar conclusiones:

  • En cuanto a distritos, los accidentes de tráfico se reparten de manera bastante homogénea, no destacando ningún distrito sobre otro. Tiene un porcentaje ligeramente mayor el distrito de Chamartín pese a que cualquiera pensaríamos que sería el distrito Centro.
  • Los accidentes que más se producen son colisiones dobles, acaparando así un 75% de todos ellos. Llama la atención una tipología de accidente con suficiente representación como para salir en el gráfico que es “Caída viajero bus”.
  • Los resultados de tramo horario son totalmente los esperados y deducibles por la afluencia de coches correlando los tramos horarios con las horas de trabajo.
  • El abanico de edades que se registran va de 0 a más de 74 años. Es curioso ver como la segregación de accidentes va en aumento en los tramos menores de edad hasta llegar a los 25-29 (un 12,44% de los accidentes), y a partir de ese tramo empieza a disminuir de nuevo.
  • El lunes gana por poco margen el día con más accidentes de tráfico, siendo el resto bastante equitativos.
  • Respecto a las horas, refleja que hay más accidentes por la tarde que por la mañana. Esto puede dar lugar a pensar que los desplazamientos para trabajar por la mañana pueden estar más escalonados que los de la tarde.

 

Los filtros superiores nos permiten “jugar” con la información, para obtener conclusiones curiosas como las siguientes:

  • Seleccionando accidentes cuyos implicados tienen una edad superior a 74 años vemos como la segregación por tipo de accidente aumenta considerablemente hacia “Atropello”, y que la tipología “Caída viajero bus” se ve incrementada.

  • Si queremos analizar los accidentes de tipo “Choque contra objeto fijo” llama la atención de éstos a qué hora se producen más, como vemos en el siguiente gráfico. Es el horario de madrugada y noche el que se lleva casi el 50% de estos accidentes.

  • Al seleccionar accidentes producidos de madrugada y por la noche, las edades que más aparecen son de los 21 a los 39 años. Sin embargo, la división por días de la semana es más homogénea de lo que se esperaría

  • Sorprende que seleccionando aquellos accidentes con bicicleta implicada, en tipología siga saliendo “Caída viajero bus”.

  • Analizando el geoposicionamiento de accidentes se aprecia una ocurrencia mayor por el barrio de Salamanca, siendo el resto repartido homogéneamente.

  • Si contamos los accidentes por día/tramo horario, tipo de accidente, gravedad y tramo de edad los accidentes que más se producen son los sábados de 00 a 00:59, la mayoría por colisión doble, sin heridos de gravedad y en tramos de edades bastante dispares.

  • Por último, algo de esperar, si vemos un gráfico con la evolución temporal de los accidentes por mes apreciamos que en el mes de Agosto disminuyen drásticamente. Llama la atención el aumento en Octubre sin mucha razón lógica a la que achacarlo.

 

Qué hubiéramos necesitado para conseguirlo

Para conseguir lo que teníamos en mente hubiéramos necesitado principalmente:

  • Campos para correlar las distintas fuentes.
  • Datos en real time o near real time.
  • Presencia de datos ausentes: por ejemplo, día del mes el cuál no está presente y dificulta aplicar ciertos análisis (por ejemplo, analizar los accidentes en función de medidas de contaminación activas).
  • Calidad en los datos, por ejemplo, en los de ubicación.

 

Conclusiones

Pese a que se ha avanzado mucho en estos temas y ya se ha dado un gran paso como crear un servicio de consumo de datos abierto de los ayuntamientos (presente no sólo en Madrid, sino también en ciudades como Barcelona), aún queda camino por andar.

Hemos extraído bastantes conclusiones, pero si hubiésemos contado con todo lo necesario se podría haber hecho algo con mucho más potencial permitiendo extraer todo el jugo que los datos y la correlación entre estos aportan.

 

Esperamos que el mundo de los datos siga evolucionando, ¡nosotros estaremos ahí para experimentarlo y vivirlo!

 

Autora: Nerea Sánchez Fernández, Area Manager Big Data

 

Splunk Insights for Ransomware

Splunk Insights for Ransomware

Today, we have seen yet another wave of ransomware attacks, similar in nature to the wannacry attacks from May 2017, sweep across organizations around the globe. Splunk Blog on Petya Ransomware Attacks

Splunk can help you:

  • To quickly detect & investigate ransomware attacks
  • Rapidly find & visualize systems that are not patched and are vulnerable to these attacks
  • Provide holistic security analytics & monitoring across the business

Splunk Insights for Ransomware is a new offering for organizations enabling them to rapidly take an analytics-driven approach to managing ransomware threats

(más…)