FUENTE Referencia: https://www3.cs.stonybrook.edu/~anshul/igsc16_mlscale.pdf

Cada año el murmullo de fondo de la tecnologías de moda cambia. Al final del 2015 y durante todo 2016 fue el Big Data de los grandes operadores. Hoy en día  demostraciones, ferias y artículos, cualquiera que lea y se informe regularmente a través de las cuentas de Twitter o blogs oficiales de los grandes proveedores de Cloud Público habrán notado que el Machine Learning este año está hasta en la sopa.

Intentaré explicar brevemente porqué es importante el Machine Learning y qué nos cabe esperar en los próximos años de estos nuevos servicios que ahora podemos encontrar en AWS, Azure y Google Cloud Platform.

Machine learning o sistema de aprendizaje automático, son un conjunto de sistemas y  algoritmos con un conjunto de reglas las cuales pueden entrenarse para que actúen en consecuencia cuando se encuentre con los datos pertinentes. Pero el algoritmo puede  adaptar dichas reglas y crear otras nuevas para mejorar su tasa de acierto. Muchos de estos algoritmos llevan varios años entre nosotros ( o siglos , la familia de fórmulas bayesianas por ejemplo) pero ahora empiezan a aplicarse masivamente.  Entonces – ¿qué es lo que ha cambiado en los últimos años? – os preguntaréis….

Por un lado las técnicas de BigData permiten analizar en segundos, ya no,  un set de datos,  sino la totalidad de los mismo. Un ejemplo, analizar los 25 billones de eventos de bolsa de un día de la City de Londres en menos de una hora usando el BigData de Google significa analizar realmente toda y cada una de las transacciones utilizando miles y miles de cores.

Y por otra parte, la madurez de de los neuronales y de nueva concepción que necesitan, precisamente, para poder manejar teras de datos y miles de cores. Al final lo que obtenemos son sistemas que son capaces de descubrir nuevas trazas y  patrones para que nos permitan tomar conclusiones, en base a análisis,  que hasta ahora comúnmente nos habían pasado de largo.

En nuestro campo, que es ni más ni menos que el de la computacion,  se empiezan a utilizar estos algoritmos y redes neuronales de Machine Learning para realizar cosas tan curiosas como,  la predicción de demanda de computación de una aplicación concreta, esto significaria, preveer si es necesario 24 o 6 servidores para mi aplicación, lo cual significaria obtener un ahorro de millones de dólares al poder eliminar infraestructura que no se necesite tras una predicción de demanda a la baja.

En resumen, queremos trasladar que desde ACKSTORM, ya se está trabajando sobre Sistemas de Monitorización Predictivo, de cara a obtener información que nos permita predecir tendencias de consumo o problemáticas para todos aquellos clientes que lo necesiten.