Next’18: descubre las últimas novedades de Google Cloud

[et_pb_section fb_built=”1″ admin_label=”section” _builder_version=”3.0.47″][et_pb_row custom_padding=”0|10%|17.2188px|0%|false|false” admin_label=”row” _builder_version=”3.18.7″ background_size=”initial” background_position=”top_left” background_repeat=”repeat” hover_enabled=”0″ custom_padding_last_edited=”on|desktop” custom_padding_tablet=”|0%||”][et_pb_column type=”4_4″ _builder_version=”3.0.47″ parallax=”off” parallax_method=”on”][et_pb_text admin_label=”Text” _builder_version=”3.0.74″ background_size=”initial” background_position=”top_left” background_repeat=”repeat”]

Google Cloud celebró el pasado mes de octubre en Londres el Google Next’18, el evento más importante de la plataforma en Europa. Un equipo de Ackstorm acudió al evento y nos trae las novedades de Google Cloud más destacadas:

Cloud Services Platform

Cloud Services Plataform es un software de nube híbrido que combina Kubernetes e Istio con la infraestructura de Google Cloud. La plataforma integra una familia de servicios cloud que permite incrementar la velocidad y fiabilidad de procesos, mejorar la seguridad y gestión de la infraestructura para poder ejecutarse en cualquier entorno, ya sea a través de Google Cloud Platform o en entornos on-premise –en servidores locales-. Está previsto que la plataforma entre en fase alfa durante las próximas semanas.

GKE On-Prem

Permitirá ejecutar Google Kubernetes Engine (GKE) directamente en centros de datos on-premise.  El clúster de Kubernetes podrá ser gestionado desde la consola de Google. Entre las funcionalidades que se incluirán destacan la centralización de la monitorización y logs mediante la integración con Stackdriver, así como la unificación multi clúster en sus registros y gestión en las actualizaciones.  Está previsto que GKE On-Prempase próximamente a fase alfa.

Knative

Está construido sobre Kubernetes e Istio, una plataforma abierta que permite conectar y securizar micro-servicios. Knative ofrece un conjunto de componentes middleware que son esenciales para construir aplicaciones centradas en código y basadas en contenedores que pueden ejecutarse en cualquier lugar: on-premise, en la nube o incluso en un centro de datos de terceros.

Cloud Nat

Es un servicio nuevo gestionado para la traducción de direcciones de red. Nos va a permitir aprovisionar instancias sin la necesidad de utilizar direcciones IP públicas.  Los recursos externos no pueden acceder a ninguna instancia privada detrás de la pasarela Cloud NAT, lo que ayuda a mantener la red cloud privada segura y aislada. Cloud Nat está en fase beta.

 

 

¡Desde Ackstorm seguiremos informando de las próximas novedades de Google Cloud!

¿Necesitas trasladar tu infraestructura a la nube? Te invitamos a visitar nuestros servicios de cloud computing.

[/et_pb_text][/et_pb_column][/et_pb_row][/et_pb_section]

Knative: nueva plataforma para Kubernetes serverless

[et_pb_section fb_built=”1″ admin_label=”section” _builder_version=”3.0.47″ custom_padding=”0|0px|34.4375px|0px|false|false”][et_pb_row admin_label=”row” _builder_version=”3.18.7″ background_size=”initial” background_position=”top_left” background_repeat=”repeat” hover_enabled=”0″ custom_padding_last_edited=”on|phone” custom_padding=”|10%||0%” custom_padding_tablet=”|0%||”][et_pb_column type=”4_4″ _builder_version=”3.0.47″ parallax=”off” parallax_method=”on”][et_pb_text admin_label=”Text” _builder_version=”3.0.74″ background_size=”initial” background_position=”top_left” background_repeat=”repeat”]

Knative es una nueva plataforma de Google Cloud basada en Kubernetes e Istio. Permite construir, implementar y administrar cargas de trabajo en modo serverless. En este caso, es Google quien se encarga de gestionar dinámicamente la asignación de recursos propios del servicio.

Knative actúa como middleware facilitando un conjunto de componentes que ayudan al usuario a centrarse en el desarrollo de código y aplicaciones basadas en contenedores. El objetivo es proporcionar implementaciones reutilizables de patrones comunes y buenas prácticas basadas en Kubernetes aplicadas a la codificación .

La plataforma, presentada en el evento Next’18 de San Francisco, está enfocada a tareas de creación y ejecución de aplicaciones en la nube, como es la orquestación y envío de código a contenedores, el enrutamiento y administración del tráfico durante los despliegues y el auto escalado de las cargas de trabajo.

Componentes de Knative

Los componentes disponibles actualmente son Build, Eventing y Serving.

  • El objetivo del componente Build es utilizar los recursos nativos de Kubernetes para obtener el código de un repositorio, construir una imagen contenedorizada y ejecutar dicha imagen.
  • La componente Eventing ha sido diseñada para abordar una serie de necesidades comunes en el desarrollo de software en la nube como es la composición de servicios y recursos de cómputo a través de eventos, de forma que se construyen arquitecturas basadas en eventos.
  • La componente Serving que se apoya en Kubernetes e Istio, nos aporta el soporte para el despliegue y servicio de aplicaciones y funciones serverless. El objetivo es proporcionar primitivas middlewarepermitiendo desplegar rápidamente contenedores serverless; escalado automático en función de la carga; enrutamiento y configuración de red para los elementos de Istio.

Si quieres más información no te pierdas la presentación de la plataforma en el siguiente video:

 

¿Necesitas trasladar tu infraestructura a la nube? Te invitamos a visitar nuestros servicios de cloud computing

[/et_pb_text][/et_pb_column][/et_pb_row][/et_pb_section]

Google Cloud Platform: más Cloud por menos inversión

[et_pb_section fb_built=”1″ admin_label=”section” _builder_version=”3.0.47″][et_pb_row admin_label=”row” _builder_version=”3.18.7″ background_size=”initial” background_position=”top_left” background_repeat=”repeat” hover_enabled=”0″ custom_padding_last_edited=”on|phone” custom_padding=”|10%||0%” custom_padding_tablet=”|0%||”][et_pb_column type=”4_4″ _builder_version=”3.0.47″ parallax=”off” parallax_method=”on”][et_pb_text admin_label=”Text” _builder_version=”3.0.74″ background_size=”initial” background_position=”top_left” background_repeat=”repeat”]

 

Supongo que si digo que voy a hablar de la nube de Google esperáis que hablemos del Google que está en nuestra vida cotidiana, en nuestras búsquedas en Internet, nuestros teléfonos Android, la publicidad inteligente o nuestras cuentas de Gmail o Google for Work. Pues no, vamos a hablar sobre la computación en la nube que usan empresas, startups y desarrolladores para sus sistemas y proyectos en Internet, vamos a hablar de Google Cloud Platform. Y el motivo es la excelente relación prestaciones/precio.

 

El pasado 26 de Noviembre tuvimos el placer de organizar un evento junto a Google en las vanguardistas instalaciones de la Fábrica Moritz en Barcelona, y fue una velada tan interesante como divertida que nos dejó un gran sabor de boca. En ella desvelamos las diversas cualidades de Google Cloud Platform y no pudimos más que quedar muy satisfechos por sus inmensas capacidades.

 

 

Utilizando los juguetes de Google.

El uso de los servicios Google Cloud es una puerta abierta a la misma tecnología, las mismas instalaciones y las mismas soluciones que la gente de Google usa diariamente para crear los productos Google y ofrecer sus servicios. Esto significa que accederemos a los servicios de la misma forma que lo hace el personal de Google y sobre todo que podemos esperar el mismo rendimiento. Un detalle, las máquinas virtuales estándar suelen ofrecerse con el doble de memoria que las equivalentes a sus competidores sencillamente porque es el estándar interno de capacidad recomendada para computación.

 

Superioridad tecnológica.

La innovación es la bandera de Google y esto significa soluciones de vanguardia, esto es, Google soluciona de manera óptima viejos problemas basados en tecnología y soluciones propias. No amagaré que personalmente encuentro una curva de aprendizaje que se mitiga con una muy buena y clara documentación y también con una formación rigurosa. Las certificaciones de Google Developer son serias, y se pretende que los desarrolladores entiendan bien el potencial y el ámbito de aplicación de cada uno de los productos de Google Cloud Platform. Ackstorm se convierte en partner oficial de Google Cloud para utilizar de manera óptima la potencia de la tecnología Google.

 

Aporte claro al Open Source.

Google libera muchos de sus productos y herramientas bajo licencias libres. Más de 900 proyectos y 20 millones de líneas de código podemos encontrar en su portal para developers; desde el navegador Chrome , Angular javascript Framework, el protocolo de compresión de video WebM , el sistema operativo Android, el orquestador de contenedores Kubernetes…

 

Productos, performance a buen precio.

Como conclusión: Descuentos por tiempo de utilización en las máquinas virtuales de hasta el 30% mensuales, Google Datastore se factura por mili-penis con modalidad gratuita para cierto tipo de operaciones, el precio del storage es de los más bajos de entre los principales proveedores mundiales y se incluye el precio el uso de la red de Google para servirlo desde la localización más próxima al usuario a modo de CDN. Basta jugar con el calculador para ver que podemos reducir nuestro Budget Cloud de manera significativa.

Quizás tardemos en ver a Google Cloud Platform tan arriba como sus competidores en los cuadrantes mágicos de Gartner. Y encontraremos un portfolio repleto de servicios de calidad, desde ACKSTORM creemos que la calidad de las piezas que podemos utilizar concretamente para el diseño de arquitecturas orientadas a microservicios es de un alto valor y excelente performance, y a un precio muy competitivo. Desde máquinas virtuales optimizadas para correr Dockers, Servicios para almacenamiento efímero de datos, MySql como servicio, CDN, y más… y más… en cloud.google.com.

[/et_pb_text][/et_pb_column][/et_pb_row][/et_pb_section]

Docker: la magia de gestionar código y paquetería como única entidad.

[et_pb_section fb_built=”1″ admin_label=”section” _builder_version=”3.0.47″][et_pb_row admin_label=”row” _builder_version=”3.18.7″ background_size=”initial” background_position=”top_left” background_repeat=”repeat” hover_enabled=”0″ custom_padding_last_edited=”on|phone” custom_padding=”|10%||0%” custom_padding_tablet=”|0%||”][et_pb_column type=”4_4″ _builder_version=”3.0.47″ parallax=”off” parallax_method=”on”][et_pb_text admin_label=”Text” _builder_version=”3.0.74″ background_size=”initial” background_position=”top_left” background_repeat=”repeat”]

 

Hace unos meses leí en un blog tecnológico estadounidense que, una vez cada cinco años, los profesionales en arquitectura y sistemas críticos solemos experimentar la adopción de una nueva tecnología que modifica el “cómo se han hecho las cosas” hasta el momento. Confieso que no siempre soy consciente de estas disrupciones tecnológicas (una palabra de moda para decir que las cosas están cambiando), pero durante los inicios de este 2015 he podido observar las mejoras que aportan los contenedores (o Dockers) a las empresas que los adoptan como método de despliegue de aplicaciones. Este es el caso de, por ejemplo, Ackstorm, empresa especializada en la gestión de plataformas críticas que diseña, construye y mantiene sistemas de contenedores en los principales proveedores de IaaS Cloud.

Basta decir que, desde la creación de contenedores Docker en el 2013, Docker ha registrado más de 100 millones de descargas. Solo hace falta teclear “Docker” en un buscador de Internet para darnos cuenta de la gran repercusión que está teniendo esta tecnología de despliegue de aplicaciones en servidores.

Aunque muchos piensan que el uso de contenedores está extendido en toda Europa, esta realidad no es cierta. A pesar de que algunos ya conocíamos sus funcionalidades desde el año pasado, es ahora cuando los contenedores Docker empiezan a aceptarse y a ofertase. Y todavía más importante; es ahora cuando se empieza a poder comparar su impacto en rendimiento, simplicidad de despliegue y optimización de arquitectura frente a otras arquitecturas tradicionales.

El uso más obvio de Docker lo encontramos cuando disponemos de una aplicación o servicio que “no es un buen compañero de clase”. O dicho en otras palabras; cuando una aplicación necesita muchos recursos ante un aumento de visitas, un paquete con librerías incompatibles o un paquete con dependencias que son difíciles de armonizar con el resto del sistema instalado. ¿Ejemplos de ello? Procesos de uso errático de computación-memoria, portales de uso acusado de memoria y tráfico durante periodos concretos, un proceso de Mapreduce que se lanza ante una petición de business inteligence, y un largo etcétera. En tales situaciones se proporciona a cada contenedor exactamente lo que necesita donde se necesita, sin perder ni un ciclo de CPU en tareas de coexistencia entre Host y Contenedor.

Construir un contenedor requiere el esfuerzo de empaquetar lo mínimo para que el servicio funcione. A pesar de ello, el esfuerzo merece la pena desde el primer momento ya que los grupos de escalado funcionan muy bien y la factura de la arquitectura se ajusta a las necesidades de computación en cada momento. Esto supone una vuelta de tuerca más en el ámbito del IaaS.

Después de este proceso de empaquetamiento, en una reunión de seguimiento post-migración, escucharemos los comentarios de lo bien que va esto de poder empaquetar la versión correcta de las librerías que cada aplicación necesita en cada release. Y de lo eficientes que son los Dockers a la hora de tener corriendo versiones diferentes de su aplicativo con las librerías correctas en cada contenedor.
En definitiva, los contenedores ayudan a los profesionales IT a producir los recursos de computación de su compañía a un menor precio y de manera más ágil y rápida.

Parece que esto también lo han entendido los tres grandes; el Amazon Web Services, Google CloudPlatform y Microsoft Azure (que acaba de lanzar su propia tecnología de contenedores sobre su sistema operativo). Todos están trabajando en ofrecer servicios de computación del tipo “trae tu docker y lo hacemos correr” y todos permiten ya contratar máquinas virtuales listas para correr nuestros Dockers.

Ahora Google confirma su apuesta por esta tecnología ofreciendo el siguiente paso; un orquestador de contenedores conocido como Kubernetes. Kubernetes es una herramienta de gestión Docker liberada como opensource. Se usa para desplegar contenedores a través de clusters de computadores propios y de terceros con el fin de organizar y orquestar las cargas de trabajo entre los nodos que ejecutan los Dockers. Kubernetes mantiene balanceadas las cargas de contenedores dentro de un clúster o grupo de servidores.

Pero lo realmente novedoso de Kubernetes es que ofrece la posibilidad de que los contenedores se comuniquen entre sí, sin necesidad de abrir puertos de red o realizar otros trucos de sysadmin. Está escrito en Go – al igual que Docker – por lo que la compatibilidad con la tecnología está garantizada.

A juzgar por el número de proyectos que se están posicionando en este campo, el tema de los orquestadores es importante. Será muy interesante comparar las características de cada orquestador y ver cómo evolucionan estos novedosos complementos para los ecosistemas basados en contenedores.

No es extraño, pues, que durante este año 2015 empresas especializadas en la gestión de los sistemas como lo es Ackstorm estén desarrollando consultoría en la implantación de contendores a empresas y proyectos que están en fase de migración al Cloud o que ya cuentan con infraestructuras desplegadas en la Nube.

Además, durante este año también se espera que los profesionales de sistemas veamos crecer o desaparecer orquestadores de contendores como Heroku-docker, Docker Node Tester, DickerSh y como no… Kubernetes.

[/et_pb_text][/et_pb_column][/et_pb_row][/et_pb_section]