lundi 23 octobre 2017

Retour sur le Google Cloud Summit 2017

La semaine dernière, j'étais présent au Google Cloud Summit de Paris afin de voir quels était les sujets de l'année. Avec environs 3000 inscrits pour cette journée, le cloud de Google arrive à faire bouger les foules malgré des parts de marché plus faible que la concurrence.
La journée a commencé par une plénière d'ouverture.
Plusieurs hauts responsables de Google dont Sébastien Marotte (VP EMEA) étaient présents pour cette keynote d’ouverture.
Alors qu’aujourd’hui environ 5% des workloads sont sur le cloud, Google donne 3 à 5 ans au cloud pour être utilisé par 100% des entreprises. C'est un objectif ambitieux qui malgré l’accélération actuelle semble irréalisable.
Les intérêts du cloud ont été rappelé et Google Cloud envisage de faire de chaque entreprise une entreprise de la donnée. En clair, de moins en moins d’ops, de plus en plus de workloads dans le cloud, des services managés de haut niveau et du machine learning.
Même si beaucoup de DSI espèrent surtout baisser les coups de leur SI, il n'est pas inutile de rappeler que le cloud apporte également de nombreux autres avantages. De plus, le gain financier ne peut être intéressant que si la gestion des services est efficace - sans automatisation et sans l'utilisation des services managés, au revoir les économies. D'après les informations recueillient par les cabinets d'analyses, 45% des dépenses des entreprises dans le cloud sont liée à une mauvaise gestion des ressources.
En juin 2017, Google a obtenu 100 points CloudSpec soit la meilleure note actuelle pour un provider de cloud (selon cloud Spectator). Preuve que Google bien qu'à la traîne niveau adoption, ne traîne pas pour ajouter des services et améliorer son cloud.
Pour ceux qui ont encore des réticences liées à l'utilisation du cloud pour mettre les données de leur entreprise, les datacenters de Google répondent aux exigences de nombreuses certifications.
Une fois passé les informations "classiques" autour du cloud, vient l'heure de la présentation des nouveautés, et cette année, il y en a une: le Machine Learning. Petit à petit nous allons en retrouver dans tous les services et applications Google allant de GCP à Google Suite et même Android et ChromeOS.
C’est sur le machine learning que Google se démarque de leur concurrents AWS, et Azure.
Nous avons eu pour terminer des retours d’expériences de diverses sociétés dont: La redoute, Amadeus et Dailymotion afin de présenter leur utilisation de GCP.
Suite à cela, il y avait des conférences thématiques réparties dans plusieurs salles.
J’ai suivi les conférences autour du devops et surtout de Kubernetes.
La première était présentée par Google et Claranet, il a surtout été question des avantages de l’utilisation de GKE (kubernetes on GCP) par rapport à un cluster kubernetes on premise.
Là encore, beaucoup de machine learning, notamment pour la partie monitoring et définition des alertes.
Parmis les clients de GKE, Objenious (filliale IoT de Bouygues Telecom) a fait part de son retour d’expérience suite à une migration AWS avec beaucoup d’EC2 vers GKE.
GKE n’est pas encore mature, certaines fonctionnalités importantes sont manquantes et les api sont en alpha. Toutefois le service évolue très vite et certaines lacunes sont comblées. Dans la dernière version (1.8), GKE gère l’auto réparation des noeuds, des network policies et le socle peut être basé sur Ubuntu au lieu d’un OS custom basé sur ChromeOS.

La deuxième session est revenue sur cet aspect micro service vers lequel évolue les applications. L’occasion pour Google de rappeler que le Serverless à la mode depuis quelques mois, existait déjà avec des services comme AppEngine depuis plusieurs années.
Nous avons pu voir des démos de machine learning mais également de Cloud Functions (le Lambda d’AWS) avec des interactions via un Google Home. J’ignore si Google Assistant fera son entrée dans les entreprises mais cela permet un bel effet démo.

La troisième session portait sur l’utilisation de Kubernetes pour les devs. C’est Zenly qui a fait son retour d’expérience: 12 clusters, 200 pods et plus de 2000 noeuds. Tout ça pour seulement 2 ops. Preuve que l’administration système va être complètement déléguée aux géants du cloud. Pour Zenly, la solution de départ était du Docker+systemd sur des machines EC2. Pour diverses raisons liées à l’entreprise, une migration vers GCP a été engagée et validée en seulement 3 semaines.
Pour ceux qui veulent en savoir plus sur les conteneurs, Google a publié un article sur Borg (leur système interne de gestion des conteneurs) qui a servi de base à Kubernetes:

Ensuite je suis passé sur la partie Gestion de Prod avec une conférence sur les fameux SRE (Site Reliability Engineer) de Google. Il a été question de définition de SLA, SLI, SLO, de la manière de gérer les incidents mais également du CRE (Customer Reliability Engineering). Le CRE, se sont des ingénieurs de Google qui peuvent venir chez le client pour analyser la gestion de sa production et apporter des améliorations. Pour les clients intéressés, Google permet même d’avoir des équipes de Prod mixtes entre des Googlers et des employés du client.

Dans le hall, de nombreux partenaires Google Cloud étaient présents, beaucoup avait misé sur le Google Home pour attirer les foules.

Nul doute que GCP devrait augmenter ses parts de marchés dans les années à venir. Certains avantages liés au pricing de la plateforme en fond un bon concurrent à AWS.