DockerCon 2015 | L’éclairage de Gildas Cuisinier


Suite aux annonces impressionnantes de la DockersCon 2015, nous avons demandé à Gildas Cuisiner, un de nos experts sur cette technologie des conteneurs, de nous livrer son analyse.

Peux-tu te présenter rapidement ?

Gildas Cuisinier : Le terme “artisan développeur”, défini par Didier dans son interview de 2010, me parait adéquat ! Non seulement je suis passionné par la technologie, mais j’aime en parler, et ce depuis des années. J’ai eu l’occasion d’assister à de nombreuses conférences (JavaPolis/Devoxx, SpringOne, etc.), d’écrire des articles (section Spring sur Developpez), de présenter des sujets et d’animer des ateliers. Je fais également partie de l’équipe du YaJUG (Java User Group du Luxembourg).

Depuis quelque temps, je m’intéresse plus particulièrement à Docker. Je propose d’ailleurs des “Brown Bag Lunch” sur ce thème à tout client intéressé.

Gildas CuisinierEt SFEIR, encore une fois, m’assiste dans cette voie en nous donnant, à mon collègue Yohan Beschi et moi-même, la responsabilité de la mise en place du pôle DevOps.

Quelle est ton analyse sur les annonces de la DockerCon, en particulier sur cette soudaine alliance de tous les acteurs principaux ?

GC : Je pense que c’est une excellente nouvelle, et que cela va rassurer des utilisateurs potentiels. Car si Docker est déjà adopté par de nombreuses grandes sociétés, d’autres restent frileuses du fait de sa jeunesse. Voir des noms comme VMWare, Microsoft, Redhat, IBM se mettre d’accord autour d’un format commun sera sans doute perçu comme un signal fort, et va certainement accélérer son adoption.

D’un point de vue technique, se baser sur les techs Docker pour ce projet OCP était la meilleure chose à faire ?

GC : En réalité, je suis à la fois rassuré et partagé par ce choix.

Rassuré, car je pense qu’il était nécessaire de prendre comme base le standard de fait de cette technologie (même si ce n’est pas la solution de conteneur la plus ancienne). Docker a popularisé le concept de conteneur, et possède maintenant un nombre important d’images, un écosystème déjà bien développé ainsi qu’une communauté grandissante (plus de 1 000 contributeurs). Créer une solution “standard” sur une base différente aurait impliqué de perdre tout cela, sans parler du travail nécessaire pour adapter l’existant à un nouveau format.

Par contre, Docker est une solution très orientée Linux, et le projet OCP n’a pas cette limitation. Afin d’être ouvert à tous les OS, est-ce que ce coeur ne risque pas d’être nivelé par le bas par les possibilités communes à chaque OS, et ainsi réserver les fonctionnalités avancées à des modules propriétaires en fonction des systèmes ?

Je ne doute pas que les ingénieurs qui travailleront sur le projet OCP feront au mieux, donc je suis curieux de voir d’ici quelques mois le résultat de leurs travaux.

Quelle est pour toi l’autre info marquante de cette DockerCon 2015 ?

GC : Sans aucun doute l’arrivée des plugins, qui va combler un gros manque de Docker. Pour l’instant, démarrer un ou deux conteneurs sur la même machine et les faire communiquer est très simple, mais effectuer le même travail avec deux conteneurs sur des machines différentes l’est nettement moins. Avec le nouveau modèle réseau et les plugins associés, il sera possible de créer un réseau dédié à un groupe de conteneur, et ce où qu’ils soient physiquement.

L’autre nouvelle intéressante est le projet Bonneville de VMWare, qui va permettre d’interagir avec l’hyperviseur ESX via les outils Docker. Il sera dès lors possible de récupérer une image du DockerHub ou d’une registry interne, et de la faire tourner non plus dans un conteneur, mais dans une véritable machine virtuelle. On perdra peut-être en rapidité de démarrage (et encore, ce n’est pas certain), mais on gagne en isolation et sécurité.

Cela ouvre d’autres cas d’utilisations :

  • Travailler en Docker pour les environnements DEV/TEST, mais en VMs pour la production
  • Travailler via des conteneurs Docker simple sur un engine Docker standard pour des applications standard, mais sur des VMs dédiées pour des applications nécessitant une isolation complète.

Et à chaque fois, en utilisant le même livrable et les mêmes outils.

A titre personnel, quels sont les aspects qui t’ont séduit dans cette technologie des conteneurs ?

GC : Ce que j’aime beaucoup dans Docker, c’est le côté “DevOps”.

Ce que j’entends par là, c’est qu’il est possible de donner plus de liberté au Dev, sans sacrifier le contrôle. De son côté, le Dev va pouvoir créer des images, sans se soucier de savoir où les données doivent être placées pour être prise en charge par le backup, sans se soucier de savoir si le port 8080 est déjà pris sur la machine où sera déployée l’application, etc. Et de l’autre côté, un Ops pourra gérer correctement tous ces aspects. Et il est certain d’avoir un package qui fonctionne et est correctement configuré, car il aura été utilisé par le Dev dans son travail quotidien.

Autre aspect intéressant, il ne sera plus utile au développeur d’avoir le droit root sur la “machine” pour effectuer une correction ou changement de configuration. Il créera une nouvelle image, et n’aura plus qu’à livrer celle-ci pour venir remplacer l’ancienne.

Vous aimerez aussi...