UltraFluid Modeler BETA 2

UltraFluid Modeler est en BETA 2. Le soft est fait en C++ 64 bit Release et utilise le C++ Rest SDK de Microsoft pour le support JSON.

Vous pouvez le downloader ici: www.buildonthemetal.com

Rappel des diverses fonctionnalités:

  • Copy, Cut, Paste
  • Sélection simple, intuitive, de la première ligne, que les lignes, que des éléments
  • Ajout d’une image
  • Ajout d’un shape générique (rectangle, ellipse, étoire, flèche diverse, etc)
  • Ajout d’une zone de texte
  • Ajout d’un gabarit de Infrastructure (server AD, server Database, server Web, desktop, etc)
  • Ajout d’un gabarit de Dev (class, interface, enum, component, comment, package, etc)
  • Ajout d’un gabarit Diagram
  • Ajout d’un élément PLnning Task, Month ou Text
  • Modification des propriétés texte (police, taille, taille +, taille -, bold, italic, underline, strikethrough, fill, color)
  • Affichage des panneaux Solution, Class, Properties
  • Suppression d’un élément
  • Import de code C++ est dessin d’un gabarit par fichier
  • Dump des objets dans le panneau Debug
  • Module File Explorer : liste les fichiers et répertoires sous forme de gabarits
  • Ajoute un connecteur (flèche) entre deux gabarits
  • Déconnect un connecteur
  • Sélectionne un élément à partir d’une combo (nom de l’élément)
  • Augmente/Diminue la taille d’un élément par deux
  • Modifie la couleur de remplissage
  • Modifie la couleur de ligne
  • Modifie la largeur de ligne
  • Modifie la couleur de page
  • Zoom In/out
  • Sélection d’un zoom custom
  • Alignement du text gauche, centré, droite
  • Alignement des gabarits à gauche, à droie, au dessus, en dessous en fonction du premier sélectionné
  • Déplacement devant top, derrière -, devant +, derrière au fond
  • Sélection d’un élement pour le déplacer
  • Redimentionnement d’un élément
  • Group/Ungroup des éléments
  • Modification des propriétés dans la Property Grid
  • Load/Save de documents
  • Import/Export des documents au format JSON
  • Export des documents au format PNG

UltraFluid Modeler – Introduction

En 2011, j’étais en mission à la Banque de France dans un service d’Architecture Technique nommé SATIS. Nous faisions des dossiers d’Architecture pour les nouvelles applications pour qu’elles passent en commission pour obtenir ou ou non une ligne budgétaire dans la banque.

Nous faisons des diagrammes dans Visio et c’était moche. Il y avait des carrés, des gabarits serveurs, des images, des traits partout et c’était horrible. Chacun faisiat à sa sauce. Moi j’ai opté pour PowerPoint des fois pour faire, via les Office Shared Components, du dessin de carrés (items) avec du texte reliés à d’autre éléments. Il y avait du texte pour les flux, les numéros de port et les protocoles. Mes diagrammes n’étaient pas les plus moche.

En 2012, le service se donne l’ambition d’être pilote sur un logiciel d’Architecture d’Entreprise : ARIS IT Designer. Ce logiciel propose de faire de la modélisation et de stocker les diagrammes en base de données et possède un module de requétage pour savoir quels sont les diagrammes qui possèdent tel ou tel gabarit avec des propriétés. Exemple: je veux connaitre toutes les application qui ont de l’Oracle 8 ou du Windows Server 2003 R2 pour les mettre à jour. Je suis moteur pour faire pilote du programme. Je rencontre les gens du projet (code interne MATUR – modèle d’architecture technique et d’urbanisation de mémoire…). On me donne accès à l’outil. C’est visuellement dégueulasse : du Java… Par contre, il y a des modèles de gabarit, des modèles et des processus précablés, de la méthodologie. cela se sent et se voit. Tout est customsable et finalement en l’analysant, c’est un logiciel graphique sur lequel chaque élément peut se voir affecté des propriétés customs.

Mon collègue de l’époque, Jean-Nöel me dit: “Pic, tu me ferais ça en C++, fast & Fluid et on le propose à la BdF ?”

J’ai commencé par dessiner des gabarits simples (ligne, carré, ellipse, flèche, etc) puis des images. Ensuite, j’y ai introduit descgabarits images prédéfinies comme ceux des documents Microsoft Visio avec leur gabarits serveurs, database, web server, desktop, laptop, etc. Pui j’ai ajouté des gabarits comme en UML comme les classes, interfaces, enumérations, components, packages, comments… La, ça prend forme. J’ai ensuite ajouté la possibilité de modifier la couleurs de remplissage ou non, la couleur de contour ou non. Ensuite, j’ai ajouté la possibilité de modifier le texte des éléments (taille, police, bold, italic, underline, align left, center, right). Tout cela, ce sont des propriétés par défaut d’un gabarit. Un gabarit peut être déssiné, retaillé, déplacé, groupé, supprimé et connecté via une flèche avec un autre gabarit. Il peut passer devant, derrière, ou un cran en avant, un cran en arrière. Tout est accessible depuis un Ribbon au look Office 2020.

Une fonctionnalité est aussi utile. Elle permet de stocker du texte (comme dans Notepad) derrière un gabarit (Propriété Code) via l’onglet (Excel like en bas de la page). C’est une propriété d’un gabarit. J’ai un module qui importe des fichiers sur disk qet qui dump le contenu des fichiers dans la propriété Code. C’est bien pour aspirer les fichiers de code et faire un audit.

Une autre fonctionnalité et la posibilité de visualiser les fichiers et répertoires sur dique et de les explorer. C’est la fonctionnalité Folders.

Voilà, je suis prêt. Ou presque. OK, on est en 2020.

http://www.netazurerangers-fr.com/

Le produit est disponible en version limitée sur le site.

Utiliser Tekton avec Azure Kubernetes Service pour créer des pipelines CI/CD – Partie 1

Comprendre les tâches Tekton

Introduction

En développement logiciel, un pipeline consiste en un processus automatisé qui contribue aux phases de construction, de test et de déploiement du code. L’automatisation permet de réduire les erreurs humaines et d’avoir des processus constants et reproductibles dans le temps.

Pour ce faire, les entreprises ont adopté l’intégration et la livraison continues pour automatiser le cycle de vie des applications. Pour désigner cela, on parle couramment de pipelines ou workflows CI (Continuous Integration) /CD (Continuous Delivery).

Les outils disponibles pour supporter les pipelines CI/CD existent depuis déjà bon nombre d’années mais avec l’évolution des infrastructures et particulièrement l’expansion de Kubernetes dans les entreprises, de nouveaux outils natifs Kubernetes sont apparus comme par exemple Jenkins X et Tekton. C’est d’ailleurs sur Tekton, également nommé Tekton Pipelines, que porte cet article.

Ainsi, nous allons voir dans cet article comment utiliser Tekton dans un cluster Kubernetes instancié avec Azure Kubernetes Service pour créer des pipelines CI/CD.

Sources GitHub

Les sources des exemples utilisés dans cet article sont disponibles sous le dépôt GitHub accessible depuis cette URL : https://github.com/cderue/tekton-aks-part-one

Présentation de Tekton

Tekton est un framework Open Source prévu pour s’intégrer nativement avec Kubernetes et supporter la création de pipelines CI/CD en utilisant un modèle déclaratif. Initié par Google, ce projet est hébergé par la CDF (Continuous Delivery Foundation) et a pour vocation de moderniser les approches CI/CD en proposant des standards industriels pour les phases de compilation, de test, de déploiement et autres avec divers fournisseurs cloud ou sur site en faisant abstraction de la mise en œuvre sous-jacente.

Qu’est-ce qu’un pipeline Tekton ?

Un pipeline Tekton est un ensemble d’objets Kubernetes qui forment un pipeline CI/CD dont les briques élémentaires constitutives sont portées par des conteneurs. Pour pouvoir créer ces objets dans Kubernetes, Tekton fournit à Kubernetes des extensions CRD (Custom Resource Definition).

Pour créer un pipeline Tekton, les objets Kubernetes nécessaires sont déclarées à l’aide de fichiers au format YAML dont le contenu pourrait par exemple ressembler au contenu montré ci-dessous :

Source: https://github.com/openshift/pipelines-tutorial

Ces fichiers YAML peuvent  ainsi être facilement gérés dans un système de contrôle de source. Cette approche nouvelle pour décrire des pipelines à l’aide d’instructions écrites dans des fichiers est qualifiée dans la littérature informatique de pipeline-as-code

Un pipeline Tekton permet de créer un pipeline CI/CD simple ou complexe en se basant sur les 5 concepts majeurs fournis sous forme de CRD et listés ci-dessous :

  • Task : permet de définir un ensemble d’étapes comme par exemple compiler du code, exécuter des tests, construire des images Docker, etc.
  • TaskRun : permet de lancer une tâche unique donnée en référence.
  • Pipeline : permet de définir un ensemble de tâches qui composent un pipeline
  • PipelineResources : permet de définir un objet d’entrée (comme un dépôt Git par exemple) ou de sortie (comme une image Docker) nécessaire à un pipeline.
  • PipelineRun: permet de procéder à l’exécution d’un pipeline. Cette ressource précise le pipeline a exécuter et les ressources (PipelineResources) nécessaires en entrée et en sortie.

Créer un cluster Azure Kubernetes Service

Pour pouvoir présenter les premières fonctionnalités de Tekton, nous allons au préalable créer un cluster Kubernetes en utilisant Azure Kubernetes Service (AKS). AKS permet de créer un cluster Kubernetes managé dans le cloud Microsoft Azure.

Il est important de noter ici que Tekton est agnostique de la plateforme et peut s’installer sur un cluster Kubernetes dans AWS, Google Cloud, IBM Cloud ou autre fournisseur cloud et même on-premise.

Pour pouvoir fonctionner, Tekton nécessite un cluster avec Kubernetes 1.15 ou une version supérieure.

Pour créer un cluster avec AKS , il est possible d’utiliser le portail Azure (www.portal.azure.com) ou la ligne de commande.

Très brièvement, l’exemple de ligne de commande ci-dessous montre comment créer un nouveau cluster AKS avec Kubernetes 1.15  :

az aks create --resource-group myResourceGroup --name myAKSCluster --kubernetes-version 1.15 --node-count 1 --enable-addons monitoring --generate-ssh-keys

Installer Tekton et Tekton Pipelines CLI

Pour installer Tekton sur le cluster AKS créé dans le paragraphe précédent, il suffit d’exécuter la commande suivante depuis un terminal avec la ligne de commande Kubernetes :

kubectl apply --filename https://storage.googleapis.com/tekton-releases/pipeline/latest/release.yaml

Pour vérifier que Tekton est installé, il suffit d’exécuter la commande suivante depuis un terminal :

kubectl get pods --namespace tekton-pipelines

Le terminal affiche la sortie ci-dessous :

NAME                                          READY  STATUS  RESTARTS  AGE
tekton-pipelines-controller-65459f5b4d-59nlg  1/1    Running   0       67m
tekton-pipelines-webhook-84d67645d-pr94p      1/1    Running   0       67m

Ensuite, il est nécessaire d’installer la ligne de commande Tekton (Tekton Pipelines CLI) qui permet d’interagir avec Tekton afin d’obtenir des informations sur les pipelines déployés. Tekton Pipelines CLI est disponible pour les systèmes d’exploitation courants (Windows, MacOS et Linux). La procédure d’installation de Tekton Pipelines CLI en fonction du système d’exploitation est disponible depuis cette URL : https://github.com/tektoncd/cli

Créer une première tâche

Nous allons maintenant créer un première tâche Tekton. Pour ce faire, nous allons créer une tâche simple qui affiche « Hello World » depuis un conteneur Linux qui supporte les commandes PowerShell. L’image utilisée pour ce conteneur est disponible depuis le dépôt officiel Docker Hub de Microsoft.

Dans notre exemple, cette tâche Tekton est déclarée dans un fichier nommé task.yaml situé à la racine des sources Github fournies avec cet article. Le contenu de ce fichier est montré ci-dessous :

La version de l’API utilisée est v1alpha1 car c’est la version implémentée dans la version 0.11 installée lors de l’écriture de cet article. La version v1beta1 existe pour les versions de Tekton ultérieures à la version 0.11.

Voici quelques explications sur le contenu du fichier task.yaml :

  • L’attribut kind détermine le type d’objet à créer, ici un objet de type Task.
  • L’attribut metadata/name définit le nom de la tâche. Ici la tâche se nomme powershell-helloworld-task.
  • L’attribut spec/steps décrit les différentes étapes de la tâche. Ici une seule étape nommée helloworld spécifie l’image à prendre pour créer le conteneur Docker qui exécutera la tâche. Les attributs command et args permettent de lancer la commande PowerShell qui affichera le texte « Hello World ».

Pour créer la tâche dans Kubernetes, il suffit de lancer la commande suivante depuis un terminal avec la ligne de commande Kubernetes :

kubectl apply -f task.yaml

Le terminal affiche la sortie ci-dessous :

task.tekton.dev/powershell-helloworld-task created

Attention ici car la création d’une tâche n’entraîne pas son exécution. Le prochain paragraphe montre comment procéder au lancement d’une tâche.

Exécuter une tâche

Une fois la tâche créée, il peut-être pertinent d’exécuter cette tâche de manière isolée sans avoir à exécuter tout le pipeline qui inclut cette tâche. Pour ce faire, nous allons déclarer un nouvel objet de type TaskRun.

Le fichier nommé task-run.yaml situé à la racine des sources Github fournies avec cet article contient la déclaration nécessaire pour créer un objet de type TaskRun . Ce fichier est montré ci-dessous :

Voici quelques explications sur le contenu du fichier task.yaml :

  • L’attribut kind détermine le type d’objet à créer, ici un objet de type TaskRun.
  • L’attribut metadata/name définit le nom de l’objet
  • L’attribut spec/taskRef permet de définir la tâche à exécuter en renseignant son nom. Ici la tâche powershell-helloworld-task  créée précédemment est donnée en référence.

Il ne reste plus désormais qu’à lancer la tâche en exécutant la commande suivante depuis un terminal  avec la ligne de commande Kubernetes :

kubectl apply -f task-run.yaml

Le terminal affiche la sortie ci-dessous :

taskrun.tekton.dev/powershell-helloworld-task-run created

Pour vérifier que la tâche powershell-helloworld-task s’est exécutée avec succès, il suffit de saisir la commande ci-dessous depuis un terminal :

tkn taskrun describe powershell-helloworld-task-run

Dans cet exemple, la ligne de commande Tekton est utilisée pour afficher le statut de la tâche . Si cette tâche créée s’est terminée correctement, le terminal doit afficher le type de sortie montrée ci-dessous :

Conclusion

Dans cette première partie d’une série d’articles consacrés à Tekton, nous avons vu que Tekton permet de définir et d’exécuter de manière simple des tâches qui lorsque nous les assembleront plus tard dans d’autres exemples formeront des pipelines CI/CD plus ou moins complexes.

L’installation de Tekton sur Kubernetes se révèle particulièrement triviale par rapport à l’installation d’outils traditionnels de CI/CD plus complexes à mettre en œuvre en particulier dans Kubernetes.

Dans la seconde partie de cette série, nous verrons comment créer un premier pipeline Tekton pour supporter toutes les phases du cycle de vie d’une application.

Pour aller plus loin

Toolkit Docker/Kubernetes Rangers

Le toolkit Kubernetes des NET Azure Rangers :

Tutorial NET Core Web APi C# Docker/Kubernetes sous Linux dans Programmez Avril 2020

Dans le le Programmez de Avril 2020, retrouvez un article technique qui vous expliquera en détail comment faire un déploiementd e Web API C# NET Core sur docker/kubernetes sous Linux Ubuntu 19.10.

On y détaillera les étapes suivantes:

  • la création du Web API en C# NET Core
  • la configuration docker et le dockerfile
  • le build de l’image
  • le push en registry locale de l’image docker
  • la configuration helm en YAML (Infra as Code) pour déployer le Web API
  • la supervision du cluster dans le portail k8s
  • l’utilisation de kubectl pour avoir les informations des services
Visual Studio Code sous Linux avec une fenêtre Terminal

Stay tuned.

Visual Studio Code, SSH, Linux, Kubernetes…

Après 3 semaines d’études de Kubernetes sous Linux, j’y vois déjà plus clair au niveau du tooling. Le fonctionnement sous Linux est indispensable pour bien comprendre comment cela fonctionne : le cluster, les pods, le proxy, les services, kubectl

bash sous Ubuntu 19.10
Visual Studio Code avec une fenêtre Terminal en ssh depuis Windows

L’apprentissage de Kubernetes est assez complexe au premier abord car les docs sont tordues. On est loin de la prise en main façon Microsoft. J’ai du me faire mal et lire un book Kubernetes Up & Running de O’Reilly et la version française que mon éditeur DUNOD m’a envoyé gratuitement (merci).

Sinon c’était des recherches sur le web pour trouver les commandes à renseigner dans le bash terminal. On avance doucement. Sur le papier c’est pas dur:

  • création du Web API en NET Core C# NET via console dotnet new WebAPI
  • création & build de l’image Docker
  • push de l’image en registry privée locale
  • création d’un déploiement avec helm sur k8s en pointant sur l’image en registry privée
  • vérification dans le portail k8S que tout est ok (vert)
  • kubectl get services => récupération du port du NodePort du service
  • chrome: host_linux:nodeport/webapi et ça marche !

ça c’est la théorie car la machine Linux, quand elle veut pas, y a moment de solitude. On n’est pas dans un environnement intégré Microsoft avec des assistants et de l’ai de partout. Là, c’est Terminal bash et tu te dém…. !

Si vous suivez mes tutos, vous vous en sortirai. Au pire des cas, vous m’envoyez un email. 🙂

Créer une Web API en C# avec NET Core 3.1 avec Docker et Kubernetes sur Linux Ubuntu

(Cet article est une overview. Tous les détails seront dans l’article en préparation pour Programmez).

Voilà le titre est assez long mais il représente bien le challenge.

Pourquoi ce post ? Je veux maîtriser Kubernetes. On nous baratine avec ça. Donc il faut s’y mettre, pas le choix. Microsoft nous parle de k8s matin midi et soir. Dans Azure, c’est incontournable. OK mais moi je dis plus fort :

  • j’ai le code source de k8s
  • je peux le downloader gratuitement
  • pourquoi j’irais dans Azure et que cela me coûterait mon crédit de 150$ mensuel ?
  • Et si je le faisais tourner sous Linux ? En local ?

Première étape, commander un PC Dell portable pour Ubuntu. ça c’est fait : j’ai un plan ! Un portable Pentium 8 GB de RAM, 1 TB de disk: 330€ euros. J’ai acheté un disque SSD à 50 euros et j’ai remplacé le SATA HD par le SSD et là, c’est machine de compétition pour une somme modique.

Ensuite, il faut aller sur https://ubuntu.com/ downloader Ubuntu 19.10. On télécharge Rufus pour booter sur une clé USB et le tour est joué.

Ensuite il faut installer gcc, g++, go, docker, microk8s et ensuite on joue.

Le support Kubernetes pour Ubuntu est assuré par MicroK8S: https://microk8s.io/ | https://ubuntu.com/kubernetes

MicroK8S est un package Linux fait pour les développeurs:

  • Conformant
  • Istio
  • Storage
  • Clustering BETA
  • Registry
  • GPGPU bindings
  • Dashboard
  • Metrics
  • Automatic Updates
  • Ingress
  • DNS
  • Linkerd, Fluentd
  • Knative
  • Kubeflow
  • Jaeger, Prometheus

L’installation se fait via :

  • sudo snap install microk8s –classic
  • sudo microk8s.status –wait-ready
  • sudo microk8s.enable dns dashboard registry
  • sudo microk8s.enable dns dashboard ingress
  • sudo microk8s.kubectl proxy –accept-hosts=.* –address=0.0.0.0 &
  • sudo microk8s.kubectl -n kube-system edit deploy kubernetes-dashboard -o yaml
  • => ajout de – –enable-skip-login dans spec:containers.args:

Ensuite, il faut installer NET Core 3.1: https://docs.microsoft.com/en-us/dotnet/core/install/linux-package-manager-ubuntu-1904

Avec NET Core installé, on créé une Web API : dotnet new webapi – o App

On build le truc dans une image Docker:

Je build la chose: sudo docker image build –pull -t aspnet3k8s:v1

j’ai pushé l’image dans une registry privée:

  • sudo docker tag aspnet3k8s:v1 localhost:32000/aspnet3k8s
  • sudo docker push localhost:32000/aspnet3k8s

Pour le déploiement de l’image Docker dans Kubernetes, il faut au préalable l’avoir poussée dan une registry privée.

Ensuite on va faire de l’infra as code avec du YAML pour pousser le deploiement dans kubernetes. L’IaC est variabilisée et les valeurs sont les suivantes:

Je fais le déploiement avce helm, le package manager kubernetes:

christophep@christophep-Inspiron-15-3573:~/dev$ helm install aspnet3release4 ./chart/
NAME: aspnet3release4
LAST DEPLOYED: Sat Feb  1 04:21:00 2020
NAMESPACE: default
STATUS: deployed
REVISION: 1
TEST SUITE: None

On check les status avec :

microk8s.kubectl get all –selector app=aspnet3core

On essaie d’accèder au cluster: ça marche

Le portail Kubernetes nous montre que tout est OK: L’url est http://localhost:8001/api/v1/namespaces/kube-system/services/https:kubernetes-dashboard:/proxy/

Conclusion: Ce PoC montre qu’installer Kubernetes est simple et gratuit pour le développement. Nul n’est besoin d’aller dans Azure et de consommer du crédit en $. Linux fait l’affaire. De plus, avec .NET Core, les développeurs Microsoft ne perdent pas leur bossoles. Le déploiement est fait via de l’infra as code et le paramétrage se fait en ligne de commande. IL y donc du Dev et du Ops.

Comment devenir un Expert Docker/Kubernetes dans le monde Microsoft ?

Ce post part d’une réflexion relatée à mon boss et à mes anciens collègues de différentes sociétés suite à la réception d’une newsletter Microsoft Azure….

Microsoft nous spam avec kubernetes… Y a pas à dire, Microsoft s’est converti à k8s.

En tant que MVP (Most Valuable Pipiche), je vous donne un feedback from the field sur Docker/Kubernetes. On m’a poussé à apprendre Docker & Azure en 2017 chez Neos-SDI et j’ai galéré… Mais ça a changé ma vie depuis 3 ans.

Après des semaines d’expérimentations avec ses choses-là (Docker, Azure et maintenant Kubernetes) , je suis arrivé à un constat : on a du boulot pour 10 ans sans forcer. Et donc qui dit boulot du business !

Par contre, le challenge c’est de faire évoluer les gens et là, ça va changer les habitudes des Devs NET traditionnelles. Comme disait Aimé Jacquet, sélectionneur de France 98, « Faut que tu muscules ton jeu sinon tu vas au-devant de sévères déconvenues ! ».

NET pour Windows, c’est mort. Faut faire de l’Azure, du Linux, du Docker/Kubernetes.

La recette à Pic :
Il faut vous mettre aux architectures micro-services (View on the web, Download pdf)
Il faut que vous maitrisiez la modernisation des applications .NET vers Azure (Download pdf)
Il faut faire des applications Web Modernes avec ASP.NET Core  et Azure (View on the web, Download pdf)
Il faut mettre en éveil l’Architecte qui est en vous:
Il faut regarder les samples officiels Microsoft comme eShopOnContainers, eShopWeb, SmartHotels360 et décortiquer la doc
Récupérer le code sur GitHub:
https://github.com/mspnp/microservices-reference-implementation
https://github.com/dotnet-architecture/eShopOnContainers
https://github.com/dotnet-architecture/eShopOnWeb
https://github.com/microsoft/SmartHotel360

Synthèse :

La solution est multi-plateformes (Windows, Linux) et multi-technologies:

  • Shipping/Delivery est en ASP.NET Core Web API avec support Redis
  • Shipping/DroneScheduler est fait en ASP.NET Core Web API avec support CosmosDB (ils ont pas pu s’empêcher…)
  • Shipping/injection est fait en Java/springframework
  • Shipping/package est fait en TS/node avec support MongoDB

Il y a le dev et le Ops : le YAML & co.

Le code des DockerFile est dense (limite complexe)

=> Il faut former les gens à Docker : c’est indispensable. Docker/Windows, Docker/Linux => mettre le paquet sur Docker

  • On peut d’ailleurs se servir de ce sample training officiel Docker/K8s.

Microsoft demande aux développeurs d’avoir des skills :

  • Windows, Linux
  • Docker, Kubernetes
  • Node, TS, Java, C#
  • MongoDB, Redis, CosmosDB

Le monde est de plus en plus complexe. Qui comme moi va passer son week-end à lire des books pour se former… ? Tout le monde n’est pas passionné. La barre est haute au niveau des skills .Je suis conscient que cela va nous donner du boulot pour les 10 ans à venir par contre la question reste posée : (hier, j’ai vu 2 cv asp.net qui m’ont pas fait rêver…) => on en fait quoi de ces gens-là ? Déjà que quand tu leur dit arrêter de faire EF, ils couinent…

On va leur demander de faire autre chose que du Web API bête et méchant : on leur demande d’être des architectes et de vrai développeurs avec un mindset open. Fini de jouer…

La clé de tout ça : la formation. Il est difficile de recruter des gens prêt à l’emploi : c’est très rare. Ils sont déjà en poste ou coûte très cher. Il faut former les gens. C’est la clé.

Mon avis personnel :

Aujourd’hui, tout existe, repos GitHub, Microsoft Learn, Microsoft Doc, les books gratuits MS Press, ceux qu’on rippe, ceux qu’on achète : on a tout ! La Technologie marche bien. Ce n’est pas le problème. Mais le problème c’est l’humain. Il faut faire prendre la mayonnaise, le faire adhérer, lui faire prendre conscience que c’est son intérêt d’upgrader ses skills.

Ça va être long et douloureux. Déjà que pour faire du Windows Server/IIS/SQL Server, le développeur Microsoft standard est léger… alors là, avec du Docker, Azure, NET Core, Linux, je suis pessimiste. On va ramer. On va essayer.

Informations technique :

Regardons le code du service Delivery, c’est pas dur :

Regardons le code que GetAsync :

On a un wrapper Redis : c’est le assuré via le package Nuget StackExchange.Redis

IDatabase est le wrapper Redis :

La conclusion de ce post est la suivante:

Formez vous à Docker/Kubernets, c’est l’avenir. Utilisez les samples de référence comme canevas de départ dans vos projets.

La newsletter Microsoft du jour: Lien: https://docs.microsoft.com/en-us/azure/architecture/reference-architectures/microservices/aks