Architecting with Google Kubernetes Engine: Workloads en Français

Por: Coursera . en: , ,

Overview

Ce cours fait partie d'une spécialisation axée sur la construction d'infrastructures informatiques efficaces à l'aide de Kubernetes et Google Kubernetes Engine (GKE). Cette spécialisation présente aux participants le déploiement et la gestion d'applications conteneurisées sur GKE, ainsi que les autres services fournis par Google Cloud Platform. À travers un ensemble de présentations, de démonstrations et d'ateliers pratiques, les participants découvrent et déploient des éléments de solution, y compris des composants d'infrastructure tels que des pods, des conteneurs, des déploiements et des services, ainsi que des réseaux et des services applicatifs. Cette spécialisation aborde également le déploiement de solutions pratiques telles que la gestion de la sécurité et des accès, ainsi que la gestion et la surveillance des ressources.

Dans ce cours, "Architecting with Google Kubernetes Engine: Workloads", vous découvrirez comment effectuer des opérations Kubernetes ; comment créer et gérer des déploiements ; comment utiliser les outils de mise en réseau GKE ; et comment fournir un stockage persistant à vos charges de travail Kubernetes.

>>> En vous inscrivant à ce cours, vous acceptez les conditions d'utilisation de Qwiklabs (disponibles à l'adresse suivante : https://qwiklabs.com/terms_of_service) comme indiqué dans les questions fréquentes.

Syllabus

Présentation du cours
-Dans ce module, vous apprendrez…

Opérations Kubernetes
-Dans ce module, vous en saurez plus sur la commande kubectl, l'utilitaire de ligne de commande qui permet de gérer les ressources des clusters Kubernetes et d'interagir avec elles. Vous apprendrez à le connecter aux clusters Google Kubernetes Engine. Vous découvrirez également comment l'utiliser pour créer, inspecter et supprimer des pods et d'autres objets des clusters Kubernetes, et interagir avec ces éléments. Vous utiliserez aussi kubectl pour afficher le résultat de la console d'un pod, et vous connecter de façon interactive à un pod.

Déploiements, tâches et scaling
-GKE fonctionne avec les applications conteneurisées, c'est-à-dire des applications intégrées dans des instances de l'espace utilisateur isolées, indépendantes du matériel. Dans GKE et Kubernetes, ces applications empaquetées sont appelées collectivement charges de travail. Dans ce module, nous nous intéresserons à deux des principaux types de charges de travail : les déploiements et les tâches. Vous découvrirez aussi les mécanismes employés pour effectuer un scaling des clusters GKE où vous exécutez vos applications. Vous apprendrez à contrôler quels nœuds de pods doivent s'exécuter ou non. Vous découvrirez également des façons d'intégrer un logiciel dans votre cluster.

Mise en réseau Google Kubernetes Engine
-Dans ce module, vous apprendrez à créer des services pour exposer les applications qui s’exécutent dans des pods, ce qui leur permet de communiquer avec l'extérieur. Vous apprendrez aussi à créer des ressources Ingress pour l'équilibrage de charge HTTP ou HTTPS. Vous découvrirez également l'équilibrage de charge natif en conteneurs de GKE, qui permet de configurer directement les pods en tant que points de terminaison du réseau avec Google Cloud Load Balancing.

Données et stockage persistants
-Dans ce module, vous découvrirez les différents types d'abstractions de stockage Kubernetes, les StatefulSets et la manière de les utiliser pour gérer des déploiements ordonnés de pods et de stockage. Vous apprendrez également à déployer plus vite vos applications avec les ConfigMaps en dissociant les artefacts de configuration des définitions de conteneur. Enfin, vous verrez comment éviter que vos informations sensibles ne soient accidentellement exposées grâce aux secrets Kubernetes.

Plataforma