Class Central is learner-supported. When you buy through links on our site, we may earn an affiliate commission.

Google Cloud

Gérer des charges de travail évolutives dans GKE

Google Cloud via Coursera

Overview

Google, IBM & Meta Certificates — All 10,000+ Courses at 40% Off
One annual plan covers every course and certificate on Coursera. 40% off for a limited time.
Get Full Access
Ce cours explique comment moderniser, gérer et observer des applications à grande échelle à l'aide de Google Kubernetes Engine. Il s'appuie sur des présentations et des ateliers pratiques pour vous aider à explorer et à déployer des applications modernes à l'aide de Google Kubernetes Engine (GKE), de parcs GKE, de Cloud Service Mesh et de Config Controller, même lorsqu'elles sont réparties sur plusieurs clusters hébergés par différents fournisseurs.

Syllabus

  • Introduction
    • Dans ce module, vous découvrirez les objectifs du cours et un aperçu de chaque section.
  • Présentation de GKE à grande échelle
    • Dans la première partie de ce cours, intitulée "Présentation de GKE à grande échelle", vous allez apprendre à identifier les défis liés à la conception et à la création de solutions multi-environnements. Vous verrez comment GKE utilise des parcs pour simplifier les opérations. Vous apprendrez à décrire les concepts d'uniformité et de confiance, et à les utiliser pour gérer des parcs. Enfin, vous serez en mesure d'identifier les fonctionnalités et les composants utilisés pour gérer des parcs GKE.
  • Architecture GKE multicluster
    • Dans cette section du cours intitulée "Architecture GKE multicluster", vous allez voir comment GKE peut être utilisé pour centraliser la gestion des clusters. Vous étudierez l'architecture GKE multicluster et les clusters qui la composent. Vous apprendrez à créer, connecter et gérer des parcs GKE, ainsi qu'à accéder aux clusters de parcs GKE de manière sécurisée.
  • Parcs et équipes
    • Cette section concerne les parcs et les équipes dans GKE. Vous allez apprendre à définir des parcs GKE. Vous verrez comment les parcs GKE peuvent résoudre les problèmes courants liés à la gestion des clusters. Vous apprendrez à gérer des parcs et des équipes dans GKE Vous serez également en mesure de détailler les éléments de la gestion de parcs.
  • Gestion de la configuration de GKE à grande échelle
    • Dans cette section du cours, intitulée "Gestion de la configuration de GKE à grande échelle", vous allez apprendre à identifier les défis liés au scaling des configurations multiclusters et mutualisées. Vous verrez comment centraliser la gestion de la configuration à l'aide d'un modèle GitOps, comment décrire les avantages et l'architecture de Config Sync, comment utiliser Policy Controller pour assurer la sécurité et la conformité dans GKE, et comment étendre les principes GitOps aux ressources Google Cloud. Enfin, vous verrez comment créer une base standardisée, réutilisable et régie par des stratégies pour les déploiements Kubernetes.
  • Gestion des réseaux des parcs
    • Dans cette section du cours, vous allez apprendre à expliquer le fonctionnement de la gestion des réseaux des parcs. Vous verrez comment les pods d'un cluster Kubernetes communiquent entre eux, comment activer les services multiclusters et les configurer, comment détailler les éléments de la gestion de parcs et comment décrire le rôle d'une passerelle multicluster. Vous apprendrez aussi à configurer une passerelle multicluster.
  • Cloud Service Mesh
    • Dans cette section, vous allez apprendre à lister et à décrire les avantages de l'utilisation de Cloud Service Mesh. Vous verrez comment installer et configurer Cloud Service Mesh sur différents clusters. Vous suivrez le parcours d'une requête à travers le maillage, en identifiant et en expliquant correctement le rôle des composants clés tels que les proxys Envoy, Mesh CA et les extensions lors du traitement de la requête. Enfin, vous apprendrez à créer des tableaux de bord Service Mesh à partir de la télémétrie des charges de travail, y compris les métriques, les traces et les journaux.
  • Routage Cloud Service Mesh
    • Dans cette section, vous allez apprendre à expliquer comment Cloud Service Mesh apprend le réseau à partir de Kubernetes. Déployer des ressources d'API de maillage telles que VirtualService, DestinationRule, Gateway, Service Entry et Sidecar pour configurer le maillage Décrire comment renforcer le réseau maillé en introduisant de nouvelles fonctionnalités, telles que les nouvelles tentatives de requête, les délais avant expiration des requêtes et les disjoncteurs. Vous verrez également comment explorer la résilience Service Mesh en créant des pannes et des retards sur des services spécifiques.
  • Sécurité du maillage de services
    • Dans cette section, vous allez apprendre à chiffrer le trafic entre les microservices pour empêcher quiconque sur le réseau d'accéder aux informations privées. Vous verrez comment autoriser les services et les requêtes, en veillant à ce que les services n'accèdent qu'aux informations auxquelles ils sont autorisés par les autres services. Vous apprendrez à authentifier et à autoriser les services et les requêtes afin de vérifier la confiance entre les services du maillage et entre les utilisateurs finaux. Vous verrez également comment limiter l'accès aux services sur le réseau afin de pouvoir établir des contrôles précis sur la communication.
  • Gestion de réseaux multiclusters avec Cloud Service Mesh
    • Dans cette section, vous allez apprendre à configurer un maillage multicluster avec un seul sous-réseau sur un réseau VPC unique et tenir compte des variations telles que les clusters multirégionaux, les projets multiples, les VPC partagés et les clusters privés. Vous découvrirez également comment activer la communication entre les clusters GKE sur différents réseaux à l'aide d'une passerelle est-ouest et des clusters associés.
  • Gestion de l'identité dans GKE avec l'authentification
    • Dans cette section, vous allez apprendre à résumer les différences entre les méthodes d'authentification pour les clusters GKE et expliquer quand utiliser chacune d'elles. Vous verrez comment résumer les principales fonctionnalités de la passerelle Connect, et expliquer comment elle simplifie et sécurise les connexions aux clusters membres d'un parc GKE. Vous apprendrez à configurer la passerelle Connect pour l'authentification et l'autorisation, à accéder de manière sécurisée aux clusters, et à fournir l'authentification à l'aide d'OpenID Connect (OIDC) et de fournisseurs d'identité tiers (IdP tiers). Enfin, vous verrez comment configurer GKE Identity Service pour permettre l'authentification et l'autorisation des utilisateurs avec un cluster GKE et un IdP tiers.
  • Stratégie de sécurité, conformité et contrôles préventifs
    • Dans cette section, vous allez apprendre à décrire la stratégie de sécurité GKE. Vous verrez comment naviguer dans le tableau de bord de la stratégie de sécurité GKE et l'interpréter pour identifier les problèmes de sécurité. Vous apprendrez à implémenter des mesures de sécurité afin de protéger les nœuds de calcul GKE contre les menaces potentielles et à décrire le processus d'analyse des failles dans GKE. Enfin, vous serez en mesure d'expliquer les fonctionnalités d'Artifact Analysis et de Security Command Center de Google Cloud ainsi que leur rôle dans l'amélioration de la sécurité de GKE.
  • CI/CD à grande échelle dans GKE
    • Dans cette section, vous allez apprendre à décrire les composants principaux du pipeline CI/CD de Google Cloud et à expliquer comment ils permettent de répondre aux défis courants liés à la modernisation des applications. Vous verrez comment Cloud Deploy s'intègre à GKE pour gérer les manifestes Kubernetes et contrôler les déploiements. Vous comparerez et opposerez les stratégies de déploiement de Knative serving dans GKE. Vous découvrirez les étapes nécessaires pour établir une connexion VPC appairée permettant de sécuriser un pipeline CI/CD sur un réseau privé. Vous apprendrez également à évaluer les différents outils et mesures de sécurité disponibles dans Google Cloud pour sécuriser la chaîne d'approvisionnement logicielle.
  • GKE et l'IA
    • Dans cette section, vous allez apprendre à expliquer en quoi GKE est une plate-forme adaptée aux grands modèles de langage et à la demande croissante en accélérateurs matériels. Vous verrez comment décrire l'architecture générale d'une plate-forme d'entraînement basée sur GKE pour les modèles d'IA et comment présenter l'architecture d'une plate-forme de mise en service de modèles basée sur GKE. Vous verrez également comment décrire les différentes stratégies de gestion des coûts disponibles lors de l'utilisation de GKE pour les charges de travail d'IA/de ML.
  • Résumé du cours
    • Le cours se termine par un récapitulatif des principaux points abordés dans chaque section.
  • Ressources du cours
    • Le PDF destiné aux participants contient les liens vers tous les modules.

Taught by

Google Cloud Training

Reviews

Start your review of Gérer des charges de travail évolutives dans GKE

Never Stop Learning.

Get personalized course recommendations, track subjects and courses with reminders, and more.

Someone learning on their laptop while sitting on the floor.