Class Central is learner-supported. When you buy through links on our site, we may earn an affiliate commission.

Google Cloud

Infrastructure d'IA : types de déploiements

Google Cloud via Coursera

Overview

Google, IBM & Meta Certificates — All 10,000+ Courses at 40% Off
One annual plan covers every course and certificate on Coursera. 40% off for a limited time.
Get Full Access
Ce cours constitue un guide complet pour déployer, gérer et optimiser des charges de travail d'IA et de calcul hautes performances (HPC) sur Google Cloud. À travers une série de leçons et de démonstrations pratiques, vous explorerez diverses stratégies de déploiement, allant d'environnements hautement personnalisables utilisant Google Compute Engine (GCE) à des solutions gérées comme Google Kubernetes Engine (GKE). Plus précisément, vous apprendrez à créer des clusters et à déployer GKE pour l'inférence.

Syllabus

  • Présentation du cours
    • Ce module offre une vue d'ensemble du cours et présente les objectifs d'apprentissage.
  • Processus de création de cluster
    • Ce module décrit en détail le processus de création d'un cluster AI Hypercomputer. Il présente les décisions clés à prendre, y compris le choix du type de machine, de l'option de consommation, de l'option de déploiement, de l'outil d'orchestration et de l'image du cluster.
  • Créer un cluster avec Compute Engine
    • Ce module présente les principales options de configuration et techniques d'optimisation pour le déploiement d'un cluster AI Hypercomputer sur Google Compute Engine (GCE). Il aborde la sélection des types de machines, les images d'OS avec accélérateur, les options de déploiement, ainsi que les stratégies d'optimisation des performances réseau.
  • Créer avec Google Kubernetes Engine (GKE)
    • Ce module présente les options de configuration pour le déploiement d'un cluster AI Hypercomputer sur Google Kubernetes Engine (GKE). Il aborde la conteneurisation, les modes de fonctionnement de GKE, les configurations réseau, et les techniques d'optimisation des charges de travail telles que l'entraînement distribué et le partage de GPU.
  • Déployer avec GKE pour l'inférence
    • Ce module présente les techniques d'optimisation pour la conception d'une charge de travail d'inférence sur GKE. Il aborde le workflow d'inférence GKE, l'infrastructure clé et les optimisations au niveau du modèle.
  • Ressources du cours
    • Le PDF destiné aux participants contient les liens vers tous les modules.

Taught by

Google Cloud Training

Reviews

Start your review of Infrastructure d'IA : types de déploiements

Never Stop Learning.

Get personalized course recommendations, track subjects and courses with reminders, and more.

Someone learning on their laptop while sitting on the floor.