Dans ce cours, vous explorerez deux techniques permettant d'améliorer les performances d'un modèle de fondation (FM) : la génération à enrichissement contextuel (RAG) et le peaufinage. Vous découvrirez les services Amazon Web Services (AWS) qui contribuent à stocker l’insertion dans des bases de données vectorielles, le rôle des agents dans les tâches en plusieurs étapes, la définition de méthodes pour affiner un FM, la préparation des données à des fins de peaufinage, etc.
- Niveau du cours : notions fondamentales.
- Durée : 1 heure.
Activités
Ce cours comprend des éléments interactifs, des instructions textuelles et des graphiques illustratifs.
Objectifs
- Identifier les services AWS qui permettent de stocker des intégrations dans des bases de données vectorielles
- Comprendre le rôle des agents dans les tâches en plusieurs étapes
- Comprendre les approches permettant d'évaluer les performances de la FM
- Déterminer si un FM répond efficacement aux objectifs commerciaux
- Définir des méthodes pour affiner un FM
- Décrire comment préparer les données pour affiner un FM
- Déterminez si un FM répond efficacement aux objectifs commerciaux en fonction de la métrique commerciale identifiée dans le cas d'utilisation
Public visé
- Personnes intéressées par l'intelligence artificielle et le machine learning (IA/ML), indépendamment d'un poste spécifique
Connaissances préalables recommandées
L'optimisation des modèles de fondation fait partie d'une série visant à établir les bases de l'intelligence artificielle, du machine learning et de l'IA générative. Si ce n'est pas déjà fait, il est recommandé de suivre ces deux cours : « Notions fondamentales du machine learning et de l'intelligence artificielle » et « Exploration des cas d'utilisation et des applications de l'intelligence artificielle »