このコースでは、機械学習 (ML) パイプラインにおけるモデルのデプロイに関する包括的な知識を提供します。「はじめに」では、基本的なデプロイのコンセプトについて学びます。次に、最初のセクションでは、本番インフラストラクチャの重要なコンポーネントについて学びます。このセクションでは、ML ワークフローに最適なオーケストレーションサービスを選択する方法について説明します。次に、ML ライフサイクルのデプロイフェーズで使用できる Amazon Web Services (AWS) のツールとサービスについて学びます。次のセクションでは、推論インフラストラクチャについて取り上げます。主な利点に基づいて最適なデプロイターゲットを選択する方法を学びます。また、特定の要件に基づいてトレーニングや推論に適した環境を選択する方法も学びます。次に、さまざまな AWS コンピューティングインスタンスタイプを調べて、オンデマンドリソースとプロビジョニングされたリソースを区別する方法を学びます。最後に、本番環境とテスト環境でコンピューティングリソースをプロビジョニングする方法を確認します。
- コースレベル: 上級
- 所要時間: 1 時間
アクティビティ
- オンライン資料
- ナレッジチェックの問題
- コースの認定テスト
コースの目標
- ML パイプラインでのモデルデプロイを定義する。
- 本番インフラストラクチャとそのコンポーネントについて説明する。
- ML ワークフローのオーケストレーションサービスを比較し、違いを見分ける。
- デプロイインフラストラクチャの設計上の検討事項を説明する。
- 主な利点に基づいて最適なデプロイターゲットを選択する。
- ML モデルのデプロイ戦略と、その戦略におけるエンドポイント要件を説明する。
- 主な利点に基づいて、最適なモデルのデプロイおよびホスティング戦略を選択する。
- 主な利点に基づいて、マルチモデルデプロイまたはマルチコンテナデプロイを選択する。
- 主な利点に基づいて、最適なコンテナオプションを選択する。
- ML ソリューション用の AWS コンピューティングインスタンスタイプを列挙して説明する。
- 特定の要件に基づいて、トレーニングと推論に最適なコンピューティング環境を選択する。
- パフォーマンスとスケーリングの問題について、オンデマンドリソースとプロビジョニングされたリソースを区別する。
- 本番環境とテスト環境でコンピューティングリソースをプロビジョニングする方法を説明する。
- エッジデバイス上でモデルを最適化する方法を説明する。
対象者
- クラウドアーキテクト
- 機械学習エンジニア
推奨スキル
- SageMaker およびその他の AWS サービスを機械学習エンジニアリングに使用した経験が 1 年以上あること
- バックエンドソフトウェアデベロッパー、DevOps デベロッパー、データエンジニア、データサイエンティストなどの関連職での経験が 1 年以上あること
- Python などのプログラミング言語に関する基本的な理解
- AWS ML エンジニアアソシエイトの学習プランの以前のコースを修了していること
コースの概要
- セクション 1: はじめに
- レッスン 1: このコースの受講方法
- レッスン 2: 分野 3 の概要
- レッスン 3: コースの概要
- レッスン 4: モデルのデプロイの基礎
- セクション 2: モデルの構築とデプロイのインフラストラクチャ
- レッスン 5: 再現性があるフレームワークを構築する
- レッスン 6: ワークフローオーケストレーションのオプション
- セクション 3: 推論インフラストラクチャ
- レッスン 7: デプロイに関する考慮事項とターゲットオプション
- レッスン 8: モデル推論戦略を選択する
- レッスン 9: 推論用のコンテナおよびインスタンスタイプ
- レッスン 10: エッジコンピューティングによってデプロイを最適化する
- セクション 4: まとめ
- レッスン 11: コースのまとめ
- レッスン 12: 評価テスト
- レッスン 13: お問い合わせ