LLMOps: Intel OpenVino Toolkit - Inferencia CPU y GPU con Transformers
The Machine Learning Engineer via YouTube
Overview
Coursera Flash Sale
40% Off Coursera Plus for 3 Months!
Grab it
Aprende a utilizar el toolkit OpenVino de Intel para optimizar la inferencia de modelos Transformers en CPU y GPU. Este tutorial de 23 minutos guía paso a paso en la instalación del runtime de OpenVino, la conversión de un modelo Transformers al formato propietario de Intel, y la realización de inferencias tanto en GPU como en CPU. Accede al notebook complementario en GitHub para seguir la práctica y profundizar en la implementación de LLMOps utilizando las herramientas de Intel para ciencia de datos y aprendizaje automático.
Syllabus
LLMOps: Intel OpenVino toolkit Inferencia CPU y GPU Transformers #datascience #machinelearning
Taught by
The Machine Learning Engineer