Google ML y AI: Qué es el Context Caching - Uso en Vertex AI
The Machine Learning Engineer via YouTube
Overview
Coursera Flash Sale
40% Off Coursera Plus for 3 Months!
Grab it
Este vídeo de 20 minutos explora el Context Caching, una funcionalidad que permite almacenar en caché los tokens de entrada más utilizados para optimizar el rendimiento de modelos de IA. Aprende cómo esta técnica reduce la cantidad de tokens enviados al modelo, disminuyendo costos y acelerando los tiempos de respuesta al evitar el reprocesamiento de contenido repetido. Observa un ejemplo práctico de implementación con documentos PDF almacenados en Google Cloud Storage e integrados con el modelo Gemini, donde se comparan los tiempos de respuesta con y sin la caché activada. El código y notebook completos están disponibles para suscriptores de pago contactando a mlengineerchannel@gmail.com.
Syllabus
Google ML and AI: Que es el Context Caching. Uso en Vertex Ai #datascience #machinelearning
Taught by
The Machine Learning Engineer